Ошибка базы данных WordPress: [Table './meandr_base/anzpz_usermeta' is marked as crashed and last (automatic?) repair failed]
SELECT user_id, meta_key, meta_value FROM anzpz_usermeta WHERE user_id IN (1) ORDER BY umeta_id ASC

0

Японцы нацелились на создание «мозга» для роботов следующего поколения, способных к осмысленному взаимодействию с людьми

1Исследовательская группа из лаборатории Hagiwara Отдела информации и информатики Факультета естественных наук и технологий университета Кэйо (Keio University) работают в направлении создания «мозга» для роботов следующих поколений, способного произвести комплексный анализ видео-, аудио- и эмоциональной информации. Благодаря этому роботы получат возможность осмысленного поведения и взаимодействия с людьми во множестве аспектов повседневной жизни и трудовой деятельности.

«Несмотря на то, что в области робототехники и в области систем управления буквально каждый день совершаются какие-либо важные достижения, разработка искусственного интеллекта, «мозга» для роботов, буквально топчется на месте в течение достаточно долгого времени. Мы считаем, что ключевым моментом, основной функцией, которая будет определять работу мозга робота, является многоплановая обработка визуальной информации. Другими словами, автоматизированный мозг должен иметь возможность не только увидеть, но и адекватно воспринять то, что он видит вокруг себя. Следующим этапом станет обработка аудиоинформации, которая является важнейшей частью процесса общения людей. Но даже если мозг робота будет в состоянии обработать то, что он видит, и услышать, что ему говорят люди, он будет испытывать недостаток в восприятии чувств и эмоций окружающих людей. Поэтому мы сосредоточились на исследованиях в области обработки эмоциональной составляющей информации».

Исследователи, разрабатывая принципы функционирования нового мозга для роботов, используют известные принципы самообучения и обработки информации человеческим мозгом визуальной информации, технологии обработки аудиоинформации и обработки эмоциональных составляющих. Такие технологии уже существуют и работают в настоящее время, но японские исследователи планируют сделать то, чего не удавалось сделать никому раньше, они планируют объединить все три технологии в единое целое.

«Для обработки визуальной информации мы используем нейронные сети, которые распознают объекты при помощи механизмов, основанных на опыте и интуиции, принципы работы которых весьма напоминают происходящее в нашем мозге. Это позволяет избавиться от использования огромной базы трехмерных шаблонов и от сложнейшей математической обработки изображений. Использование нейронных сетей позволит мозгу обучаться и приобретать опыт не только в деле распознавания видеоинформации. Такие же самые принципы будут использоваться для обработки аудио- и других типов информации».

За счет своей нейросетевой структуры новый электронно-компьютерный мозг сможет накапливать приобретаемый опыт, обнаруженные человеческие эмоции, чувства. Через некоторое время количество обязательно должно перейти в качество и роботы с таким мозгом смогут сопоставить эмоциональную составляющую с другими видами информации, что позволит им самим стать носителями эмоций и чувств, родственных человеческим. Естественно, это позволит значительно упростить их взаимодействие с другими людьми и окружающей средой.

«Большинство существующих роботов способны действовать, строго следуя запрограммированным в их системах наборам правил. Это не так плохо, такие роботы способны весьма эффективно выполнять поставленные перед ними задачи определенного рода. Но в течение нескольких следующих лет роботы займут твердую позицию в повседневной жизни людей и когда это произойдет, на первый план выйдут проблемы взаимодействия этих роботов с людьми. А если робот будет в состоянии понять индивидуальные чувства каждого человека, он сможет выбирать соответствующую линию своего поведения, делая процесс общения робота и человека практически неотличимым от процесса общения двух людей».

admin

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *