Инструменты пользователя

Инструменты сайта


start

Различия

Здесь показаны различия между двумя версиями данной страницы.

Ссылка на это сравнение

Предыдущая версия справа и слева Предыдущая версия
Следующая версия
Предыдущая версия
Следующая версия Следующая версия справа и слева
start [2020/03/20 19:25]
platonova
start [2024/03/20 10:57]
platonova
Строка 1: Строка 1:
 ====Ближайшее заседание==== ====Ближайшее заседание====
  
-**Теоретические и методологические предпосылки обсуждения проблем этики искусственного ​интеллекта**+**27 марта 2024 г.** 
 +//Эмоции в коммуникации с искусственным интеллектом: этико-психологические ​аспекты//​
  
-**дата уточняется 2020 г.**  +Докладчик:  Майленова Фарида Габделхаковна, доктор философских наукведущий научный сотрудник сектора гуманитарных ​экспертиз и биоэтики Института философии РАН, г. Москва, Россия  
-\\ +\\ farida.mailenova@gmail.com
-//Социально-психологические и этические аспекты внедрения автономных интеллектуальных систем в повседневную жизнь ​общества.//+
  
-Время проведения 18:​30–20:​30 +Аннотация: ​В дискуссиях о роботах с искусственным интеллектом практически ​всегда возникает вопрос,​ будут ли роботы будущего сами обладать эмоциями. Роль эмоций в коммуникации сложно переоценить,​ и образ будущегов котором мы сможем общаться с эмоциональными роботамиявляется одновременно привлекательным и пугающим. В произведениях научной фантастики, ​где роботы-андроиды имеют не только разум, но и эмоции,​ возможные ​этические коллизии такого взаимодействия Рассматривая тему «эмоциональность роботов»,​ которая непосредственно ​связана с вопросом о возможностях ​и пределах обучения роботов эмоциям,​ я предлагаю разделить ​ее на несколько ​аспектов:​ 1проявление эмоций;​ 2) считывание эмоций у собеседника (по голосупозам, выражению глаз, мимике);​ 3) способность учитывать и предсказывать эмоции собеседника; 4) способность испытывать эмоции;​ 5) способность рефлексировать и осознавать свои эмоции. Если первые два пункта почти не вызывают вопросов, ИИ уже сегодня обучают распознавать эмоции и имитировать их, то последние три способности ​предполагают высокий уровень сознания и нравственного развития. Вопрос о том, можно ​ли научить робота ощущать эмоции,​ рефлексировать их и учитывать эмоции при общении,​ остается открыт. Между тем люди, будучи чувствительны к проявлениям эмоций,​ способны реагировать не только на их искренние проявления, но в том числе и на их качественную имитацию - а это современным роботам вполне по силамТак что опасность, ​что роботы смогут манипулировать человеком и его эмоциямиактуальна уже сегодня.
-\\ +
-\\ Докладчик – **Д.ВОгородов** (к.ю.н.член рабочей группы по этике искусственного интеллекта (ECAI/EAD IEEE), член ​РАИИ, арбитр ​Международного коммерческого арбитражного суда при ​Торгово-промышленной палате ​РФ). +
-\\ +
-\\ Аннотация. ​{{ :​ogorodov.pdf |}} +
-\\ +
-\\ Место проведения: Институт ​философии РАН, ул. Гончарная, ​д. 12/1, комн. 416+
  
-Необходима регистрация по адресу:​ EthicsAI@iph.ras.ru 
  
-[[программа|Программа семинара]]+Необходима регистрация по адресу:​ ethicsai@yandex.ru 
 + 
 + 
 +[[программа|Материалы семинара]] 
  
start.txt · Последние изменения: 2024/05/13 13:17 — platonova