Здесь показаны различия между двумя версиями данной страницы.
Предыдущая версия справа и слева Предыдущая версия Следующая версия | Предыдущая версия Следующая версия Следующая версия справа и слева | ||
start [2020/03/20 19:25] platonova |
start [2024/03/20 10:57] platonova |
||
---|---|---|---|
Строка 1: | Строка 1: | ||
====Ближайшее заседание==== | ====Ближайшее заседание==== | ||
- | **Теоретические и методологические предпосылки обсуждения проблем этики искусственного интеллекта** | + | **27 марта 2024 г.** |
+ | //Эмоции в коммуникации с искусственным интеллектом: этико-психологические аспекты// | ||
- | **дата уточняется 2020 г.** | + | Докладчик: Майленова Фарида Габделхаковна, доктор философских наук, ведущий научный сотрудник сектора гуманитарных экспертиз и биоэтики Института философии РАН, г. Москва, Россия |
- | \\ | + | \\ farida.mailenova@gmail.com |
- | //Социально-психологические и этические аспекты внедрения автономных интеллектуальных систем в повседневную жизнь общества.// | + | |
- | Время проведения 18:30–20:30 | + | Аннотация: В дискуссиях о роботах с искусственным интеллектом практически всегда возникает вопрос, будут ли роботы будущего сами обладать эмоциями. Роль эмоций в коммуникации сложно переоценить, и образ будущего, в котором мы сможем общаться с эмоциональными роботами, является одновременно привлекательным и пугающим. В произведениях научной фантастики, где роботы-андроиды имеют не только разум, но и эмоции, возможные этические коллизии такого взаимодействия Рассматривая тему «эмоциональность роботов», которая непосредственно связана с вопросом о возможностях и пределах обучения роботов эмоциям, я предлагаю разделить ее на несколько аспектов: 1) проявление эмоций; 2) считывание эмоций у собеседника (по голосу, позам, выражению глаз, мимике); 3) способность учитывать и предсказывать эмоции собеседника; 4) способность испытывать эмоции; 5) способность рефлексировать и осознавать свои эмоции. Если первые два пункта почти не вызывают вопросов, ИИ уже сегодня обучают распознавать эмоции и имитировать их, то последние три способности предполагают высокий уровень сознания и нравственного развития. Вопрос о том, можно ли научить робота ощущать эмоции, рефлексировать их и учитывать эмоции при общении, остается открыт. Между тем люди, будучи чувствительны к проявлениям эмоций, способны реагировать не только на их искренние проявления, но в том числе и на их качественную имитацию - а это современным роботам вполне по силам. Так что опасность, что роботы смогут манипулировать человеком и его эмоциями, актуальна уже сегодня. |
- | \\ | + | |
- | \\ Докладчик – **Д.В. Огородов** (к.ю.н., член рабочей группы по этике искусственного интеллекта (ECAI/EAD IEEE), член РАИИ, арбитр Международного коммерческого арбитражного суда при Торгово-промышленной палате РФ). | + | |
- | \\ | + | |
- | \\ Аннотация. {{ :ogorodov.pdf |}} | + | |
- | \\ | + | |
- | \\ Место проведения: Институт философии РАН, ул. Гончарная, д. 12/1, комн. 416 | + | |
- | Необходима регистрация по адресу: EthicsAI@iph.ras.ru | ||
- | [[программа|Программа семинара]] | + | Необходима регистрация по адресу: ethicsai@yandex.ru |
+ | |||
+ | |||
+ | [[программа|Материалы семинара]] | ||