Инструменты пользователя

Инструменты сайта


start

Различия

Здесь показаны различия между двумя версиями данной страницы.

Ссылка на это сравнение

Предыдущая версия справа и слева Предыдущая версия
start [2024/02/08 21:57]
platonova
start [2024/03/20 10:57] (текущий)
platonova
Строка 1: Строка 1:
 ====Ближайшее заседание==== ====Ближайшее заседание====
  
-**14 февраля 2024 г.** +**27 марта 2024 г.** 
-//Искусственный интеллект ​VS языковые ​модели GPT//+//Эмоции в коммуникации с искусственным интеллектом: этико-психологические аспекты//
  
-Докладчик: ​Шалак Владимир Иванович (дфилосн., руководитель ​сектора ​логики ИФ РАН)+Докладчик: ​ Майленова Фарида Габделхаковна, доктор ​философских ​наукведущий научный сотрудник ​сектора гуманитарных экспертиз и биоэтики Института философии ​РАН, г. Москва,​ Россия  
 +\\ farida.mailenova@gmail.com
  
-Аннотация:​ В докладе еще раз будет поставлен вопрос о том, что можно ​считать ​искусственными +Аннотация:​ В дискуссиях ​о роботах с искусственным интеллектом практически всегда возникает вопрос, будут ли роботы будущего сами обладать эмоциями. Роль ​эмоций в коммуникации сложно переоценить, ​и образ будущего, в котором мы сможем ​общаться с эмоциональными роботами, является ​одновременно привлекательным и пугающим. В произведениях научной фантастики, где роботы-андроиды имеют не только ​разум, ​но и эмоции, возможные этические коллизии такого взаимодействия Рассматривая тему «эмоциональность роботов», которая ​непосредственно связана с вопросом о возможностях и пределах обучения роботов эмоциям, я предлагаю разделить ее на несколько аспектов: 1) проявление эмоций;​ 2) считывание ​эмоций у собеседника (по голосупозам, выражению глаз, мимике); 3) способность учитывать и предсказывать эмоции собеседника; 4) способность испытывать эмоции;​ 5) способность ​рефлексировать и осознавать свои эмоции. Если первые два пункта почти не вызывают вопросов, ИИ уже сегодня обучают распознавать эмоции и имитировать ​их, то последние ​три способности предполагают высокий уровень сознания ​и нравственного ​развития. Вопрос о том, можно ли научить робота ощущать эмоции,​ рефлексировать их и учитывать эмоции ​при общении, остается открыт. Между тем люди, ​будучи чувствительны к проявлениям эмоций, ​способны ​реагировать не только на их искренние проявления, но в том числе и на их качественную имитацию - а это современным ​роботам вполне по силам. Так что опасность, что роботы смогут манипулировать человеком и его эмоциями, ​актуальна ​уже ​сегодня.
-интеллектуальными системами. В самом общем виде – это системы, обладающие +
-характеристикамиотличающими ​Homo sapiens ​от всего остального мира живой природы+
-Самообучение и распознавание образов не являются ​такими отличительными признакамиОдна +
-из главных характеристик ​– способность к понятийному мышлению. В результате анализа ​простых +
-примеровс которыми не справляются ​нейросети, будет показано, что никакое дообучение на +
-больших ​объемах текстов не позволит улучшить их работу по причине ​определенных +
-теоретических ограничений. Будет ​объяснено, ​в чем ​заключаются эти ограничения. Языковые +
-модели порождения текстов нейросетями GPT являются тупиковым ​направлением в +
-моделировании ИИ. Поскольку в настоящее ​время начинается бездумное внедрение нейросетей ​в +
-самые разные области человеческой деятельности, обретает актуальность понятие нейрохакинга – +
-принуждения нейросетей принимать нужные пользователю решения, например, ​в +
-судопроизводстве. Это будет продемонстрировано на примере принуждения трех ​сетей принять в +
-качестве истинного утверждение: «Если ​некоторый объект ​обладает свойством P, то всякий ​объект +
-обладает свойством P». Его частным случаем будет утверждение: «Если некоторый ​человек +
-бородат, то все люди бородаты». Будут предложены общие методы нейрохакинга.+
  
  
start.txt · Последние изменения: 2024/03/20 10:57 — platonova