Здесь показаны различия между двумя версиями данной страницы.
Предыдущая версия справа и слева Предыдущая версия | |||
start [2024/02/08 21:57] platonova |
start [2024/03/20 10:57] (текущий) platonova |
||
---|---|---|---|
Строка 1: | Строка 1: | ||
====Ближайшее заседание==== | ====Ближайшее заседание==== | ||
- | **14 февраля 2024 г.** | + | **27 марта 2024 г.** |
- | //Искусственный интеллект VS языковые модели GPT// | + | //Эмоции в коммуникации с искусственным интеллектом: этико-психологические аспекты// |
- | Докладчик: Шалак Владимир Иванович (д. филос. н., руководитель сектора логики ИФ РАН) | + | Докладчик: Майленова Фарида Габделхаковна, доктор философских наук, ведущий научный сотрудник сектора гуманитарных экспертиз и биоэтики Института философии РАН, г. Москва, Россия |
+ | \\ farida.mailenova@gmail.com | ||
- | Аннотация: В докладе еще раз будет поставлен вопрос о том, что можно считать искусственными | + | Аннотация: В дискуссиях о роботах с искусственным интеллектом практически всегда возникает вопрос, будут ли роботы будущего сами обладать эмоциями. Роль эмоций в коммуникации сложно переоценить, и образ будущего, в котором мы сможем общаться с эмоциональными роботами, является одновременно привлекательным и пугающим. В произведениях научной фантастики, где роботы-андроиды имеют не только разум, но и эмоции, возможные этические коллизии такого взаимодействия Рассматривая тему «эмоциональность роботов», которая непосредственно связана с вопросом о возможностях и пределах обучения роботов эмоциям, я предлагаю разделить ее на несколько аспектов: 1) проявление эмоций; 2) считывание эмоций у собеседника (по голосу, позам, выражению глаз, мимике); 3) способность учитывать и предсказывать эмоции собеседника; 4) способность испытывать эмоции; 5) способность рефлексировать и осознавать свои эмоции. Если первые два пункта почти не вызывают вопросов, ИИ уже сегодня обучают распознавать эмоции и имитировать их, то последние три способности предполагают высокий уровень сознания и нравственного развития. Вопрос о том, можно ли научить робота ощущать эмоции, рефлексировать их и учитывать эмоции при общении, остается открыт. Между тем люди, будучи чувствительны к проявлениям эмоций, способны реагировать не только на их искренние проявления, но в том числе и на их качественную имитацию - а это современным роботам вполне по силам. Так что опасность, что роботы смогут манипулировать человеком и его эмоциями, актуальна уже сегодня. |
- | интеллектуальными системами. В самом общем виде – это системы, обладающие | + | |
- | характеристиками, отличающими Homo sapiens от всего остального мира живой природы. | + | |
- | Самообучение и распознавание образов не являются такими отличительными признаками. Одна | + | |
- | из главных характеристик – способность к понятийному мышлению. В результате анализа простых | + | |
- | примеров, с которыми не справляются нейросети, будет показано, что никакое дообучение на | + | |
- | больших объемах текстов не позволит улучшить их работу по причине определенных | + | |
- | теоретических ограничений. Будет объяснено, в чем заключаются эти ограничения. Языковые | + | |
- | модели порождения текстов нейросетями GPT являются тупиковым направлением в | + | |
- | моделировании ИИ. Поскольку в настоящее время начинается бездумное внедрение нейросетей в | + | |
- | самые разные области человеческой деятельности, обретает актуальность понятие нейрохакинга – | + | |
- | принуждения нейросетей принимать нужные пользователю решения, например, в | + | |
- | судопроизводстве. Это будет продемонстрировано на примере принуждения трех сетей принять в | + | |
- | качестве истинного утверждение: «Если некоторый объект обладает свойством P, то всякий объект | + | |
- | обладает свойством P». Его частным случаем будет утверждение: «Если некоторый человек | + | |
- | бородат, то все люди бородаты». Будут предложены общие методы нейрохакинга. | + | |