Инструменты пользователя

Инструменты сайта


start

Различия

Здесь показаны различия между двумя версиями данной страницы.

Ссылка на это сравнение

Предыдущая версия справа и слева Предыдущая версия
Следующая версия
Предыдущая версия
start [2024/12/03 19:31]
platonova
start [2025/10/21 14:37] (текущий)
platonova
Строка 1: Строка 1:
 ====Ближайшее заседание==== ====Ближайшее заседание====
  
-**11 декабря ​2024 г.** +**14 ноября ​2025 г.** 
-//Человек-оператор и искусственный ​интеллектнавязанное сосуществование или ​выгодное партнерство?//+//Моральный тест Тьюринга: иллюзия этичности или ​инструмент для безопасности ИИ?//
  
-ДокладчикиДозорцев Виктор Михайлович, ​д.т.н., директор по развитию бизнеса Центра цифровых ​технологий (МФТИ, Группа компаний Рубитех); +Докладчик: ​Антипов Алексей ​Владимирович, ​к. филос. н., ст. н. с. сектора ​гуманитарных экспертиз и биоэтики Института ​философии ​РАН.
-Венгер Александр Леонидович, д.псх.н., профессор Государственного университета «Дубна».+
  
-Аннотация: ​Эффективность взаимодействия человека-оператора и искусственного ​интеллекта – продолжение ​непреходящей темы доверия/недоверия технике, усугубляемой ​особенностями современных ​ИИ-инструментов. Такой ИИ, пока «слабый», в составе рекомендательных систем все шире проникает в промышленную практику, опережая его осмысление, теоретическое обоснование и подготовку операторов ​к работе в новых условиях. Помимо известных мер повышения доверия (прозрачность, объяснимость, коммуникативность, мотивированность, пр.) все актуальней становится учет индивидуально-психологических характеристик ​операторов («большая ​пятерка», атрибутивный стиль, стратегия принятия решений в ответственных ситуациях). В докладе обосновывается модель принятия/отклонения ​советов ИИ, позволяющая оценить предпочитаемые оператором стратегии в зависимости от уровня субъективной тревожности и использовать эти оценки для взаимоадаптации Ч-О и ИИ в задачах управления сложными ​и потенциально опасными техническими системами. Излагаются исследовательский ландшафт проблемы, имеющиеся экспериментальные ​результаты и направления будущих разработок.      +Аннотация: ​Распространение роботов с социальными ​обязательствами, например, ухаживающими за пожилым ​человеком, или ​автономных хирургических систем, принимающих ​решение ​в критический момент, поднимает вопрос об их «моральной» надежности. Один из возможных ​ответов ​— «моральный тест Тьюринга». В рамках доклада будет представлена ​эволюция этой идеиот исходного теста Тьюринга к его ​специализированным модификациям ​для ​оценки этики ИИ. Мы кратко рассмотрим ключевые версии, такие как ​тест на этическую ​компетентность и тест Тьюринга на распределение приоритетов. Будут также обозначены ограничения этих подходов. Я выделю главные методологические ​трудности: риск простого «подражания» моралипроблема отсутствия у ИИ понимания и фундаментальные философские возражения, представленные, например, в работах таких исследователей ​как Дж. Серл ​и Х. Дрейфус. Моральный ​тест Тьюринга является полезным ​функциональным инструментом для проверки безопасности систем, но не доказательством ​их моральной субъектности, что ​может иметь решающее значение в чувствительной сфере биоэтических исследований.
  
 Необходима регистрация по адресу:​ ethicsai@yandex.ru Необходима регистрация по адресу:​ ethicsai@yandex.ru
start.1733243507.txt.gz · Последние изменения: 2024/12/03 19:31 — platonova