Здесь показаны различия между двумя версиями данной страницы.
| Предыдущая версия справа и слева Предыдущая версия Следующая версия | Предыдущая версия | ||
|
start [2024/12/03 19:31] platonova |
start [2025/10/21 14:37] (текущий) platonova |
||
|---|---|---|---|
| Строка 1: | Строка 1: | ||
| ====Ближайшее заседание==== | ====Ближайшее заседание==== | ||
| - | **11 декабря 2024 г.** | + | **14 ноября 2025 г.** |
| - | //Человек-оператор и искусственный интеллект: навязанное сосуществование или выгодное партнерство?// | + | //Моральный тест Тьюринга: иллюзия этичности или инструмент для безопасности ИИ?// |
| - | Докладчики: Дозорцев Виктор Михайлович, д.т.н., директор по развитию бизнеса Центра цифровых технологий (МФТИ, Группа компаний Рубитех); | + | Докладчик: Антипов Алексей Владимирович, к. филос. н., ст. н. с. сектора гуманитарных экспертиз и биоэтики Института философии РАН. |
| - | Венгер Александр Леонидович, д.псх.н., профессор Государственного университета «Дубна». | + | |
| - | Аннотация: Эффективность взаимодействия человека-оператора и искусственного интеллекта – продолжение непреходящей темы доверия/недоверия технике, усугубляемой особенностями современных ИИ-инструментов. Такой ИИ, пока «слабый», в составе рекомендательных систем все шире проникает в промышленную практику, опережая его осмысление, теоретическое обоснование и подготовку операторов к работе в новых условиях. Помимо известных мер повышения доверия (прозрачность, объяснимость, коммуникативность, мотивированность, пр.) все актуальней становится учет индивидуально-психологических характеристик операторов («большая пятерка», атрибутивный стиль, стратегия принятия решений в ответственных ситуациях). В докладе обосновывается модель принятия/отклонения советов ИИ, позволяющая оценить предпочитаемые оператором стратегии в зависимости от уровня субъективной тревожности и использовать эти оценки для взаимоадаптации Ч-О и ИИ в задачах управления сложными и потенциально опасными техническими системами. Излагаются исследовательский ландшафт проблемы, имеющиеся экспериментальные результаты и направления будущих разработок. | + | Аннотация: Распространение роботов с социальными обязательствами, например, ухаживающими за пожилым человеком, или автономных хирургических систем, принимающих решение в критический момент, поднимает вопрос об их «моральной» надежности. Один из возможных ответов — «моральный тест Тьюринга». В рамках доклада будет представлена эволюция этой идеи: от исходного теста Тьюринга к его специализированным модификациям для оценки этики ИИ. Мы кратко рассмотрим ключевые версии, такие как тест на этическую компетентность и тест Тьюринга на распределение приоритетов. Будут также обозначены ограничения этих подходов. Я выделю главные методологические трудности: риск простого «подражания» морали, проблема отсутствия у ИИ понимания и фундаментальные философские возражения, представленные, например, в работах таких исследователей как Дж. Серл и Х. Дрейфус. Моральный тест Тьюринга является полезным функциональным инструментом для проверки безопасности систем, но не доказательством их моральной субъектности, что может иметь решающее значение в чувствительной сфере биоэтических исследований. |
| Необходима регистрация по адресу: ethicsai@yandex.ru | Необходима регистрация по адресу: ethicsai@yandex.ru | ||