Здесь показаны различия между двумя версиями данной страницы.
| Предыдущая версия справа и слева Предыдущая версия Следующая версия | Предыдущая версия | ||
|
start [2024/06/13 19:21] platonova |
start [2025/10/21 14:37] (текущий) platonova |
||
|---|---|---|---|
| Строка 1: | Строка 1: | ||
| ====Ближайшее заседание==== | ====Ближайшее заседание==== | ||
| - | **26 июня 2024 г.** | + | **14 ноября 2025 г.** |
| - | //Обзор подходов к валидации интеллектуальных систем на этичность: от научных исследований до нормативной документации// | + | //Моральный тест Тьюринга: иллюзия этичности или инструмент для безопасности ИИ?// |
| - | + | ||
| - | Докладчик: Готовцев Павел Михайлович, к.т.н., НИЦ «Курчатовский институт» | + | |
| - | + | ||
| - | В настоящее время активно обсуждается огромное количество рекомендаций, нормативных документов, дорожных карт и т.д. о том, какими этичными должны быть современные интеллектуальные и автономные системы. Значительная часть этих бумаг не представляет ничего более чем пожелания о том, чего хотелось бы достичь в данной области. В тоже время серьезных научных исследований, привязанных к реальным возможностям тех систем, которые уже есть на практике или активно разрабатываются на сегодняшний день не так уж и много. Таким образом, сегодня складывается парадоксальная ситуация когда ведутся многочисленные обсуждения и написание регламентирующих отрасль документов, которые практически не подтверждены научными исследованиями. Целью данного доклада является обзор того, как сегодня обсуждается валидация интеллектуальных систем на этичность в различных документах, какие научные исследования были проведены в данной области и на что необходимо обратить внимание, чтобы разрабатываемые нормативные и регуляторные документы как можно быстрее получили основу в виде реальных научных результатов. | + | |
| + | Докладчик: Антипов Алексей Владимирович, к. филос. н., ст. н. с. сектора гуманитарных экспертиз и биоэтики Института философии РАН. | ||
| + | Аннотация: Распространение роботов с социальными обязательствами, например, ухаживающими за пожилым человеком, или автономных хирургических систем, принимающих решение в критический момент, поднимает вопрос об их «моральной» надежности. Один из возможных ответов — «моральный тест Тьюринга». В рамках доклада будет представлена эволюция этой идеи: от исходного теста Тьюринга к его специализированным модификациям для оценки этики ИИ. Мы кратко рассмотрим ключевые версии, такие как тест на этическую компетентность и тест Тьюринга на распределение приоритетов. Будут также обозначены ограничения этих подходов. Я выделю главные методологические трудности: риск простого «подражания» морали, проблема отсутствия у ИИ понимания и фундаментальные философские возражения, представленные, например, в работах таких исследователей как Дж. Серл и Х. Дрейфус. Моральный тест Тьюринга является полезным функциональным инструментом для проверки безопасности систем, но не доказательством их моральной субъектности, что может иметь решающее значение в чувствительной сфере биоэтических исследований. | ||
| Необходима регистрация по адресу: ethicsai@yandex.ru | Необходима регистрация по адресу: ethicsai@yandex.ru | ||