Здесь показаны различия между двумя версиями данной страницы.
| Предыдущая версия справа и слева Предыдущая версия Следующая версия | Предыдущая версия | ||
|
start [2025/01/10 11:23] platonova |
start [2025/10/21 14:37] (текущий) platonova |
||
|---|---|---|---|
| Строка 1: | Строка 1: | ||
| ====Ближайшее заседание==== | ====Ближайшее заседание==== | ||
| - | **05 февраля 2025 г.** | + | **14 ноября 2025 г.** |
| - | //Проблема «искусственного зла»?// | + | //Моральный тест Тьюринга: иллюзия этичности или инструмент для безопасности ИИ?// |
| - | Докладчик: Перов Вадим Юрьевич, кандидат философских, доцент, зав.каф.этики, Институт философии, Санкт-Петербургский государственный университет | + | Докладчик: Антипов Алексей Владимирович, к. филос. н., ст. н. с. сектора гуманитарных экспертиз и биоэтики Института философии РАН. |
| - | Аннотация: | + | Аннотация: Распространение роботов с социальными обязательствами, например, ухаживающими за пожилым человеком, или автономных хирургических систем, принимающих решение в критический момент, поднимает вопрос об их «моральной» надежности. Один из возможных ответов — «моральный тест Тьюринга». В рамках доклада будет представлена эволюция этой идеи: от исходного теста Тьюринга к его специализированным модификациям для оценки этики ИИ. Мы кратко рассмотрим ключевые версии, такие как тест на этическую компетентность и тест Тьюринга на распределение приоритетов. Будут также обозначены ограничения этих подходов. Я выделю главные методологические трудности: риск простого «подражания» морали, проблема отсутствия у ИИ понимания и фундаментальные философские возражения, представленные, например, в работах таких исследователей как Дж. Серл и Х. Дрейфус. Моральный тест Тьюринга является полезным функциональным инструментом для проверки безопасности систем, но не доказательством их моральной субъектности, что может иметь решающее значение в чувствительной сфере биоэтических исследований. |
| - | Появление новых и особых сфер знания и практик с необходимостью ставит вопрос о критическом переосмыслении соответствующего понятийно- категориального аппарата. Не является исключением и этика в сфере искусственного интеллекта, развитие которой не оставила без внимания базовые этические понятия добра и зла. Обсуждение проблемы зла в современных этических теориях обычно начинается со ставшего традиционным рассмотрения видов зла: моральное зло (зависящее от деятельности людей, их свободы, сознательности и т.д.) и физическое зло (природные явления, физиология людей и т.д.). Появление технологий, основанных на алгоритмах искусственного интеллекта, создание автономных интеллектуальных систем и проекты создания на их основе Искусственных Моральных Агентов обусловило возникновение идей существования в качестве самостоятельного «искусственного зла». В докладе анализируются возможные способы понимания и интерпретации концепта «искусственное зло». Особое внимание уделено проблемам, связанным с возможностью алгоритмам искусственного интеллекта быть «злыми» в строгом «аморальном» смысле. Показано, что Искусственный Моральный Агент не способен отклоняться от алгоритмически правильного поведения и нарушать «правила добра», поэтому «искусственное зло» может рассматриваться только как метафора. | + | |
| Необходима регистрация по адресу: ethicsai@yandex.ru | Необходима регистрация по адресу: ethicsai@yandex.ru | ||