Инструменты пользователя

Инструменты сайта


start

Различия

Здесь показаны различия между двумя версиями данной страницы.

Ссылка на это сравнение

Предыдущая версия справа и слева Предыдущая версия
Следующая версия
Предыдущая версия
start [2025/01/10 11:22]
platonova
start [2025/10/21 14:37] (текущий)
platonova
Строка 1: Строка 1:
 ====Ближайшее заседание==== ====Ближайшее заседание====
  
-**05 февраля 2025 г.** +**14 ноября 2025 г.** 
-//Проблема «искусственного зла»?//+//Моральный тест Тьюрингаиллюзия этичности или инструмент для безопасности ИИ?//
  
-Докладчик: ​Перов Вадим ​Юрьевич +Докладчик: ​Антипов Алексей ​Владимировичкфилос. н., ст. н. с. сектора гуманитарных экспертиз и биоэтики Института философии ​РАН.
-кандидат ​философских, доцентзав.каф.этикиИнститут философии, Санкт-Петербургский государственный университет+
  
-Аннотация:​ +Аннотация: ​Распространение ​роботов с социальными обязательствами, например, ухаживающими за пожилым человеком, или автономных хирургических систем, принимающих решение в критический момент, поднимает вопрос об их «моральной» надежности. Один из возможных ответов — «моральный тест Тьюринга»В рамках доклада будет ​представлена эволюция этой идеи: от исходного ​теста Тьюринга к его специализированным модификациям для оценки этики ИИ. Мы кратко рассмотрим ключевые версии, такие как тест на этическую компетентность и тест Тьюринга на распределение приоритетов. Будут ​также обозначены ограничения этих подходов. Я выделю главные методологические ​трудности: риск ​простого ​«подражания» морали, проблема отсутствия у ИИ понимания и фундаментальные философские возражения, представленные, например, в работах таких ​исследователей как Дж. Серл и Х. ДрейфусМоральный ​тест Тьюринга является полезным функциональным инструментом для ​проверки безопасности систем, ​но не доказательством их моральной субъектности, что может ​иметь решающее значение в чувствительной сфере биоэтических исследований.
-Появление ​новых и особых сфер знания ​и практик с необходимостью ставит вопрос о критическом переосмыслении соответствующего понятийно- категориального аппарата. Не является ​исключением и этика ​в сфере искусственного интеллекта, развитие которой ​не оставила без внимания базовые этические понятия добра и зла. Обсуждение ​проблемы зла в современных этических теориях обычно начинается со ставшего традиционным рассмотрения видов зла: ​моральное зло (зависящее от деятельности ​людей, их свободы, сознательности ​и т.д.) и физическое зло (природные явления, физиология людей и т.д.). Появление технологий, основанных на алгоритмах ​искусственного ​интеллектасоздание автономных интеллектуальных систем и проекты создания на их основе Искусственных Моральных Агентов обусловило возникновение идей существования в качестве самостоятельного «искусственного ​зла». В докладе анализируются возможные ​способы ​понимания и интерпретации концепта «искусственное зло». Особое внимание ​уделено проблемамсвязанным с возможностью алгоритмам искусственного интеллекта быть «злыми» в строгом «аморальном» смысле. Показано,​ что Искусственный ​Моральный ​Агент не способен отклоняться от алгоритмически правильного поведения и нарушать ​«правила добра», поэтому «искусственное зло» может ​рассматриваться только как метафора.   ​+
  
 Необходима регистрация по адресу:​ ethicsai@yandex.ru Необходима регистрация по адресу:​ ethicsai@yandex.ru
start.1736497360.txt.gz · Последние изменения: 2025/01/10 11:22 — platonova