Инструменты пользователя

Инструменты сайта


start

Различия

Здесь показаны различия между двумя версиями данной страницы.

Ссылка на это сравнение

Предыдущая версия справа и слева Предыдущая версия
Следующая версия
Предыдущая версия
start [2024/06/13 19:21]
platonova
start [2025/10/21 14:37] (текущий)
platonova
Строка 1: Строка 1:
 ====Ближайшее заседание==== ====Ближайшее заседание====
  
-**26 июня 2024 г.** +**14 ноября 2025 г.** 
-//Обзор подходов к валидации интеллектуальных систем на этичность: от научных исследований до нормативной документации// +//Моральный тест ​Тьюринга: иллюзия этичности или инструмент для безопасности ​ИИ?//
- +
-ДокладчикГотовцев Павел Михайлович, к.т.н., НИЦ «Курчатовский институт» +
-  +
-В настоящее время активно обсуждается огромное количество рекомендаций,​ нормативных документов,​ дорожных карт и т.д. о том, какими этичными должны быть современные интеллектуальные и автономные системы. Значительная часть ​этих бумаг не представляет ничего более чем пожелания о том, чего хотелось бы достичь в данной области. В тоже время серьезных научных исследований, привязанных к реальным возможностям тех систем,​ которые уже есть на практике или активно разрабатываются на сегодняшний день не так уж и много. Таким образом,​ сегодня складывается парадоксальная ситуация когда ведутся многочисленные обсуждения и написание регламентирующих отрасль документов,​ которые практически не подтверждены научными исследованиями. Целью данного доклада является обзор того, как сегодня обсуждается валидация интеллектуальных систем на этичность в различных документах,​ какие научные исследования были ​проведены в данной области и на что необходимо обратить внимание,​ чтобы разрабатываемые нормативные и регуляторные документы как можно быстрее получили основу в виде реальных научных результатов.+
  
 +Докладчик:​ Антипов Алексей Владимирович,​ к. филос. н., ст. н. с. сектора гуманитарных экспертиз и биоэтики Института философии РАН.
  
 +Аннотация:​ Распространение роботов с социальными обязательствами,​ например,​ ухаживающими за пожилым человеком,​ или автономных хирургических систем,​ принимающих решение в критический момент,​ поднимает вопрос об их «моральной» надежности. Один из возможных ответов — «моральный тест Тьюринга». В рамках доклада будет представлена эволюция этой идеи: от исходного теста Тьюринга к его специализированным модификациям для оценки этики ИИ. Мы кратко рассмотрим ключевые версии,​ такие как тест на этическую компетентность и тест Тьюринга на распределение приоритетов. Будут также обозначены ограничения этих подходов. Я выделю главные методологические трудности:​ риск простого «подражания» морали,​ проблема отсутствия у ИИ понимания и фундаментальные философские возражения,​ представленные,​ например,​ в работах таких исследователей как Дж. Серл и Х. Дрейфус. Моральный тест Тьюринга является полезным функциональным инструментом для проверки безопасности систем,​ но не доказательством их моральной субъектности,​ что может иметь решающее значение в чувствительной сфере биоэтических исследований.
  
 Необходима регистрация по адресу:​ ethicsai@yandex.ru Необходима регистрация по адресу:​ ethicsai@yandex.ru
start.1718295683.txt.gz · Последние изменения: 2024/06/13 19:21 — platonova