Здесь показаны различия между двумя версиями данной страницы.
| Предыдущая версия справа и слева Предыдущая версия Следующая версия | Предыдущая версия | ||
|
start [2024/10/09 12:56] platonova |
start [2025/10/21 14:37] (текущий) platonova |
||
|---|---|---|---|
| Строка 1: | Строка 1: | ||
| ====Ближайшее заседание==== | ====Ближайшее заседание==== | ||
| - | **октября 2024 г.** | + | **14 ноября 2025 г.** |
| - | //Законы робототехники: о чем на самом деле говорил Азимов// | + | //Моральный тест Тьюринга: иллюзия этичности или инструмент для безопасности ИИ?// |
| - | + | ||
| - | Докладчик: Карпов Валерий Эдуардович | + | |
| - | + | ||
| - | Аннотация: | + | |
| - | Работа посвящена обсуждению некоторых аспектов известных законов робототехники Азимова. Раскрыто утверждение о том, что рассуждения о противоречиях законов, их критика не являются конструктивными, и что сам автор этих законов понимал существующие коллизии формулировок крайне глубоко. В работе показано, что поведение азимовских роботов определяются не столько этими законами, сколько особенностями их эмоционально-потребностной архитектуры. При этом сами законы тесно связаны с вопросами этики автономных/интеллектуальных систем. Кроме того, азимовские законы вскрывают ряд сугубо технических проблем, которые не решены до сих пор. В частности, не решенным остается вопрос о том, на каком уровне должны быть реализованы этические императивы поведения робота. | + | |
| + | Докладчик: Антипов Алексей Владимирович, к. филос. н., ст. н. с. сектора гуманитарных экспертиз и биоэтики Института философии РАН. | ||
| + | Аннотация: Распространение роботов с социальными обязательствами, например, ухаживающими за пожилым человеком, или автономных хирургических систем, принимающих решение в критический момент, поднимает вопрос об их «моральной» надежности. Один из возможных ответов — «моральный тест Тьюринга». В рамках доклада будет представлена эволюция этой идеи: от исходного теста Тьюринга к его специализированным модификациям для оценки этики ИИ. Мы кратко рассмотрим ключевые версии, такие как тест на этическую компетентность и тест Тьюринга на распределение приоритетов. Будут также обозначены ограничения этих подходов. Я выделю главные методологические трудности: риск простого «подражания» морали, проблема отсутствия у ИИ понимания и фундаментальные философские возражения, представленные, например, в работах таких исследователей как Дж. Серл и Х. Дрейфус. Моральный тест Тьюринга является полезным функциональным инструментом для проверки безопасности систем, но не доказательством их моральной субъектности, что может иметь решающее значение в чувствительной сфере биоэтических исследований. | ||
| Необходима регистрация по адресу: ethicsai@yandex.ru | Необходима регистрация по адресу: ethicsai@yandex.ru | ||