Здесь показаны различия между двумя версиями данной страницы.
| Предыдущая версия справа и слева Предыдущая версия Следующая версия | Предыдущая версия | ||
|
prog_materials [2025/06/23 12:14] platonova |
prog_materials [2025/11/24 19:53] (текущий) platonova |
||
|---|---|---|---|
| Строка 1: | Строка 1: | ||
| ==== Материалы семинара==== | ==== Материалы семинара==== | ||
| + | **10 декабря 2025 г.** | ||
| + | // Робот-партнер: по образу и подобию собаки. // | ||
| + | |||
| + | Докладчики: Карпов В.Э., Томильцева Д.А., Сорокоумов П.С. | ||
| + | |||
| + | Аннотация: В работе рассматривается возможность создания робота-партнёра, основанного на восприятии человеком его поведения, как служебной собаки. Исходными установками исследование является: 1) оценка поведения робота-партнера с моральной позиции обусловлена психологией восприятия человека; 2) моральный уровень системы управления может воздействовать на поведение искусственного агента, не влияя на работоспособность базовых уровней управления, устойчивость и целостность поведения робота; 3) робот-партнёр должен выполнять функционал собаки и демонстрировать её уникальные поведенческие черты; 4) робот-партнёр, в котором проявлены черты собаки, ограничен в своих когнитивных возможностях. В рамках исследования был произведён отбор ограниченного ряда поведенческих особенностей собаки, связанных с коллаборативными возможностями. Наиболее важные характеристики собаки, такие как строение тела, психология, идеализированные человеческие представления были типизированы по ряду параметров. При разработке модели за характеристикой "строение тела" была оставлена такая функция как способность отображать эмоциональное состояние агента. В качестве теоретической основы для морального уровня системы управления была выбрана концепция количественного эгоистического гедонизма Г. Сиджвика. Разработанная модель была протестирована в ряде экспериментов, представленных в двух ситуациях взаимодействия робота и человека, каждая из которых предполагала несколько поведенческих сценариев, воспроизводящих поведение собак и людей в аналогичной ситуации. В результате проведённых экспериментов была подтверждена работоспособность трехуровневой системы управления: эмоционально-потребностный, когнитивный и оценочный (моральный) уровни. При этом выяснилось, что ряд поведенческих сценариев, внешне выглядевших как результат сложных когнитивных процессов, на самом деле реализуется базовым условно-рефлекторным механизмом (сценарии с "оценкой" ситуации и осцилляциями поведения). Вместе с тем, что внешне казалось простым рефлекторным поведением, требовало привлечения когнитивного уровня управления (сценарии с переориентацией базовых реакций). | ||
| + | |||
| + | ---- | ||
| + | **14 ноября 2025 г.** | ||
| + | //Моральный тест Тьюринга: иллюзия этичности или инструмент для безопасности ИИ?// | ||
| + | |||
| + | Докладчик: Антипов Алексей Владимирович, к. филос. н., ст. н. с. сектора гуманитарных экспертиз и биоэтики Института философии РАН | ||
| + | |||
| + | Аннотация: | ||
| + | Распространение роботов с социальными обязательствами, например, ухаживающими за пожилым человеком, или автономных хирургических систем, принимающих решение в критический момент, поднимает вопрос об их «моральной» надежности. Один из возможных ответов — «моральный тест Тьюринга». В рамках доклада будет представлена эволюция этой идеи: от исходного теста Тьюринга к его специализированным модификациям для оценки этики ИИ. Мы кратко рассмотрим ключевые версии, такие как тест на этическую компетентность и тест Тьюринга на распределение приоритетов. Будут также обозначены ограничения этих подходов. Я выделю главные методологические трудности: риск простого «подражания» морали, проблема отсутствия у ИИ понимания и фундаментальные философские возражения, представленные, например, в работах таких исследователей как Дж. Серл и Х. Дрейфус. Моральный тест Тьюринга является полезным функциональным инструментом для проверки безопасности систем, но не доказательством их моральной субъектности, что может иметь решающее значение в чувствительной сфере биоэтических исследований. | ||
| + | ---- | ||
| **28 мая 2025 г.** | **28 мая 2025 г.** | ||
| //Искусственный интеллект и сознание: проблема квалиа// | //Искусственный интеллект и сознание: проблема квалиа// | ||