Здесь показаны различия между двумя версиями данной страницы.
| Предыдущая версия справа и слева Предыдущая версия Следующая версия | Предыдущая версия | ||
|
prog_materials [2025/06/23 12:14] platonova |
prog_materials [2026/01/14 17:27] (текущий) platonova |
||
|---|---|---|---|
| Строка 1: | Строка 1: | ||
| ==== Материалы семинара==== | ==== Материалы семинара==== | ||
| + | **21 января 2026 г.** | ||
| + | // Этика и математика в искусственном интеллекте. // | ||
| + | |||
| + | Докладчик: \\ | ||
| + | Юрий Юрьевич Петрунин, доктор философских наук, профессор, заведующий кафедрой «Математических методов и информационных технологий в управлении» факультета государственного управления МГУ имени М.В. Ломоносова, руководитель секции «Управление знаниями» Научного совета при Президиуме РАН по методологии искусственного интеллекта и когнитивных исследований.\\ | ||
| + | |||
| + | Аннотация: Проблема взаимоотношений математики и этики рассматривается в докладе как значимая для развития искусственного интеллекта и способов его регулирования. Искусственный интеллект (ИИ) является междисциплинарным научным направлением. Активное участие в создании и применении ИИ принимало множество наук: от математики и логики до лингвистики и юриспруденции. Можно отметить, что с развитием исследований в области ИИ важность вклада конкретной науки могла как возрастать, так и уменьшаться. Важны также взаимоотношения между разными науками, которые влияют на эффективность ИИ и его адаптацию в обществе. С учетом данного контекста заслуживают внимания следующие этапы в истории взаимоотношений математики и этики: 1) эпоха античной гармонии, когда математические и этические принципы рассматривались в единой системе (Пифагор, Платон); 2) длительный период «математизации этики» (от Спинозы и Бентама до применения теории игр и нечеткой логики в моральных дилеммах), характеризующийся экспансией математических методов в сферу нравственности; 3) становящийся этап «этики в математике» (Ethics in Mathematics), который предполагает осознание социальной ответственности математиков и этическую рефлексию их деятельности (особенно в контексте больших данных, алгоритмов и искусственного интеллекта). В чем причина «нестабильности» союза математики и этики? Можно ли найти более органические связи между ними? От ответа на эти вопросы зависит не только разработка благожелательного ИИ, но и решение многих других актуальных проблем современности. | ||
| + | ---- | ||
| + | **10 декабря 2025 г.** | ||
| + | // Робот-партнер: по образу и подобию собаки. // | ||
| + | |||
| + | Докладчики: \\ | ||
| + | Карпов В. Э., д.т.н., начальник лаборатории робототехники НИЦ «Курчатовский институт»;\\ | ||
| + | Томильцева Д. А., к.ф.н., доцент кафедры социальной философии Уральский федеральный университет;\\ | ||
| + | Сорокоумов П. С., научный сотрудник лаборатории робототехники НИЦ «Курчатовский институт»\\ | ||
| + | |||
| + | Аннотация: В работе рассматривается возможность создания робота-партнёра, основанного на восприятии человеком его поведения, как служебной собаки. Исходными установками исследование является: 1) оценка поведения робота-партнера с моральной позиции обусловлена психологией восприятия человека; 2) моральный уровень системы управления может воздействовать на поведение искусственного агента, не влияя на работоспособность базовых уровней управления, устойчивость и целостность поведения робота; 3) робот-партнёр должен выполнять функционал собаки и демонстрировать её уникальные поведенческие черты; 4) робот-партнёр, в котором проявлены черты собаки, ограничен в своих когнитивных возможностях. В рамках исследования был произведён отбор ограниченного ряда поведенческих особенностей собаки, связанных с коллаборативными возможностями. Наиболее важные характеристики собаки, такие как строение тела, психология, идеализированные человеческие представления были типизированы по ряду параметров. При разработке модели за характеристикой "строение тела" была оставлена такая функция как способность отображать эмоциональное состояние агента. В качестве теоретической основы для морального уровня системы управления была выбрана концепция количественного эгоистического гедонизма Г. Сиджвика. Разработанная модель была протестирована в ряде экспериментов, представленных в двух ситуациях взаимодействия робота и человека, каждая из которых предполагала несколько поведенческих сценариев, воспроизводящих поведение собак и людей в аналогичной ситуации. В результате проведённых экспериментов была подтверждена работоспособность трехуровневой системы управления: эмоционально-потребностный, когнитивный и оценочный (моральный) уровни. При этом выяснилось, что ряд поведенческих сценариев, внешне выглядевших как результат сложных когнитивных процессов, на самом деле реализуется базовым условно-рефлекторным механизмом (сценарии с "оценкой" ситуации и осцилляциями поведения). Вместе с тем, что внешне казалось простым рефлекторным поведением, требовало привлечения когнитивного уровня управления (сценарии с переориентацией базовых реакций). | ||
| + | |||
| + | Презентация {{ :karpov-tomiltseva-sorokoumov-2025-12-1.pdf |}} | ||
| + | |||
| + | ---- | ||
| + | **14 ноября 2025 г.** | ||
| + | //Моральный тест Тьюринга: иллюзия этичности или инструмент для безопасности ИИ?// | ||
| + | |||
| + | Докладчик: Антипов Алексей Владимирович, к. филос. н., ст. н. с. сектора гуманитарных экспертиз и биоэтики Института философии РАН | ||
| + | |||
| + | Аннотация: | ||
| + | Распространение роботов с социальными обязательствами, например, ухаживающими за пожилым человеком, или автономных хирургических систем, принимающих решение в критический момент, поднимает вопрос об их «моральной» надежности. Один из возможных ответов — «моральный тест Тьюринга». В рамках доклада будет представлена эволюция этой идеи: от исходного теста Тьюринга к его специализированным модификациям для оценки этики ИИ. Мы кратко рассмотрим ключевые версии, такие как тест на этическую компетентность и тест Тьюринга на распределение приоритетов. Будут также обозначены ограничения этих подходов. Я выделю главные методологические трудности: риск простого «подражания» морали, проблема отсутствия у ИИ понимания и фундаментальные философские возражения, представленные, например, в работах таких исследователей как Дж. Серл и Х. Дрейфус. Моральный тест Тьюринга является полезным функциональным инструментом для проверки безопасности систем, но не доказательством их моральной субъектности, что может иметь решающее значение в чувствительной сфере биоэтических исследований. | ||
| + | ---- | ||
| **28 мая 2025 г.** | **28 мая 2025 г.** | ||
| //Искусственный интеллект и сознание: проблема квалиа// | //Искусственный интеллект и сознание: проблема квалиа// | ||