Здесь показаны различия между двумя версиями данной страницы.
| Предыдущая версия справа и слева Предыдущая версия Следующая версия | Предыдущая версия | ||
|
prog_materials [2025/03/11 18:27] platonova |
prog_materials [2025/12/12 16:06] (текущий) platonova |
||
|---|---|---|---|
| Строка 1: | Строка 1: | ||
| ==== Материалы семинара==== | ==== Материалы семинара==== | ||
| + | |||
| + | **10 декабря 2025 г.** | ||
| + | // Робот-партнер: по образу и подобию собаки. // | ||
| + | |||
| + | Докладчики: \\ | ||
| + | Карпов В.Э. д.т.н., начальник лаборатории робототехники НИЦ «Курчатовский институт» \\ | ||
| + | Томильцева Д.А. к.ф.н., доцент кафедры социальной философии Уральский федеральный университет \\ | ||
| + | Сорокоумов П.С. научный сотрудник лаборатории робототехники НИЦ «Курчатовский институт»\\ | ||
| + | |||
| + | Аннотация: В работе рассматривается возможность создания робота-партнёра, основанного на восприятии человеком его поведения, как служебной собаки. Исходными установками исследование является: 1) оценка поведения робота-партнера с моральной позиции обусловлена психологией восприятия человека; 2) моральный уровень системы управления может воздействовать на поведение искусственного агента, не влияя на работоспособность базовых уровней управления, устойчивость и целостность поведения робота; 3) робот-партнёр должен выполнять функционал собаки и демонстрировать её уникальные поведенческие черты; 4) робот-партнёр, в котором проявлены черты собаки, ограничен в своих когнитивных возможностях. В рамках исследования был произведён отбор ограниченного ряда поведенческих особенностей собаки, связанных с коллаборативными возможностями. Наиболее важные характеристики собаки, такие как строение тела, психология, идеализированные человеческие представления были типизированы по ряду параметров. При разработке модели за характеристикой "строение тела" была оставлена такая функция как способность отображать эмоциональное состояние агента. В качестве теоретической основы для морального уровня системы управления была выбрана концепция количественного эгоистического гедонизма Г. Сиджвика. Разработанная модель была протестирована в ряде экспериментов, представленных в двух ситуациях взаимодействия робота и человека, каждая из которых предполагала несколько поведенческих сценариев, воспроизводящих поведение собак и людей в аналогичной ситуации. В результате проведённых экспериментов была подтверждена работоспособность трехуровневой системы управления: эмоционально-потребностный, когнитивный и оценочный (моральный) уровни. При этом выяснилось, что ряд поведенческих сценариев, внешне выглядевших как результат сложных когнитивных процессов, на самом деле реализуется базовым условно-рефлекторным механизмом (сценарии с "оценкой" ситуации и осцилляциями поведения). Вместе с тем, что внешне казалось простым рефлекторным поведением, требовало привлечения когнитивного уровня управления (сценарии с переориентацией базовых реакций). | ||
| + | |||
| + | Презентация {{ :karpov-tomiltseva-sorokoumov-2025-12-1.pdf |}} | ||
| + | |||
| + | ---- | ||
| + | **14 ноября 2025 г.** | ||
| + | //Моральный тест Тьюринга: иллюзия этичности или инструмент для безопасности ИИ?// | ||
| + | |||
| + | Докладчик: Антипов Алексей Владимирович, к. филос. н., ст. н. с. сектора гуманитарных экспертиз и биоэтики Института философии РАН | ||
| + | |||
| + | Аннотация: | ||
| + | Распространение роботов с социальными обязательствами, например, ухаживающими за пожилым человеком, или автономных хирургических систем, принимающих решение в критический момент, поднимает вопрос об их «моральной» надежности. Один из возможных ответов — «моральный тест Тьюринга». В рамках доклада будет представлена эволюция этой идеи: от исходного теста Тьюринга к его специализированным модификациям для оценки этики ИИ. Мы кратко рассмотрим ключевые версии, такие как тест на этическую компетентность и тест Тьюринга на распределение приоритетов. Будут также обозначены ограничения этих подходов. Я выделю главные методологические трудности: риск простого «подражания» морали, проблема отсутствия у ИИ понимания и фундаментальные философские возражения, представленные, например, в работах таких исследователей как Дж. Серл и Х. Дрейфус. Моральный тест Тьюринга является полезным функциональным инструментом для проверки безопасности систем, но не доказательством их моральной субъектности, что может иметь решающее значение в чувствительной сфере биоэтических исследований. | ||
| + | ---- | ||
| + | **28 мая 2025 г.** | ||
| + | //Искусственный интеллект и сознание: проблема квалиа// | ||
| + | |||
| + | Докладчик: Разин Александр Владимирович, доктор философских наук, профессор, заведующий кафедрой этики философского факультета МГУ имени М. В. Ломоносова. | ||
| + | |||
| + | Аннотация: Сейчас много говорится о создании альфа искусственного интеллекта, который, по мнению некоторых исследователей способен далеко обойти человеческий интеллект по своим возможностям. | ||
| + | В настоящем докладе мы собираемся показать какие ограничения могут возникнуть на этом пути, даже применительно к моделированию отдельных возможностей деятельности человеческого интеллекта. Известно, что искусственные интеллектуальные системы работают на уровне синтаксиса и не выходят на семантический уровень отношения к действительности, связанный с пониманием, субъективной интерпретацией событий. | ||
| + | Мы неоднократно писали, какие условия надо выполнить для того, чтобы искусственный интеллект приобрел способности сознания и самосознания. Это: \\ | ||
| + | - Наличие у машины феноменального опыта. \\ | ||
| + | - Связанное с этим наличие тела, параметры которого постоянно контролируются, связываются с временными интервалами бытия. \\ | ||
| + | - Наличие сообщества машин способных на коммуникацию и учет взаимно значимых оценок. \\ | ||
| + | - Развитая эмоциональная жизнь, которая не сводится просто к возбуждению при достижении результата (конечного или промежуточных, но и дает человеку ощущение постоянной радости бытия. \\ | ||
| + | - Связь эмоциональной жизни с возможностью классификацией событий на значимые и не значимые. \\ | ||
| + | Чтобы более глубоко рассмотреть эти вопросы надо показать, что такое сознание, что означают его квалиативные состояния, что такое предметное изучение мира, что такое потребности человека, почему они принципиально отличаются от потребностей животного. \\ | ||
| + | Основные разделы доклада: \\ | ||
| + | Почему возникает психика и сознание \\ | ||
| + | Гипотезотворческая работа мозга и "квалиа" \\ | ||
| + | Какое "квалиа" может быть у искусственного интеллекта? | ||
| + | |||
| + | Ссылка на запись семинара [[https://rutube.ru/video/c88a00c9a1989dbf380fc1fd07a5f367/?r=wd]] | ||
| + | |||
| + | ---- | ||
| + | **16 апреля 2025 г.** | ||
| + | //Проблема понимания и искусственный интеллект// | ||
| + | |||
| + | Докладчик: Кузнецов Олег Петрович, доктор технических наук, профессор, академик РАЕН, заведующий лабораторией Института проблем управления РАН | ||
| + | |||
| + | Аннотация: В докладе понимание рассматривается в рамках новой концепции когнитивной семантики, в центре которой лежит понятие картины мира человека. Утверждается, что понимание – это интерпретация в терминах картины мира; значения (смыслы) формируются раньше, чем формируются концептуальные структуры; в основе значений лежат биологические и социальные цели; понимание связано с действиями в среде, формирующими картину мира. Обсуждается связь этой проблемы с перспективами создания сильного ИИ. | ||
| + | |||
| + | Презентация {{ :о.п._кузнецов_понимание.pdf |}} | ||
| + | |||
| + | Ссылка на запись семинара [[https://rutube.ru/video/9f8f371442151b79755b705880e28c77/?r=wd]] | ||
| + | |||
| + | ---- | ||
| **19 марта 2025 г.** | **19 марта 2025 г.** | ||
| //Методологические и мировоззренческие программы в этике искусственного интеллекта// | //Методологические и мировоззренческие программы в этике искусственного интеллекта// | ||
| Строка 16: | Строка 72: | ||
| Аннотация: | Аннотация: | ||
| Появление новых и особых сфер знания и практик с необходимостью ставит вопрос о критическом переосмыслении соответствующего понятийно- категориального аппарата. Не является исключением и этика в сфере искусственного интеллекта, развитие которой не оставила без внимания базовые этические понятия добра и зла. Обсуждение проблемы зла в современных этических теориях обычно начинается со ставшего традиционным рассмотрения видов зла: моральное зло (зависящее от деятельности людей, их свободы, сознательности и т.д.) и физическое зло (природные явления, физиология людей и т.д.). Появление технологий, основанных на алгоритмах искусственного интеллекта, создание автономных интеллектуальных систем и проекты создания на их основе Искусственных Моральных Агентов обусловило возникновение идей существования в качестве самостоятельного «искусственного зла». В докладе анализируются возможные способы понимания и интерпретации концепта «искусственное зло». Особое внимание уделено проблемам, связанным с возможностью алгоритмам искусственного интеллекта быть «злыми» в строгом «аморальном» смысле. Показано, что Искусственный Моральный Агент не способен отклоняться от алгоритмически правильного поведения и нарушать «правила добра», поэтому «искусственное зло» может рассматриваться только как метафора. | Появление новых и особых сфер знания и практик с необходимостью ставит вопрос о критическом переосмыслении соответствующего понятийно- категориального аппарата. Не является исключением и этика в сфере искусственного интеллекта, развитие которой не оставила без внимания базовые этические понятия добра и зла. Обсуждение проблемы зла в современных этических теориях обычно начинается со ставшего традиционным рассмотрения видов зла: моральное зло (зависящее от деятельности людей, их свободы, сознательности и т.д.) и физическое зло (природные явления, физиология людей и т.д.). Появление технологий, основанных на алгоритмах искусственного интеллекта, создание автономных интеллектуальных систем и проекты создания на их основе Искусственных Моральных Агентов обусловило возникновение идей существования в качестве самостоятельного «искусственного зла». В докладе анализируются возможные способы понимания и интерпретации концепта «искусственное зло». Особое внимание уделено проблемам, связанным с возможностью алгоритмам искусственного интеллекта быть «злыми» в строгом «аморальном» смысле. Показано, что Искусственный Моральный Агент не способен отклоняться от алгоритмически правильного поведения и нарушать «правила добра», поэтому «искусственное зло» может рассматриваться только как метафора. | ||
| + | |||
| + | Ссылка на запись семинара [[https://rutube.ru/video/87cd42505f77ce3a4fa23266e3d40c7b/]] | ||
| ---- | ---- | ||