Здесь показаны различия между двумя версиями данной страницы.
Предыдущая версия справа и слева Предыдущая версия Следующая версия | Предыдущая версия | ||
prog_materials [2025/03/11 18:27] platonova |
prog_materials [2025/06/23 12:14] (текущий) platonova |
||
---|---|---|---|
Строка 1: | Строка 1: | ||
==== Материалы семинара==== | ==== Материалы семинара==== | ||
+ | |||
+ | **28 мая 2025 г.** | ||
+ | //Искусственный интеллект и сознание: проблема квалиа// | ||
+ | |||
+ | Докладчик: Разин Александр Владимирович, доктор философских наук, профессор, заведующий кафедрой этики философского факультета МГУ имени М. В. Ломоносова. | ||
+ | |||
+ | Аннотация: Сейчас много говорится о создании альфа искусственного интеллекта, который, по мнению некоторых исследователей способен далеко обойти человеческий интеллект по своим возможностям. | ||
+ | В настоящем докладе мы собираемся показать какие ограничения могут возникнуть на этом пути, даже применительно к моделированию отдельных возможностей деятельности человеческого интеллекта. Известно, что искусственные интеллектуальные системы работают на уровне синтаксиса и не выходят на семантический уровень отношения к действительности, связанный с пониманием, субъективной интерпретацией событий. | ||
+ | Мы неоднократно писали, какие условия надо выполнить для того, чтобы искусственный интеллект приобрел способности сознания и самосознания. Это: \\ | ||
+ | - Наличие у машины феноменального опыта. \\ | ||
+ | - Связанное с этим наличие тела, параметры которого постоянно контролируются, связываются с временными интервалами бытия. \\ | ||
+ | - Наличие сообщества машин способных на коммуникацию и учет взаимно значимых оценок. \\ | ||
+ | - Развитая эмоциональная жизнь, которая не сводится просто к возбуждению при достижении результата (конечного или промежуточных, но и дает человеку ощущение постоянной радости бытия. \\ | ||
+ | - Связь эмоциональной жизни с возможностью классификацией событий на значимые и не значимые. \\ | ||
+ | Чтобы более глубоко рассмотреть эти вопросы надо показать, что такое сознание, что означают его квалиативные состояния, что такое предметное изучение мира, что такое потребности человека, почему они принципиально отличаются от потребностей животного. \\ | ||
+ | Основные разделы доклада: \\ | ||
+ | Почему возникает психика и сознание \\ | ||
+ | Гипотезотворческая работа мозга и "квалиа" \\ | ||
+ | Какое "квалиа" может быть у искусственного интеллекта? | ||
+ | |||
+ | Ссылка на запись семинара [[https://rutube.ru/video/c88a00c9a1989dbf380fc1fd07a5f367/?r=wd]] | ||
+ | |||
+ | ---- | ||
+ | **16 апреля 2025 г.** | ||
+ | //Проблема понимания и искусственный интеллект// | ||
+ | |||
+ | Докладчик: Кузнецов Олег Петрович, доктор технических наук, профессор, академик РАЕН, заведующий лабораторией Института проблем управления РАН | ||
+ | |||
+ | Аннотация: В докладе понимание рассматривается в рамках новой концепции когнитивной семантики, в центре которой лежит понятие картины мира человека. Утверждается, что понимание – это интерпретация в терминах картины мира; значения (смыслы) формируются раньше, чем формируются концептуальные структуры; в основе значений лежат биологические и социальные цели; понимание связано с действиями в среде, формирующими картину мира. Обсуждается связь этой проблемы с перспективами создания сильного ИИ. | ||
+ | |||
+ | Презентация {{ :о.п._кузнецов_понимание.pdf |}} | ||
+ | |||
+ | Ссылка на запись семинара [[https://rutube.ru/video/9f8f371442151b79755b705880e28c77/?r=wd]] | ||
+ | |||
+ | ---- | ||
**19 марта 2025 г.** | **19 марта 2025 г.** | ||
//Методологические и мировоззренческие программы в этике искусственного интеллекта// | //Методологические и мировоззренческие программы в этике искусственного интеллекта// | ||
Строка 16: | Строка 51: | ||
Аннотация: | Аннотация: | ||
Появление новых и особых сфер знания и практик с необходимостью ставит вопрос о критическом переосмыслении соответствующего понятийно- категориального аппарата. Не является исключением и этика в сфере искусственного интеллекта, развитие которой не оставила без внимания базовые этические понятия добра и зла. Обсуждение проблемы зла в современных этических теориях обычно начинается со ставшего традиционным рассмотрения видов зла: моральное зло (зависящее от деятельности людей, их свободы, сознательности и т.д.) и физическое зло (природные явления, физиология людей и т.д.). Появление технологий, основанных на алгоритмах искусственного интеллекта, создание автономных интеллектуальных систем и проекты создания на их основе Искусственных Моральных Агентов обусловило возникновение идей существования в качестве самостоятельного «искусственного зла». В докладе анализируются возможные способы понимания и интерпретации концепта «искусственное зло». Особое внимание уделено проблемам, связанным с возможностью алгоритмам искусственного интеллекта быть «злыми» в строгом «аморальном» смысле. Показано, что Искусственный Моральный Агент не способен отклоняться от алгоритмически правильного поведения и нарушать «правила добра», поэтому «искусственное зло» может рассматриваться только как метафора. | Появление новых и особых сфер знания и практик с необходимостью ставит вопрос о критическом переосмыслении соответствующего понятийно- категориального аппарата. Не является исключением и этика в сфере искусственного интеллекта, развитие которой не оставила без внимания базовые этические понятия добра и зла. Обсуждение проблемы зла в современных этических теориях обычно начинается со ставшего традиционным рассмотрения видов зла: моральное зло (зависящее от деятельности людей, их свободы, сознательности и т.д.) и физическое зло (природные явления, физиология людей и т.д.). Появление технологий, основанных на алгоритмах искусственного интеллекта, создание автономных интеллектуальных систем и проекты создания на их основе Искусственных Моральных Агентов обусловило возникновение идей существования в качестве самостоятельного «искусственного зла». В докладе анализируются возможные способы понимания и интерпретации концепта «искусственное зло». Особое внимание уделено проблемам, связанным с возможностью алгоритмам искусственного интеллекта быть «злыми» в строгом «аморальном» смысле. Показано, что Искусственный Моральный Агент не способен отклоняться от алгоритмически правильного поведения и нарушать «правила добра», поэтому «искусственное зло» может рассматриваться только как метафора. | ||
+ | |||
+ | Ссылка на запись семинара [[https://rutube.ru/video/87cd42505f77ce3a4fa23266e3d40c7b/]] | ||
---- | ---- |