Инструменты пользователя

Инструменты сайта


prog_materials

Различия

Здесь показаны различия между двумя версиями данной страницы.

Ссылка на это сравнение

Предыдущая версия справа и слева Предыдущая версия
Следующая версия
Предыдущая версия
prog_materials [2025/01/21 11:30]
platonova
prog_materials [2025/06/23 12:14] (текущий)
platonova
Строка 1: Строка 1:
 ==== Материалы семинара==== ==== Материалы семинара====
 +
 +**28 мая 2025 г.**
 +//​Искусственный интеллект и сознание:​ проблема квалиа//​
 +
 +Докладчик:​ Разин Александр Владимирович,​ доктор философских наук, профессор,​ заведующий кафедрой этики философского факультета МГУ имени М. В. Ломоносова.
 +
 +Аннотация:​ Сейчас много говорится о создании альфа искусственного интеллекта,​ который,​ по мнению некоторых исследователей способен далеко обойти человеческий интеллект по своим возможностям.
 +В настоящем докладе мы собираемся показать какие ограничения могут возникнуть на этом пути, даже применительно к моделированию отдельных возможностей деятельности человеческого интеллекта. Известно,​ что искусственные интеллектуальные системы работают на уровне синтаксиса и не выходят на семантический уровень отношения к действительности,​ связанный с пониманием,​ субъективной интерпретацией событий.
 +Мы неоднократно писали,​ какие условия надо выполнить для того, чтобы искусственный интеллект приобрел способности сознания и самосознания. Это: \\
 +- Наличие у машины феноменального опыта. \\
 +- Связанное с этим наличие тела, параметры которого постоянно контролируются,​ связываются с временными интервалами бытия. \\
 +- Наличие сообщества машин способных на коммуникацию и учет взаимно значимых оценок. \\
 +- Развитая эмоциональная жизнь, которая не сводится просто к возбуждению при достижении результата (конечного или промежуточных,​ но и дает человеку ощущение постоянной радости бытия. \\
 +- Связь эмоциональной жизни с возможностью классификацией событий на значимые и не значимые. \\
 +Чтобы более глубоко рассмотреть эти вопросы надо показать,​ что такое сознание,​ что означают его квалиативные состояния,​ что такое предметное изучение мира, что такое потребности человека,​ почему они принципиально отличаются от потребностей животного. \\
 +Основные разделы доклада:​ \\
 +Почему возникает психика и сознание \\
 +Гипотезотворческая работа мозга и "​квалиа"​ \\
 +Какое "​квалиа"​ может быть у искусственного интеллекта?​
 +
 +Ссылка на запись семинара [[https://​rutube.ru/​video/​c88a00c9a1989dbf380fc1fd07a5f367/?​r=wd]]
 +
 +----
 +**16 апреля 2025 г.**
 +//​Проблема понимания и искусственный интеллект//​
 +
 +Докладчик:​ Кузнецов Олег Петрович,​ доктор технических наук, профессор,​ академик РАЕН, заведующий лабораторией Института проблем управления РАН
 + 
 +Аннотация:​ В докладе понимание рассматривается в рамках новой концепции когнитивной семантики,​ в центре которой лежит понятие картины мира человека. Утверждается,​ что понимание – это интерпретация в терминах картины мира; значения (смыслы) формируются раньше,​ чем формируются концептуальные структуры;​ в основе значений лежат биологические и социальные цели; понимание связано с действиями в среде, формирующими картину мира. Обсуждается связь этой проблемы ​ с перспективами создания сильного ИИ.
 +
 +Презентация {{ :​о.п._кузнецов_понимание.pdf |}}
 +
 +Ссылка на запись семинара [[https://​rutube.ru/​video/​9f8f371442151b79755b705880e28c77/?​r=wd]]
 +
 +----
 +**19 марта 2025 г.**
 +//​Методологические и мировоззренческие программы в этике искусственного интеллекта//​
 +
 +Докладчик:​ Алексеева Ирина Юрьевна,​ доктор философских наук, доцент,​ ведущий научный сотрудник сектора философских проблем социальных и гуманитарных наук Института философии РАН
 +
 +Аннотация:​
 +В докладе представлена попытка использовать в этике ИИ тот опыт прояснения мировоззренческих и методологических программ,​ который накоплен к настоящему времени в теории познания. Рассматривается ряд методологических программ,​ представленных в современных исследованиях этических проблем ИИ и в обсуждениях перспектив ​ интеллекта. Оцениваются возможности и ограничения регуляционных,​ технократических,​ «мереократических»,​ футурологических программ. Автор ставит вопрос об отношениях религиозной и секулярной (светской) философии в новом технологическом контексте и предлагает секулярный вариант метафизики хозяйства С. Н Булгакова как мировоззренческую программу этики искусственного интеллекта. ​
 +----
  
 **05 февраля 2025 г.** **05 февраля 2025 г.**
Строка 8: Строка 51:
 Аннотация:​ Аннотация:​
 Появление новых и особых сфер знания и практик с необходимостью ставит вопрос о критическом переосмыслении соответствующего понятийно- категориального аппарата. Не является исключением и этика в сфере искусственного интеллекта,​ развитие которой не оставила без внимания базовые этические понятия добра и зла. Обсуждение проблемы зла в современных этических теориях обычно начинается со ставшего традиционным рассмотрения видов зла: моральное зло (зависящее от деятельности людей, их свободы,​ сознательности и т.д.) и физическое зло (природные явления,​ физиология людей и т.д.). Появление технологий,​ основанных на алгоритмах искусственного интеллекта,​ создание автономных интеллектуальных систем и проекты создания на их основе Искусственных Моральных Агентов обусловило возникновение идей существования в качестве самостоятельного «искусственного зла». В докладе анализируются возможные способы понимания и интерпретации концепта «искусственное зло». Особое внимание уделено проблемам,​ связанным с возможностью алгоритмам искусственного интеллекта быть «злыми» в строгом «аморальном» смысле. Показано,​ что Искусственный Моральный Агент не способен отклоняться от алгоритмически правильного поведения и нарушать «правила добра»,​ поэтому «искусственное зло» может рассматриваться только как метафора. Появление новых и особых сфер знания и практик с необходимостью ставит вопрос о критическом переосмыслении соответствующего понятийно- категориального аппарата. Не является исключением и этика в сфере искусственного интеллекта,​ развитие которой не оставила без внимания базовые этические понятия добра и зла. Обсуждение проблемы зла в современных этических теориях обычно начинается со ставшего традиционным рассмотрения видов зла: моральное зло (зависящее от деятельности людей, их свободы,​ сознательности и т.д.) и физическое зло (природные явления,​ физиология людей и т.д.). Появление технологий,​ основанных на алгоритмах искусственного интеллекта,​ создание автономных интеллектуальных систем и проекты создания на их основе Искусственных Моральных Агентов обусловило возникновение идей существования в качестве самостоятельного «искусственного зла». В докладе анализируются возможные способы понимания и интерпретации концепта «искусственное зло». Особое внимание уделено проблемам,​ связанным с возможностью алгоритмам искусственного интеллекта быть «злыми» в строгом «аморальном» смысле. Показано,​ что Искусственный Моральный Агент не способен отклоняться от алгоритмически правильного поведения и нарушать «правила добра»,​ поэтому «искусственное зло» может рассматриваться только как метафора.
 +
 +Ссылка на запись семинара [[https://​rutube.ru/​video/​87cd42505f77ce3a4fa23266e3d40c7b/​]]
  
 ---- ----
Строка 17: Строка 62:
 Венгер Александр Леонидович,​ д.псх.н.,​ профессор Государственного университета «Дубна». Венгер Александр Леонидович,​ д.псх.н.,​ профессор Государственного университета «Дубна».
  
-Аннотация:​ Эффективность взаимодействия человека-оператора и искусственного интеллекта – продолжение непреходящей темы доверия/​недоверия технике,​ усугубляемой особенностями современных ИИ-инструментов. Такой ИИ, пока «слабый»,​ в составе рекомендательных систем все шире проникает в промышленную практику,​ опережая его осмысление,​ теоретическое обоснование и подготовку операторов к работе в новых условиях. Помимо известных мер повышения доверия (прозрачность,​ объяснимость,​ коммуникативность,​ мотивированность,​ пр.) все актуальней становится учет индивидуально-психологических характеристик операторов («большая пятерка»,​ атрибутивный стиль, стратегия принятия решений в ответственных ситуациях). В докладе обосновывается модель принятия/​отклонения советов ИИ, позволяющая оценить предпочитаемые оператором стратегии в зависимости от уровня субъективной тревожности и использовать эти оценки для взаимоадаптации Ч-О и ИИ в задачах управления сложными и потенциально опасными техническими системами. Излагаются исследовательский ландшафт проблемы,​ имеющиеся экспериментальные результаты и направления будущих разработок. ​     +Аннотация:​ Эффективность взаимодействия человека-оператора и искусственного интеллекта – продолжение непреходящей темы доверия/​недоверия технике,​ усугубляемой особенностями современных ИИ-инструментов. Такой ИИ, пока «слабый»,​ в составе рекомендательных систем все шире проникает в промышленную практику,​ опережая его осмысление,​ теоретическое обоснование и подготовку операторов к работе в новых условиях. Помимо известных мер повышения доверия (прозрачность,​ объяснимость,​ коммуникативность,​ мотивированность,​ пр.) все актуальней становится учет индивидуально-психологических характеристик операторов («большая пятерка»,​ атрибутивный стиль, стратегия принятия решений в ответственных ситуациях). В докладе обосновывается модель принятия/​отклонения советов ИИ, позволяющая оценить предпочитаемые оператором стратегии в зависимости от уровня субъективной тревожности и использовать эти оценки для взаимоадаптации Ч-О и ИИ в задачах управления сложными и потенциально опасными техническими системами. Излагаются исследовательский ландшафт проблемы,​ имеющиеся экспериментальные результаты и направления будущих разработок. ​    ​
  
 +Презентация {{ :​дозорцев-венгер_11_12_24.pdf |}} 
  
 +Ссылка на запись семинара [[https://​rutube.ru/​video/​2bcfde20db0ee40f8a1e7d89a912118a/​]]
  
 ---- ----
Строка 397: Строка 444:
 {{ :​karpov-2019-10-01.pptx |}} Презентация семинара,​ формат pptx {{ :​karpov-2019-10-01.pptx |}} Презентация семинара,​ формат pptx
  
 +----
  
-1 октября 2019 г. в Институте философии РАН (Москва) состоялось первое заседание ежемесячного исследовательского семинара **«Этические проблемы искусственного интеллекта»**.+**1 октября 2019 г.** в Институте философии РАН (Москва) состоялось первое заседание ежемесячного исследовательского семинара **«Этические проблемы искусственного интеллекта»**.
  
 Исследовательский семинар организован сектором этики Института философии РАН совместно с Российской ассоциацией искусственного интеллекта (РАИИ) и кафедрой этики философского факультета МГУ им. М.В. Ломоносова под эгидой Научного совета РАН по методологии искусственного интеллекта и когнитивных исследований (НСМИИ РАН). ​ Исследовательский семинар организован сектором этики Института философии РАН совместно с Российской ассоциацией искусственного интеллекта (РАИИ) и кафедрой этики философского факультета МГУ им. М.В. Ломоносова под эгидой Научного совета РАН по методологии искусственного интеллекта и когнитивных исследований (НСМИИ РАН). ​
  
 Задача семинара – обсуждение теоретических условий междисциплинарного синтеза этики и технологии ИИ, проблем формализации этических принципов в приложении к ИИ, этических аспектов применения интеллектуальных и автономных систем и др.  Задача семинара – обсуждение теоретических условий междисциплинарного синтеза этики и технологии ИИ, проблем формализации этических принципов в приложении к ИИ, этических аспектов применения интеллектуальных и автономных систем и др. 
- 
-Руководители семинара:​ 
-  * Апресян Рубен Грантович *, доктор философских наук, профессор,​ руководитель сектора этики ИФРАН 
-  * Карпов Валерий Эдуардович,​ к.т.н., доцент,​ начальник Лаборатории робототехники НИЦ «Курчатовский институт»,​ вице-президент РАИИ 
-  * Разин Александр Владимирович,​ доктор философских наук, профессор,​ заведующий Кафедрой этики философского факультета МГУ им. М.В. Ломоносова 
- 
-Ученый секретарь: ​ 
-  * Платонова Мария Валерьевна,​ хранитель Политехнического музея ​ 
  
 Первое заседание семинара было посвящено теме **«Теоретические и методологические предпосылки обсуждения проблем этики искусственного интеллекта»**. ​ Первое заседание семинара было посвящено теме **«Теоретические и методологические предпосылки обсуждения проблем этики искусственного интеллекта»**. ​
prog_materials.1737448255.txt.gz · Последние изменения: 2025/01/21 11:30 — platonova