Здесь показаны различия между двумя версиями данной страницы.
Предыдущая версия справа и слева Предыдущая версия Следующая версия | Предыдущая версия | ||
программа [2023/11/10 14:21] platonova |
программа [2024/04/27 10:58] (текущий) platonova |
||
---|---|---|---|
Строка 1: | Строка 1: | ||
==== Материалы семинара==== | ==== Материалы семинара==== | ||
- | **декабрь 2023 г.** | + | **24 апреля 2024 г.** |
+ | //Правовое регулирование искусственного интеллекта: состояние и перспективы// | ||
+ | |||
+ | Докладчики: | ||
+ | |||
+ | Синицын Сергей Андреевич, доктор юридических наук, профессор РАН, главный научный сотрудник Института законодательства и сравнительного правоведения при Правительстве РФ (ИЗиСП), | ||
+ | |||
+ | Нанба Сариа Беслановна, кандидат юридических наук., ведущий научный сотрудник Института законодательства и сравнительного правоведения при Правительстве РФ (ИЗиСП). | ||
+ | |||
+ | Аннотация: Сегодня возможности, риски искусственного интеллекта находятся в эпицентре обсуждений и дискуссий ученых в различных отраслях знания, включая психологию, философию, культурологию, технические науки. Парадоксально, но роль права оказывается неопределенной, поскольку юристы не только не предлагают рациональных решений, но и дают собственную нередко иррациональную и ложную картину роли техники в развитии общества. В результате создаются технологические казусы в законодательстве (например, определение искусственного интеллекта). | ||
+ | |||
+ | В действительности юридические решения должны отражать технологическую реальность и созидать новый формат общественных отношений в цифровом обществе. Проблема актуальна не только для российского, зарубежного, но и международного права. Именно от права зависит облик новой технологической цивилизации: соотношение и мера прогресса в общественном развитии, обеспечение прав человека, открытие новых возможностей в освоении техники, допустимые границы использования технологий. | ||
+ | |||
+ | |||
+ | Презентация {{ :ии_в_фокусе_права.pdf |}} | ||
+ | ---- | ||
+ | |||
+ | **27 марта 2024 г.** | ||
+ | //Эмоции в коммуникации с искусственным интеллектом: этико-психологические аспекты// | ||
+ | |||
+ | Докладчик: Майленова Фарида Габделхаковна, доктор философских наук, ведущий научный сотрудник сектора гуманитарных экспертиз и биоэтики Института философии РАН, г. Москва, Россия | ||
+ | \\ farida.mailenova@gmail.com | ||
+ | |||
+ | Аннотация: В дискуссиях о роботах с искусственным интеллектом практически всегда возникает вопрос, будут ли роботы будущего сами обладать эмоциями. Роль эмоций в коммуникации сложно переоценить, и образ будущего, в котором мы сможем общаться с эмоциональными роботами, является одновременно привлекательным и пугающим. В произведениях научной фантастики, где роботы-андроиды имеют не только разум, но и эмоции, возможные этические коллизии такого взаимодействия Рассматривая тему «эмоциональность роботов», которая непосредственно связана с вопросом о возможностях и пределах обучения роботов эмоциям, я предлагаю разделить ее на несколько аспектов: 1) проявление эмоций; 2) считывание эмоций у собеседника (по голосу, позам, выражению глаз, мимике); 3) способность учитывать и предсказывать эмоции собеседника; 4) способность испытывать эмоции; 5) способность рефлексировать и осознавать свои эмоции. Если первые два пункта почти не вызывают вопросов, ИИ уже сегодня обучают распознавать эмоции и имитировать их, то последние три способности предполагают высокий уровень сознания и нравственного развития. Вопрос о том, можно ли научить робота ощущать эмоции, рефлексировать их и учитывать эмоции при общении, остается открыт. Между тем люди, будучи чувствительны к проявлениям эмоций, способны реагировать не только на их искренние проявления, но в том числе и на их качественную имитацию - а это современным роботам вполне по силам. Так что опасность, что роботы смогут манипулировать человеком и его эмоциями, актуальна уже сегодня. | ||
+ | |||
+ | |||
+ | Презентация {{ :слайды_доклада_эмоции_ии_.pdf |}} | ||
+ | |||
+ | |||
+ | Ссылка на запись семинара [[https://youtu.be/GeqdK4o3wPQ?si=nKnr2qlm-Iyb5QmN]] | ||
+ | ---- | ||
+ | |||
+ | **14 февраля 2024 г.** | ||
+ | //Искусственный интеллект VS языковые модели GPT// | ||
+ | |||
+ | Докладчик: Шалак Владимир Иванович (д. филос. н., руководитель сектора логики ИФ РАН) | ||
+ | |||
+ | Аннотация: В докладе еще раз будет поставлен вопрос о том, что можно считать искусственными | ||
+ | интеллектуальными системами. В самом общем виде – это системы, обладающие | ||
+ | характеристиками, отличающими Homo sapiens от всего остального мира живой природы. | ||
+ | Самообучение и распознавание образов не являются такими отличительными признаками. Одна | ||
+ | из главных характеристик – способность к понятийному мышлению. В результате анализа простых | ||
+ | примеров, с которыми не справляются нейросети, будет показано, что никакое дообучение на | ||
+ | больших объемах текстов не позволит улучшить их работу по причине определенных | ||
+ | теоретических ограничений. Будет объяснено, в чем заключаются эти ограничения. Языковые | ||
+ | модели порождения текстов нейросетями GPT являются тупиковым направлением в | ||
+ | моделировании ИИ. Поскольку в настоящее время начинается бездумное внедрение нейросетей в | ||
+ | самые разные области человеческой деятельности, обретает актуальность понятие нейрохакинга – | ||
+ | принуждения нейросетей принимать нужные пользователю решения, например, в | ||
+ | судопроизводстве. Это будет продемонстрировано на примере принуждения трех сетей принять в | ||
+ | качестве истинного утверждение: «Если некоторый объект обладает свойством P, то всякий объект | ||
+ | обладает свойством P». Его частным случаем будет утверждение: «Если некоторый человек | ||
+ | бородат, то все люди бородаты». Будут предложены общие методы нейрохакинга. | ||
+ | |||
+ | |||
+ | Ссылка на запись семинара [[https://youtu.be/5-7DCkMBHrE?si=eU8HwWa4iFsQTkde]] | ||
+ | |||
+ | ---- | ||
+ | |||
+ | **20 декабря 2023 г.** | ||
//Универсальная шкала интеллектуальных систем: от медузы до суперкомпьютера и человека// | //Универсальная шкала интеллектуальных систем: от медузы до суперкомпьютера и человека// | ||
Строка 10: | Строка 69: | ||
Kubryak OV, Kovalchuk SV, Bagdasaryan NG. Assessment of Cognitive Behavioral Characteristics in Intelligent Systems with Predictive Ability and Computing Power. Philosophies. 2023; 8(5):75. https://doi.org/10.3390/philosophies8050075 | Kubryak OV, Kovalchuk SV, Bagdasaryan NG. Assessment of Cognitive Behavioral Characteristics in Intelligent Systems with Predictive Ability and Computing Power. Philosophies. 2023; 8(5):75. https://doi.org/10.3390/philosophies8050075 | ||
+ | |||
+ | Презентация {{ :kubryak_bagdasaryan_kovalchuk_20122023.pdf |}} | ||
+ | |||
+ | Ссылка на запись семинара [[https://youtu.be/15A8HG-3kis?si=l72mPBec7IfaZroU]] | ||
---- | ---- | ||
Строка 25: | Строка 88: | ||
Презентация {{ :2023_субъектность_этикаии.pdf |}} | Презентация {{ :2023_субъектность_этикаии.pdf |}} | ||
+ | |||
+ | Статьи \\ | ||
+ | {{ :melnikova_surov_-_2023_-_legal_status_of_artificial_intelligence_from_quantum-theoretic_perspective.pdf |}} | ||
+ | \\ {{ :суров_-_2023_-_квантовая_концепция_свободы_выбора.pdf |}} | ||
Ссылка на запись семинара [[https://youtu.be/hmaGXcSklHY?si=FAt2iBEOlX9HNtSQ]] | Ссылка на запись семинара [[https://youtu.be/hmaGXcSklHY?si=FAt2iBEOlX9HNtSQ]] |