Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Legal.AI - Владислав Шершульский, ИИ, мораль и ...

Avatar for OpenTalks.AI OpenTalks.AI
September 19, 2019

Legal.AI - Владислав Шершульский, ИИ, мораль и право.

Avatar for OpenTalks.AI

OpenTalks.AI

September 19, 2019
Tweet

More Decks by OpenTalks.AI

Other Decks in Business

Transcript

  1. Облачная инфраструктура Внешние данные из публичного облака «Тюнинг» модели дополнительное

    обучение конкретного экземпляра сервиса Граничные «эдж» устройства где предобученное подмножество ИИ-сервиса работает непосредственно на месте его применения (опционально) Когнитивные сервисы из публичного облака, обученные на миллиардах примеров Облачный «эплаенс» локальный фрагмент глобального облака, инсталлированный у клиента или партнера Сенсоры и актуаторы реализующие сервис (если имеются) Анатомия интеллектуального сервиса
  2. Влияние ИИ на мировую экономику Шанс десятилетия для бизнеса и

    общества PwC. “Sizing the prize What’s the real value of AI for your business and how can you capitalize?” https://www.pwc.com/gx/en/issues/analytics/assets/pwc-ai-analysis-sizing-the-prize-report.pdf Производительность Персонализация Качество Триллионов долл. США Вклад ИИ в мировой ВВП
  3. ИИ для юристов • Автоматическая юстиция • Цифровые расследования •

    Обеспечение следственных, судебных и пенитенциарных процедур • Следственная, судебная и пенитенциарная аналитика • Предсказательная аналитика • Анализ и синтез контрактов • Анализ и прогноз рисков • Контроль и исполнение обязательств • Защита интеллектуальной собственности • Справочные и рекомендательные системы • Интеллектуальные чат-боты https://www.topbots.com/automating-the-law- a-landscape-of-legal-a-i-solutions/
  4. Отношение общества к ИИ Предпочтете ли Вы компанию, этично использующую

    ИИ ? Capgemini research Institute, Aug.2019: https://www.marketingcharts.com/business-of-marketing/innovation-109595 Буду больше доверять ей Порекомендую ее друзьям и родным Буду лояльнее ее бренду Приобрету у нее больше Положительно отзовусь о ней в соц.сетях
  5. Отношение общества к ИИ Поддерживаете ли Вы использование ИИ государственными

    органами ? Сценарий использования Согласны (a,%) Несогласны (b,%) Поддержка (a-b,%) Использование ИИ в реальном времени для оптимизации трафика Предсказательное обслуживание государ- ственной и муниципальной собственности Подбор вакансий государственными службами занятости Выдача рекомендаций по медицинским программам социального страхования Подготовка заключений по возможности условно-досрочного освобождения Подготовка вердиктов в уголовном судопроизводстве Доля респондентов (%) Уровень поддержки общественностью использования ИИ в гос.секторе сильно зависит от конкретных сценариев Boston Consulting Group, Aug.2019: https://www.bcg.com/publications/2019/citizen-perspective-use-artificial-intelligence-government-digital-benchmarking.aspx
  6. Информационная этика Лучано Флориди Субъект Объект Воздействие Контекст Инфосфера •

    Неантропоцентрическая агенты – любые информационные сущности (люди, организации, животные, природные объекты, роботы, программы, наборы данных и пр.) • Страдательная сфокусированная на объекте воздействия • Минимальные естественные права право на существование, право на развитие
  7. Правовой статус ИИ: дее- и право- способность « ЗА »

    « ПРОТИВ » • Позволяет компьютерам перейти от режима работы «по нашим инструкциям» к режиму «в наших интересах» • Упрощает включение искусственных агентов в социальные отношения, в т.ч. путем распространения на них существующего законодательства • Легитимизует естественное стремление людей к персонализации инструментов • Защищает гармоничное развитие инноваций от спорадического запретительного регулирования (??) • «Мы должны дать им права, чтобы сохранить наши моральные ценности» – Кейт Дарлинг https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2044797 • Корпоративные и искусственные агенты могут использоваться для избежания последствий • Расширение прав искусственных агентов может повлечь ограничение прав людей • В римском праве уже был автономный транспорт • Чрезмерное регулирование может затормозить инновации (??) • Наделение искусственных агентов может ограничить возможности корпораций и государства использовать ИИ в своих целях (??)
  8. Условия дее- и право- способности ИИ Агенты – кандидаты в

    личности • Возможность взаимодействовать с окружающей средойу • Рефлексия и социализация • Автономность и свобода воли • Индивидуальность • … ?
  9. Философско-юридическо-математический словарик • Агент – автономная сущность, в определенной мере

    обособленная от окружающей его среды, воспринимающая ее с помощью сенсоров и воздействующая на нее посредством актуаторов • Рефлексия – рекурсия • Свобода воли – вырождение (неоднозначность) решения уравнений, описывающего поведение агента • Индивидуальность – сложность (бифуркации, хаос, физические ограничения клонирования) Информационный агент как канал связи
  10. ? ? ? Три подхода к правовому статусу ИИ Кого

    (что) можно считать электронной личностью (лицом)? Того (то), кто (что) сможет доказать это в суде Того (то), кто (что) удовлетворяет определенному законом перечню свойств Того (то), кто (что) зарегистрирован в официальном реестре
  11. ? ? ? Три подхода к правовому статусу ИИ Кого

    (что) можно считать электронной личностью (лицом)? Того (то), кто (что) сможет доказать это в суде Того (то), кто (что) удовлетворяет определенному законом перечню свойств Того (то), кто (что) зарегистрирован в официальном реестре
  12. Национальные ИИ-стратегии Еще, в основном, не законодательное регулирование Россия Германия

    Мексика Индия Швеция Южная Корея США Австрия Великобритания ЕС Тунис Франция Италия Дания Тайвань Кения Финляндия ОАЭ КНР Сингапур Япония Канада 2019 2018 2017 См. https://medium.com/politics-ai/an-overview-of-national-ai-strategies-2a70ec6edfd Вероятно, первое законодательное определение ИИ было дано в п.2 статьи 2 Базового закона Японии от 14.12.2016 № 103 «Об улучшении использования данных публичного и частного секторов»
  13. Корпоративные комитеты по контролю за ИИ Microsoft AETHER (AI and

    ethics in engineering and research) и все, все, все…
  14. Принципы интерфейса человек-ИИ Подготовка 1 Четко объявляйте, что система может

    делать 2 Объективно сообщайте, насколько хорошо она может это делать В процессе взаимодействия 3 Учитывайте цель, сценарий и контекст пользователя 4 Отображайте контекстно релевантный контент 5 Соблюдайте уместные социальные нормы 6 Исключайте социальные предубеждения/предрассудки Если что-то пошло не так 7 Обеспечьте удобство запуска/вызова сервиса 8 Обеспечьте возможность останова, игнорирования, отмены сервиса 9 Сохраните возможность корректировки работы сервиса, избегайте необратимости 10 Уточняйте задачу, когда намерения пользователя не ясны 11 Объясняйте действия системы В развитии 12 Уважайте приватность пользователя, защищайте его перс.данные 13 Пусть сервис обучается на примерах поведения пользователей с их согласия 14 Интерфейс сервиса должен меняться с ростом опыта, а изменения поясняться 15 Собирайте и используйте подробную обратную реакцию и отзывы 16 Разъясняйте, как действия пользователя влияют на будущее поведение системы 17 Предоставьте пользователям простой механизм настройки 18 Информируйте пользователя о всех существенных изменениях
  15. Корпоративные комитеты по контролю за ИИ Microsoft AETHER (AI and

    ethics in engineering and research) и все, все, все… AETHER Office of responsible AI Внешние эксперты Заказчики Президент Исследования, разработки, маркетинг, инфраструктура
  16. Модальная логика Георг фон Вригт ~ (не), →(влечет) ∧ (или),

    ∨ (и) ∀ (для всех) ∃ (существует) O(ОБЯЗАТЕЛЬНО) P (ДОПУСТРИМО) F (ЗАПРЕЩЕНО) G (ХОРОШО) N (НЕЙТРАЛЬНО) B (ПЛОХО) Классическая логика предикатов Деонтическая логика Аксиологическая логика
  17. Моральная грамматика ? ЛГ Ввод Грамматически корректно Грамматически некорректно Лингвистическая

    грамматика (ЛГ) ? МГ Ввод Этически допустимо Этически недопустимо Моральная грамматика (МГ) Mikhail, John, Universal Moral Grammar: Theory, Evidence, and the Future. Trends in Cognitive Sciences, April 2007; Georgetown Public Law Research Paper No. 954398. Available at SSRN: https://ssrn.com/abstract=954398 Джон Михал
  18. Моральная грамматика Mikhail, John, Universal Moral Grammar: Theory, Evidence, and

    the Future. Trends in Cognitive Sciences, April 2007; Georgetown Public Law Research Paper No. 954398. Available at SSRN: https://ssrn.com/abstract=954398
  19. Рефлексивная теория игр («Алгебра совести») Владимир Лефевр. Алгебра совести /

    Пер. с англ. — М.: Когито-Центр, 2003. — 411 с. Эта теория предлагает вариант формального описания цепочки обстоятельства  намерения  готовность, внутреннего представления субъектом модели мира (акторов взаимодействия), свободы выбора, этического статуса и пр. Среди результатов: • Интерпретация рефлексии и свободы выбора • Наличие двух этических систем • Удобное формальное описание конфликтных ситуаций • Классификация «психотипов» по этическому статусу
  20. Рефлексивная теория игр Графы отношений рефлексивной теории игр также имеют

    грамматическую структуру Владимир Лефевр. Лекции по теории рефлексивных игр. – М.: Когито-Центр, 2009. – 218 с.
  21. «Моральная машина» MIT и обучение на примерах Трудно собрать большую

    базу примеров поведения в ситуации морального выбора, но Яду Равану (Iyad Rahwan) и коллегам удалось: 40М+ заполненных опросников из 233 стран http://moralmachine.mit.edu/ Edmond Awad at all. The moral machine experiment. – Nature, 2018, 563, 59–64
  22. «Моральная машина» MIT и обучение на примерах 59% опрошенных предпочтут

    купить машину, которая всегда защищает жизнь водителя (Science via The Washington Post) Edmond Awad at all. The moral machine experiment. – Nature, 2018, 563, 59–64
  23. Эволюция законов инфосферы Айзек Азимов 1942 Лучано Флориди 1999 0.

    Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред. 1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. 2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. 3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам. 0. Энтропия не должна порождаться в инфосфере (действие безусловно приемлемо, только если не порождает энтропию). 1. Нужно стремиться к минимизации производства энтропии в инфосфере (из возможных действий следует предпочесть производящее минимум энтропии). 2. Нужно уменьшать энтропию в инфосфере (этично предпринимать действия с целью уменьшения энтропии). 3. Нужно заботиться о состоянии инфорсферы, путем ее расширения, совершенствования и развития.
  24. Принцип расширения свободы выбора “Этический императив: всегда поступайте так, чтобы

    увеличить число вариантов выбора” Хейнц фон Фёрстер, 1995 Klyubin, A., Polani, D., and Nehaniv, C.. “Empowerment: a universal agent-centric measure of control” in The 2005 IEEE Congress on Evolutionary Computation, Vol. 1 (Edinburgh: IEEE), 128–135. Klyubin, A.S., Polani, D. and Nehaniv, C.L.. “All else being equal be empowered” In European Conference on Artificial Life, 2005, September. Springer, Berlin, Heidelberg, pp. 744–753 Пусть информационный агент выбирает такие действия (своих актуаторов), чтобы на следующем шаге (или через заданное число n шагов) у него был выбор из наибольшего числа различающихся альтернатив, т.е., чтобы его сенсоры могли воспринять максимум разных вариантов ситуации. Иными словами, увеличивайте пропускную способность информационного канала агента от актуаторов к сенсорам. Александр Клюбин
  25. «Формула свободы» в статистической теории информации – мера в битах

    числа вариантов выбора – свобода (empowerment) – максимум пропускной способности канала на n шагах – состояния актуаторов на последних n шагах { t, t + 1, … t + n } – состояние сенсоров на последнем шаге ( t + n ) – вероятность получения сигнала + сенсорами при условии воздействий на предыдущих n шагах n
  26. Принцип расширения свободы Salge C., Polani D. “Empowerment As Replacement

    for the Three Laws of Robotics” in Frontiers in Robotics and AI, 2017; 4, article 25, 16 p.
  27. Принцип расширения свободы Salge C., Polani D. “Empowerment As Replacement

    for the Three Laws of Robotics” in Frontiers in Robotics and AI, 2017; 4, article 25, 16 p. Во многих случаях искусственный агент, не допускающий никакого ущерба для человека, действует менее эффективно и может быстрее выйти из строя, чем агент, допускающий небольшой ущерб человеку. В интересах человека дать ему большую свободу, чем допускали законы Азимова.
  28. Свобода (воли) и ответственность Tufts Human-Robot Interaction Lab Знаю ли

    я как выполнить X Способен ли я технически выполнить X Могу ли я выполнить X прямо сейчас Ожидают ли окружающие от меня выполнения X Не нарушу ли я законы и инструкции выполняя X Соответствует ли выполнение X моральным принципам
  29. Этические компоненты ИТ решений Сегодня Специализированные приложения Встроенные ad hoc

    Моно- и мульти-агентские Логика ИЛИ машинное обучение Различные парадигмы программирования Завтра Общие этические системы Стандартные библиотеки и Этика-как-Сервис Мульти-агентские с рефлексией Логика И машинное обучение Реактивное функциональное программирование (?)
  30. Искусственный Интеллект проникает во все области нашей жизни и критически

    важно сделать так, чтобы он стал нашим ответственным и доброжелательным партнером
  31. © 2019 Microsoft Corporation. All rights reserved. Microsoft, Windows, and

    other product names are or may be registered trademarks and/or trademarks in the U.S. and/or other countries. The information herein is for informational purposes only and represents the current view of Microsoft Corporation as of the date of this presentation. Because Microsoft must respond to changing market conditions, it should not be interpreted to be a commitment on the part of Microsoft, and Microsoft cannot guarantee the accuracy of any information provided after the date of this presentation. MICROSOFT MAKES NO WARRANTIES, EXPRESS, IMPLIED OR STATUTORY, AS TO THE INFORMATION IN THIS PRESENTATION.