Главная Блог ... Аналитические статьи Legal Tech Искусственный интелект в юридической отрасли? О чем идёт речь? Искусственный интелект в юридической отрасли? О че...

Искусственный интелект в юридической отрасли? О чем идёт речь?

  • Автор: 

    SH IV

  • 6

  • 0

  • 2611

Отключить рекламу
 - tn1_0_25042300_1541692433_5be45c113d295.jpg

Юристы обучаются и изучают этику. Использование этики в создании программ ИИ приведет к успеху

Многие компании и люди во всем мире, полагаясь на искусственный интеллект, считают, что последствия того, как программы ИИ действуют и влияют на результаты (положительно и отрицательно), слишком важны, чтобы ими пренебрегать.

И у людей, а не технологий есть на это ответ.

Продолжаются дискуссии, какова же роль этики в развитии ИИ, хотя некоторые теории уже существуют.

В 2017 году Палата лордов в Соединенном Королевстве назначила избранный комитет по искусственному интеллекту . Роль членов заключается в рассмотрении экономических, этических и социальных последствий, достижений в области искусственного интеллекта.
В рамках своего доклада о работе в 2017-2019 годах комитет по искусственному интеллекту предложил следующий код развития AI :

  1. Искусственный интеллект должен развиваться для общего блага и пользы человечества.
  2. Искусственный интеллект должен опираться на принципы разборчивости и справедливости.
  3. Искусственный интеллект не должен использоваться для уменьшения личных данных или конфиденциальности отдельных лиц, семей или общин.
  4. Все граждане имеют право быть образованными, чтобы развиватся умственно, эмоционально и экономически наряду с искусственным интеллектом.
  5. Автономная власть болеть, уничтожать или обманывать людей никогда не должна обладать искусственным интеллектом.

Этот код похож на три закона робототехники Исаака Азимова, созданных в 1942 году. Семьдесят шесть лет спустя, искусственный интеллект существует и продвигается дальше, что нельзя было бы представить себе это до недавнего времени.

Как ИИ с использованием этики влияет на юридическую отрасль?

Основная часть закона сосредоточена на справедливости и этике.

На недавнем мероприятии « Правовое общество» профессор Ричард Сусскинд рекомендовал, чтобы практикующие ИИ внедряли этику в свою работу и более близко знакомились с понятием этики, как это делал он будучи в качестве студента-юриста. Сусскинд предполагает, что нельзя смотреть на юридическое урегулирование, на букву закона и рассказать, что является этическим или нет. Закон можно трактовать только со стороны законности того или иного понятия .

Так же нельзя забывать о вопросе морали, вы вправе выбирать «что то делать» по сравнению с тем разрешено это или нет.

При разработке юридической системы ИИ результаты должны быть описаны с точки зрения особенностей - что система будет делать в ответ на действие. В любой системе неожиданные выходы обрабатываются как ошибки или нежелательные результаты.

В программировании просматривается код, чтобы найти ошибку логического программирования, которую сделал человек, и изменяет его - исправлена ​​ошибка. В ИИ, в частности машинное обучение, искусственный интеллект создал свою собственную логику, поэтому код не может быть изменен.

Таким образом, с юридическим ИИ мы должны либо ограничить методы, используемые для создания искусственно интеллектуальных программ, и тех, которые помогут понять их аргументацию, или ограничить область, над которой мы работаем, с тем, где существует значительный контроль над людьми.

С практической точки зрения это означает сосредоточиться на крайностях в любом данном случае, а не в среднем или типичном вводе при попытке найти ошибки, потому что этическая ошибка, скорее всего, появится на практике.

Как мы можем гарантировать, что юридический ИИ является этическим?

Критерии тестирования систем ИИ, занимающихся юридическими вопросами, должны быть четко определены, чтобы исключать сценарии, вращающиеся вокруг маргиналов в обществе.

Ярким примером являются юридические фирмы, занимающиеся претензиями на объем страхования. Чтобы сделать их процессы максимально эффективными, эти компании создают систему искусственного интеллекта, которая автоматически классифицирует требования как стандартные, так и индивидуальные. Система подготовлена ​​на основе тысяч предыдущих примеров. Они уверены, что могут предсказать, к какой категории должна относиться претензия.

Прежде отправится решать «жизненные проблемы», они должны убедиться, что их новообразованный ИИ случайно не изучил неправильные уроки, и может поставить неэтичного агента ИИ для решения реальных человеческих дилемм. Проблема может заключаться в том, что ИИ нашел в своих учебных данных некоторые скрытые метаданные или шаблоны, то есть он сделал правильный результат, но по неправильным причинам.

Например, предположим, что система ИИ узнала, что случаи из конкретных почтовых индексов всегда должны оспариваться, а не решаться.

Чтобы этого избежать, перед созданием агента ИИ фирма должна проверить со своей панелью по этике, панель управления с контролем, чтобы утвердить условия этого агента ИИ и какие ограничения там должны быть. Если нет группы по этике, Юридическое общество рекомендует создать его. Это будет аналогично роли COLP (сотрудник по вопросам соблюдения юридической практики), которая рассматривает предлагаемые решения AI, обсуждает их измерения и утверждает их, если они соответствуют этическим стандартам.

После создания агента ИИ должен пройти этап этического тестирования, наряду с функциональным тестированием, чтобы убедиться, что ИИ не изучил неправильные уроки. Люди должны всегда думать о возможных неэтичных результатах вновь созданного ИИ, следовательно, должны проверить, чтобы границы этики не нарушались.

Это первый закон для юристов, обучающихся в области этики, а не для инженеров и инженеров ИИ, которые обучаются в области информатики, математики и физики.

Цель этого заключается в том, чтобы выявить неэтичное поведение ИИ и попытаться его устранить, предоставив ему преднамеренно предвзятые данные, чтобы убедиться, что это привело к ошибочным результатами. Ретроспективно раскрывая правила, которые усвоил алгоритм машинного обучения, вы можете убедиться, что они будут обращать внимание на правильно выстроенные грани, а не на предвзятые или неэтичные функции, такие как раса или пол заявителя.

Юридическое общество является одной из многих организаций, занимающихся этическим применением ИИ. Рекомендации включают наличие этической группы или должностного лица, которые рассмотрят применение ИИ, а в последствии результаты этического тестирования в правовом контексте. Это помогает избежать неэтичной практики в применения ИИ.

Читайте статью:«AI» - искуственный юридический интелект которого не нужно бояться

Перевод: юридический ресурс Протокол

  • 2611

    Просмотров

  • 0

    Коментарии

  • 2611

    Просмотров

  • 0

    Коментарии


  • Поблагодарить Отключить рекламу

    Оставьте Ваш комментарий:

    Добавить

    Другие наши сервисы:

    • Бесплатная консультация

      Получите быстрый ответ на юридический вопрос в нашем мессенджере , который поможет Вам сориентироваться в дальнейших действиях

    • ВИДЕОЗВОНОК ЮРИСТУ

      Вы видите своего юриста и консультируетесь с ним через экран, чтобы получить услугу, Вам не нужно идти к юристу в офис

    • ОБЪЯВИТЕ СОБСТВЕННЫЙ ТЕНДЕР

      На выполнение юридической услуги и получите самое выгодное предложение

    • КАТАЛОГ ЮРИСТОВ

      Поиск исполнителя для решения Вашей проблемы по фильтрам, показателям и рейтингу

    Популярные аналитические статьи

    Смотреть все статьи
    Смотреть все статьи
    logo

    Юридические оговорки

    Protocol.ua обладает авторскими правами на информацию, размещенную на веб - страницах данного ресурса, если не указано иное. Под информацией понимаются тексты, комментарии, статьи, фотоизображения, рисунки, ящик-шота, сканы, видео, аудио, другие материалы. При использовании материалов, размещенных на веб - страницах «Протокол» наличие гиперссылки открытого для индексации поисковыми системами на protocol.ua обязательна. Под использованием понимается копирования, адаптация, рерайтинг, модификация и тому подобное.

    Полный текст