Головна Блог ... Аналітична стаття Legal Tech Искусственный интелект в юридической отрасли? О чем идёт речь? Искусственный интелект в юридической отрасли? О че...

Искусственный интелект в юридической отрасли? О чем идёт речь?

  • Автор: 

    SH IV

  • 6

  • 0

  • 2906

Відключити рекламу
 - tn1_0_25042300_1541692433_5be45c113d295.jpg

Юристы обучаются и изучают этику. Использование этики в создании программ ИИ приведет к успеху

Многие компании и люди во всем мире, полагаясь на искусственный интеллект, считают, что последствия того, как программы ИИ действуют и влияют на результаты (положительно и отрицательно), слишком важны, чтобы ими пренебрегать.

И у людей, а не технологий есть на это ответ.

Продолжаются дискуссии, какова же роль этики в развитии ИИ, хотя некоторые теории уже существуют.

В 2017 году Палата лордов в Соединенном Королевстве назначила избранный комитет по искусственному интеллекту . Роль членов заключается в рассмотрении экономических, этических и социальных последствий, достижений в области искусственного интеллекта.
В рамках своего доклада о работе в 2017-2019 годах комитет по искусственному интеллекту предложил следующий код развития AI :

  1. Искусственный интеллект должен развиваться для общего блага и пользы человечества.
  2. Искусственный интеллект должен опираться на принципы разборчивости и справедливости.
  3. Искусственный интеллект не должен использоваться для уменьшения личных данных или конфиденциальности отдельных лиц, семей или общин.
  4. Все граждане имеют право быть образованными, чтобы развиватся умственно, эмоционально и экономически наряду с искусственным интеллектом.
  5. Автономная власть болеть, уничтожать или обманывать людей никогда не должна обладать искусственным интеллектом.

Этот код похож на три закона робототехники Исаака Азимова, созданных в 1942 году. Семьдесят шесть лет спустя, искусственный интеллект существует и продвигается дальше, что нельзя было бы представить себе это до недавнего времени.

Как ИИ с использованием этики влияет на юридическую отрасль?

Основная часть закона сосредоточена на справедливости и этике.

На недавнем мероприятии « Правовое общество» профессор Ричард Сусскинд рекомендовал, чтобы практикующие ИИ внедряли этику в свою работу и более близко знакомились с понятием этики, как это делал он будучи в качестве студента-юриста. Сусскинд предполагает, что нельзя смотреть на юридическое урегулирование, на букву закона и рассказать, что является этическим или нет. Закон можно трактовать только со стороны законности того или иного понятия .

Так же нельзя забывать о вопросе морали, вы вправе выбирать «что то делать» по сравнению с тем разрешено это или нет.

При разработке юридической системы ИИ результаты должны быть описаны с точки зрения особенностей - что система будет делать в ответ на действие. В любой системе неожиданные выходы обрабатываются как ошибки или нежелательные результаты.

В программировании просматривается код, чтобы найти ошибку логического программирования, которую сделал человек, и изменяет его - исправлена ​​ошибка. В ИИ, в частности машинное обучение, искусственный интеллект создал свою собственную логику, поэтому код не может быть изменен.

Таким образом, с юридическим ИИ мы должны либо ограничить методы, используемые для создания искусственно интеллектуальных программ, и тех, которые помогут понять их аргументацию, или ограничить область, над которой мы работаем, с тем, где существует значительный контроль над людьми.

С практической точки зрения это означает сосредоточиться на крайностях в любом данном случае, а не в среднем или типичном вводе при попытке найти ошибки, потому что этическая ошибка, скорее всего, появится на практике.

Как мы можем гарантировать, что юридический ИИ является этическим?

Критерии тестирования систем ИИ, занимающихся юридическими вопросами, должны быть четко определены, чтобы исключать сценарии, вращающиеся вокруг маргиналов в обществе.

Ярким примером являются юридические фирмы, занимающиеся претензиями на объем страхования. Чтобы сделать их процессы максимально эффективными, эти компании создают систему искусственного интеллекта, которая автоматически классифицирует требования как стандартные, так и индивидуальные. Система подготовлена ​​на основе тысяч предыдущих примеров. Они уверены, что могут предсказать, к какой категории должна относиться претензия.

Прежде отправится решать «жизненные проблемы», они должны убедиться, что их новообразованный ИИ случайно не изучил неправильные уроки, и может поставить неэтичного агента ИИ для решения реальных человеческих дилемм. Проблема может заключаться в том, что ИИ нашел в своих учебных данных некоторые скрытые метаданные или шаблоны, то есть он сделал правильный результат, но по неправильным причинам.

Например, предположим, что система ИИ узнала, что случаи из конкретных почтовых индексов всегда должны оспариваться, а не решаться.

Чтобы этого избежать, перед созданием агента ИИ фирма должна проверить со своей панелью по этике, панель управления с контролем, чтобы утвердить условия этого агента ИИ и какие ограничения там должны быть. Если нет группы по этике, Юридическое общество рекомендует создать его. Это будет аналогично роли COLP (сотрудник по вопросам соблюдения юридической практики), которая рассматривает предлагаемые решения AI, обсуждает их измерения и утверждает их, если они соответствуют этическим стандартам.

После создания агента ИИ должен пройти этап этического тестирования, наряду с функциональным тестированием, чтобы убедиться, что ИИ не изучил неправильные уроки. Люди должны всегда думать о возможных неэтичных результатах вновь созданного ИИ, следовательно, должны проверить, чтобы границы этики не нарушались.

Это первый закон для юристов, обучающихся в области этики, а не для инженеров и инженеров ИИ, которые обучаются в области информатики, математики и физики.

Цель этого заключается в том, чтобы выявить неэтичное поведение ИИ и попытаться его устранить, предоставив ему преднамеренно предвзятые данные, чтобы убедиться, что это привело к ошибочным результатами. Ретроспективно раскрывая правила, которые усвоил алгоритм машинного обучения, вы можете убедиться, что они будут обращать внимание на правильно выстроенные грани, а не на предвзятые или неэтичные функции, такие как раса или пол заявителя.

Юридическое общество является одной из многих организаций, занимающихся этическим применением ИИ. Рекомендации включают наличие этической группы или должностного лица, которые рассмотрят применение ИИ, а в последствии результаты этического тестирования в правовом контексте. Это помогает избежать неэтичной практики в применения ИИ.

Читайте статью:«AI» - искуственный юридический интелект которого не нужно бояться

Перевод: юридический ресурс Протокол

  • 2906

    Переглядів

  • 0

    Коментарі

  • 2906

    Переглядів

  • 0

    Коментарі


  • Подякувати Відключити рекламу

    Залиште Ваш коментар:

    Додати

    КОРИСТУЙТЕСЯ НАШИМИ СЕРВІСАМИ ДЛЯ ОТРИМАННЯ ЮРИДИЧНИХ ПОСЛУГ та КОНСУЛЬТАЦІЙ

    • Безкоштовна консультація

      Отримайте швидку відповідь на юридичне питання у нашому месенджері, яка допоможе Вам зорієнтуватися у подальших діях

    • ВІДЕОДЗВІНОК ЮРИСТУ

      Ви бачите свого юриста та консультуєтесь з ним через екран , щоб отримати послугу Вам не потрібно йти до юриста в офіс

    • ОГОЛОСІТЬ ВЛАСНИЙ ТЕНДЕР

      Про надання юридичної послуги та отримайте найвигіднішу пропозицію

    • КАТАЛОГ ЮРИСТІВ

      Пошук виконавця для вирішення Вашої проблеми за фильтрами, показниками та рейтингом

    Популярні аналітичні статті

    Дивитись усі статті
    Дивитись усі статті
    logo

    Юридичні застереження

    Protocol.ua є власником авторських прав на інформацію, розміщену на веб - сторінках даного ресурсу, якщо не вказано інше. Під інформацією розуміються тексти, коментарі, статті, фотозображення, малюнки, ящик-шота, скани, відео, аудіо, інші матеріали. При використанні матеріалів, розміщених на веб - сторінках «Протокол» наявність гіперпосилання відкритого для індексації пошуковими системами на protocol.ua обов`язкове. Під використанням розуміється копіювання, адаптація, рерайтинг, модифікація тощо.

    Повний текст

    Приймаємо до оплати