Gorozhanin.com.ua

Названы риски использования искусственного интеллекта для юристов

13 февраля
09:44 2020

В США преступник оспорил приговор, вынесенный в том числе с учетом «выводов» компьютерной программы, которая определяет вероятность рецидива. А программы для кадровиков собирают всю информацию о кандидате из соцсетей. При этом они могут взять и те данные, которые рекрутеры по закону не могут запрашивать. Риски использования искусственного интеллекта обсудили на конференции, передает Pravo.

4 февраля в рамках конференции Legaltech в Нью-Йорке прошла панель, посвящённая рискам в условиях цифровой трансформации. Представители ряда компаний рассказали о сложностях, с которыми сталкивается юрист при использовании технологий искусственного интеллекта (ИИ).

Партнёр и сопредседатель глобальной инициативы по искусственному интеллекту в международной юридической фирме Covington & Burling Ли Тидрих отметил, что так же, как и интернет в 90-х, рост технологий ИИ вновь опережает развитие правовой отрасли. Отсутствие ясности в регулировании многих «технологических» вопросов повышает ставки для организаций. «Надо быть очень осторожным при использовании ИИ, потому что даже если нет никакого риска с точки зрения законодательства, то негативные заголовки в новостях могут привести к репутационному ущербу», – сказал Тидрих.

Вице-президент по юридическим и кадровым вопросам в Canam Steel Corp Рон Пеппе пожаловался на сложности с политикой конфиденциальности. По его словам, при найме сотрудников на работу у компании часто есть возможность собрать все данные кандидата с социальных сетей. Есть информация, которую рекрутерам нельзя запрашивать (например, религия), но программа может, обнаружив при поиске, автоматически её занести в базу данных. Из-за этого неизбежно встаёт вопрос о предвзятости.

Тидрих в ответ привёл в пример дело «Штат против Лумиса», где гражданин США Эрик Лумис в Верховном суде Висконсина оспаривал решение суда первой инстанции. Он приговорил Лумиса к шести годам лишения свободы, используя в том числе показания компьютерной программы COMPAS. Она определяет вероятность рецидива преступления у подсудимого в будущем на основе опросника. Лумис требовал признать незаконным её использование при рассмотрении дела, поскольку, оценивая вероятность совершения им преступления, она могла учесть его расу и пол. Верховный суд оставил решение без изменений, сославшись на то, что суд первой инстанции в своём решении полагался на другие факторы.

Советник по связям с государственными органами компании Verizon Дэвид Кесслер сказал, что недостатки ИИ осложняют работу юриста больше других. Он говорил об этических обязательствах, которые юристы должны учитывать при использовании ИИ в своей организации, в том числе и о том, как лучше всего получить разрешение на использование информации субъекта персональных данных. «Вы обязаны применять должные меры безопасности, когда используете любую технологию», – добавил Кесслер.

Источник: sud.ua


Warning: count(): Parameter must be an array or an object that implements Countable in /home/acoareis/public_html/wp-content/themes/legatus-theme/includes/single/post-tags.php on line 5
Share

Статьи по теме

Последние новости

Чотирнадцять ворожих атак по Дніпропетровщині: ситуація в регіоні станом на вечір

Читать всю статью

Мы в соцсетях

Наши партнёры

UA.TODAY - Украина Сегодня UA.TODAY

Наша цель – ваш комфорт: EA-LOGISTIC – гарантия эффективных международных грузоперевозок.