На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Несекретные материалы

14 490 подписчиков

Свежие комментарии

  • Владимир Алтайцев
    Уверен  на  100%, что не откажется  Ро и прочих  агшентов  Запада  в Кремле  и ГШД,ссия  от этого курса, пока  Путин ...Сможет ли Россия ...
  • Игорь Максаков
    Закрыть все эти чёртовы биржи, их сотрудников разогнать без предоставления работы, а лучше, чтобы они уехали за бугор...Сможет ли Россия ...
  • igor kim
    У евреев нет генетического определения - определяются по маме - очень разумно.«Неандертальщина ...

Люди доверяют ChatGPT больше, чем юристам: тревожные результаты исследования

Исследование показало, что люди чаще доверяют юридическим советам ChatGPT, чем реальных юристов. Почему это опасно и как отличить правду от "галлюцинаций" ИИ?

Новое исследование Университета Саутгемптона показало шокирующий факт: обычные люди чаще следуют юридическим советам ChatGPT, чем рекомендациям настоящих юристов.

Ученые провели серию экспериментов с участием 288 человек, демонстрируя, как искусственный интеллект меняет наше восприятие экспертизы.

ИИ против юристов: неожиданный победитель

В первых двух экспериментах участникам предлагали юридические консультации, не указывая их источник. В 59% случаев люди выбирали советы, сгенерированные ChatGPT, а не написанные профессиональными юристами. Даже когда источник раскрывали, доверие к ИИ оставалось сопоставимым с доверием к человеческим экспертам.

Почему мы верим машинам?

Исследователи выделяют три ключевые причины:

1. Уверенная подача — ChatGPT формулирует ответы четко и авторитетно, даже когда ошибается

2. Сложный язык — нейросеть использует более "научно" звучащие формулировки

3. Лаконичность — в отличие от юристов, ИИ не перегружает текст деталями

Опасные "галлюцинации"

Главная проблема в том, что языковые модели часто выдают ложную информацию как истину. В юридической сфере это может привести к катастрофическим последствиям — от проигранных судов до уголовной ответственности. Исследование показало, что люди с трудом отличают текст ИИ от человеческого (точность распознавания всего 59%).

Регулирование и безопасность

Европейский Союз уже принимает меры.

Согласно статье 50.9 Закона об ИИ, все системы генерации текста должны маркировать свой вывод. Но этого недостаточно. Эксперты настаивают на:

- Обязательной проверке ИИ-советов у живых специалистов

- Программах цифровой грамотности для населения

- Технических решениях для верификации источников

Как правильно использовать ИИ в юриспруденции

ChatGPT может быть полезен для:

- Первичного анализа ситуации

- Поиска аналогичных случаев

- Объяснения базовых правовых концепций

Но любые важные решения требуют консультации с живым юристом. Как отмечают исследователи: "ИИ — это инструмент, а не замена профессиональному суждению".

Ситуация требует сбалансированного подхода — между использованием новых технологий и сохранением человеческого контроля в критически важных сферах. По мере развития ИИ этот вопрос будет становиться только острее.

 

Ссылка на первоисточник
наверх