На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Несекретные материалы

14 318 подписчиков

Свежие комментарии

  • Владимир Витковский
    Зачем загрязнять НАШУ Новую Землю?! Калифорния тоже неплохой участок.Первые французски...
  • Владимир Витковский
    А что делает на сайте существо , стада территории которого воевали на стороне фашистов, а теперь поставляют оружие ба...Первые французски...
  • Nikolay Stepanov
    Есть место им а полях России Среди нечуждых им гробов. А.С.Пушкин, 1831 год.Первые французски...

О необходимости заключения международного договора о безопасности ИИ заявили ведущие эксперты

Чрезмерное развитие искусственного интеллекта, угрожающее безопасности и благополучию человека в больших масштабах, требует регулирования. Ведущие эксперты заявляют о необходимости заключения международного договора о безопасности ИИ с целью сокращения катастрофических рисков, которые системы искусственного интеллекта представляют для человечества, а также обеспечения для всех людей доступа к благам ИИ. По мнению специалистов, следует прекратить бесконтрольное масштабирование возможностей ИИ.

Накануне проведения в Лондоне первого Международного саммита по безопасности ИИ коалиция научных экспертов, лидеров бизнеса и государственного управления обнародовала открытое письмо с призывом к разработке и ратификации международного договора о безопасности ИИ и созданию для этого в ходе Саммита специальной рабочей группы.

В числе подписавших письмо наиболее известных лиц были ведущий эксперт в области безопасности и управления ИИ в Китае Йи Цзэн, обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио, член правления ведущей лаборатории ИИ Anthropic Люк Мюльхаузер, старший научный сотрудник Google DeepMind и соучредитель Института будущего жизни (FLI) Виктория Краковна, известный когнитивист Гари Маркус.

Основными компонентами международного договора должны стать, по мнению специалистов, всемирные ограничения на объем вычислений для обучения какой-либо модели ИИ, создание организации по безопасности ИИ, которая по примеру «ЦЕРН» объединит ресурсы, знания и опыт в деле безопасности ИИ, а также комиссии по соблюдению договора – ее роль должна быть аналогична роли МАГАТЭ.

Китайский учёный Йи Цзэн сказал: «Мы не можем знать, каким образом и как ИИ может принести нам катастрофические риски, просто потому что без очень серьезного и тщательного проектирования модели и архитектуры могут развиваться непредсказуемым образом. И именно поэтому нам как человеческому сообществу необходимо сотрудничать и выяснять потенциальные пути и различные угрозы и по возможности готовиться. Для договора по искусственному интеллекту нам нужен глобальный консенсус и глобальное содействие, начиная с крупнейших держав в области искусственного интеллекта, ведущих исследователей искусственного интеллекта и компаний, чтобы показать и привести мир к лучшему будущему, делясь тем, как разрабатывать и внедрять системы ИИ, ставящие безопасность во главу угла, не оставляя никого позади».

Сообщение О необходимости заключения международного договора о безопасности ИИ заявили ведущие эксперты появились сначала на Shark News.

Ссылка на первоисточник

Картина дня

наверх