Американское правительство всерьез озаботилось вопросами безопасности при разработке искусственного интеллекта. Оно обязало компании, которые ведут исследования в этих областях, разработать меры предосторожности на случай появления какого-нибудь “Скайнета”. Или хотя бы помечать созданный искусственным интеллектом контент вотермарками.

Anthropic, Google, Microsoft и Open AI, ведущие в отрасли организации, решили объединить усилия и создали исследовательскую группу (форум) Frontier Model Forum, которая будет заниматься безопасностью при разработке различных моделей ИИ. 

Пограничными моделями считаются любые “крупномасштабные модели машинного обучения”, которые выходят за рамки текущих возможностей и обладают широким спектром возможностей.

Форум планирует создать консультативный комитет, устав и финансирование. В нем изложены основные принципы, на которых он намерен сосредоточиться при дальнейшем исследовании безопасности ИИ, определении передового опыта, тесном сотрудничестве с политиками, учеными, гражданским обществом и компаниями, а также на поощрении усилий по созданию ИИ, который «может помочь решить самые большие проблемы общества».

Крупнейшие игроки на рынке ИИ создали рабочую группу по вопросам безопасного развития