Два сенатора США, Ричард Блюменталь и Джош Хоули, выразили обеспокоенность по поводу исполнительного директора Meta Марка Цукерберга и «просочившейся» модели искусственного интеллекта технологического гиганта под названием LLaMA. Сенаторы утверждают, что LLaMA представляет потенциальную опасность и может быть использована в преступных целях.
В письме от 6 июня сенаторы раскритиковали решение Цукерберга открыть исходный код LLaMA и заявили, что в выпуске Meta модели ИИ не было достаточных гарантий. Хотя они признали преимущества программного обеспечения с открытым исходным кодом, они утверждали, что в выпуске LLaMA Meta не были тщательно учтены возможные последствия, которые они сочли медвежьей услугой для общественности.
Первоначально у LLaMA была ограниченная онлайн-версия для исследователей. Однако позже в конце февраля он был полностью слит пользователем с сайта доски изображений 4chan. Сенаторы выразили тревогу по поводу того, что полная модель стала доступна через BitTorrent без какого-либо контроля или надзора и доступна для всех во всем мире. Блюменталь и Хоули утверждали, что LLaMA могут легко использовать спамеры, киберпреступники и лица, замешанные в мошеннической деятельности или распространении нежелательного контента.
Сенаторы США обеспокоены
Чтобы подчеркнуть свои опасения , сенаторы сравнили LLaMA с двумя моделями с закрытым исходным кодом: ChatGPT-4 от OpenAI и Bard от Google. Они отметили, что в то время как ChatGPT-4, когда его просили создать записку, изображающую из себя чьего-то сына, просящего денег, отклонял запрос на основе этических принципов, LLaMA выдавал запрошенное письмо, а также ответы, связанные с членовредительством, преступлением и антисемитизм. Это различие вызвало обеспокоенность по поводу способности LLaMA создавать оскорбительные материалы.
Хотя ChatGPT запрограммирован на отклонение определенных запросов, пользователи нашли способы взломать модель и заставить ее генерировать ответы, которые обычно отклоняются. Сенаторы спросили Цукерберга о том, проводились ли какие-либо оценки рисков до выпуска LLaMA, какие меры Meta для предотвращения или смягчения ущерба после утечки и как Meta использует пользовательские данные для исследований ИИ, среди прочего.
Стоит отметить, что OpenAI под давлением достижений других моделей с открытым исходным кодом, как сообщается, работает над собственной моделью искусственного интеллекта с открытым исходным кодом. В просочившемся документе, созданном старшим инженером-программистом Google, подчеркивается прогресс, достигнутый этими моделями с открытым исходным кодом.
Открытый исходный код модели ИИ позволяет настраивать ее для конкретных целей и облегчает участие других разработчиков. Тем не менее опасения, высказанные сенаторами Блюменталем и Хоули, подчеркивают необходимость ответственных и продуманных подходов к выпуску и мониторингу моделей ИИ для предотвращения потенциального неправильного использования и вреда.