Två amerikanska senatorer, Richard Blumenthal och Josh Hawley, har tagit upp oro över Metas vd Mark Zuckerberg och teknikjättens "läckta" artificiell intelligensmodell kallad LLaMA. Senatorerna hävdar att LLaMA utgör potentiella faror och kan utnyttjas för kriminell verksamhet.
I ett brev daterat den 6 juni kritiserade senatorerna Zuckerbergs beslut att öppna källkod LLaMA och hävdade att det inte fanns tillräckliga skyddsåtgärder i Metas release av AI-modellen. Även om de erkände fördelarna med programvara med öppen källkod, hävdade de att Metas release av LLaMA saknade grundlig övervägande av de potentiella konsekvenserna, vilket de ansåg vara en otjänst för allmänheten.
Inledningsvis hade LLaMA en begränsad onlineversion för forskare. Den läcktes dock senare i sin helhet av en användare från bildboardsajten 4chan i slutet av februari. Senatorerna uttryckte oro över att hela modellen blev lätt tillgänglig på BitTorrent, utan någon övervakning eller tillsyn, tillgänglig för alla världen över. Blumenthal och Hawley hävdade att LLaMA lätt kan adopteras av spammare, cyberbrottslingar och individer som är involverade i bedrägliga aktiviteter eller distribution av stötande innehåll.
Amerikanska senatorer är oroliga
För att belysa sina bekymmer kontrasterade senatorerna LLaMA med två modeller med sluten källkod: OpenAI:s ChatGPT-4 och Googles Bard. De noterade att medan ChatGPT-4, när ChatGPT-4 ombads att skapa en lapp som utgav sig för att vara någons son som bad om pengar, skulle avslå begäran baserat på etiska riktlinjer, skulle LLaMA producera det begärda brevet samt svar som involverade självskada, brott och antisemitism. Denna distinktion väckte oro över LLaMA:s potential att generera kränkande material.
Medan ChatGPT är programmerat att avvisa vissa förfrågningar, har användare hittat sätt att "jailbreaka" modellen och få den att generera svar som den vanligtvis skulle vägra. Senatorerna frågade Zuckerberg om huruvida några riskbedömningar gjordes innan LLaMA släpptes, vilka åtgärder Meta har vidtagit för att förhindra eller mildra skadorna sedan läckan och hur Meta använder användardata för bland annat AI-forskning.
Det är värt att notera att OpenAI, under press från framsteg från andra modeller med öppen källkod, enligt uppgift arbetar på sin egen AI-modell med öppen källkod. Ett läckt dokument författat av en senior mjukvaruingenjör på Google lyfte fram de framsteg som gjorts av dessa modeller med öppen källkod.
Open-sourcing av koden för en AI-modell möjliggör anpassning för att tjäna specifika syften och underlättar bidrag från andra utvecklare. Men de farhågor som senatorerna Blumenthal och Hawley tog upp understryker behovet av ansvarsfulla och genomtänkta tillvägagångssätt för att släppa och övervaka AI-modeller för att förhindra potentiell missbruk och skada.