Dario Amodei, CEO von Anthropic, erwähnte kürzlich, dass Unternehmen im Bereich der künstlichen Intelligenz verpflichtende Testverfahren durchlaufen sollten. Dies gelte auch für sein eigenes Unternehmen Anthropic. Ziel sei es, sicherzustellen, dass diese Technologien für die Allgemeinheit sicher seien, bevor sie auf den Markt gebracht würden.
Amodei beantwortete eine Frage auf einem kürzlich in San Francisco vom US-Handels- und Außenministerium veranstalteten Gipfeltreffen zur KI-Sicherheit. In seiner Antwort erklärte der CEO: „Ich denke, wir müssen die Tests unbedingt verpflichtend machen, aber wir müssen auch sehr sorgfältig darauf achten, wie wir das tun.“
Diese Anmerkungen folgen auf eine Veröffentlichung der britischen und US-amerikanischen AI Safety Institutes, die die Ergebnisse ihrer Tests des Claude 3.5 Sonnet-Modells von Anthropic enthalten. Die Tests wurden in verschiedenen Kategorien durchgeführt, darunter Anwendungen im Bereich Biologie und Cybersicherheit. Zuvor hatten sowohl OpenAI als auch Anthropic vereinbart, ihre Modelle Regierungsbehörden zur Verfügung zu stellen.
Große Unternehmen wie Anthropologie befolgen selbst auferlegte Sicherheitsrichtlinien
Amodei erwähnte, dass große Unternehmen freiwillig bestimmten selbst auferlegten Richtlinien zugestimmt haben. Dazu gehören der Bereitschaftsrahmen von OpenAI und die Richtlinie für verantwortungsvolles Skalieren von Anthropic. Er fügte jedoch hinzu, dass weitere Anstrengungen erforderlich seien, um die Sicherheit zu gewährleisten.
„Es gibt keine Möglichkeit, wirklich zu überprüfen oder sicherzustellen, dass die Unternehmen diese Pläne auch tatsächlich dem Sinn nach einhalten. Sie haben es lediglich angekündigt“, sagte Amodei. Er fügte hinzu: „Ich denke, die öffentliche Aufmerksamkeit und die Tatsache, dass die Mitarbeiter besorgt sind, haben zwar Druck erzeugt, aber ich glaube letztendlich nicht, dass es ausreichen wird.“
Amodei ist überzeugt, dass leistungsstarke KI-Systeme das Potenzial haben, die intelligentesten Menschen zu übertreffen. Er geht davon aus, dass solche Systeme bis 2026 verfügbar sein werden. Er fügt hinzu, dass KI-Unternehmen derzeit noch bestimmte Katastrophenszenarien und biologische Bedrohungen simulieren, die aktuell noch nicht real sind. Diese hypothetischen Tests könnten jedoch schon bald Realität werden.
Er mahnte außerdem, dass die Anforderungen an die Prüfung von KI-Systemen flexibel sein müssten, da sich die Technologie ständig weiterentwickle. Seinen Worten zufolge handele es sich um ein sehr schwieriges „gesellschaftspolitisches Problem“.

