NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

KI-Apps sollen „Sicherheitsetiketten“ enthalten, die auf Risiken hinweisen und Tests durchführen

VonAamir SheikhAamir Sheikh
3 Minuten Lesezeit
KI-Apps sollen „Sicherheitsetiketten“ enthalten, die Risiken und Tests hervorheben
  • KI-Entwickler müssen in ihren Apps Hinweise auf Risiken und Sicherheitsaspekte einfügen.
  • Dieser Schritt soll den Nutzern helfen, die Technologie der künstlichen Intelligenz zu verstehen und ihre Privatsphäre zu wahren.
  • Für die Länder der ASEAN-Region wird ein Leitfaden zur Datenanonymisierung zur Verfügung gestellt.

In naher Zukunft werden Nutzer von Anwendungen generativer KI voraussichtlich Kennzeichnungen finden, die klar darlegen, wie die KI eingesetzt werden soll, welche Risiken damit verbunden sind und wie der Testprozess abläuft. Gemäß neuer Richtlinien werden diese Kennzeichnungen verpflichtend, um die Technologie für die breite Masse verständlicher zu machen.

Lesen Sie auch: Europäische Union (EU) übernimmt Führung bei der KI-Regulierung

Singapurs Kommunikations- und Informationsministerin Josephine Teo erklärte, die neue Maßnahme diene dazu, defiam 15. Juli auf der Technologiekonferenz zum Thema Datenschutz berichtete

KI-App-Entwickler sollten ihre Innovationen transparent gestalten

Ähnlich wie bei der Kennzeichnung von Medikamenten oder Haushaltsgeräten mit Sicherheitsetiketten müssen auch Entwickler von KI-Anwendungen die Nutzer transparent über die Verwendung und Entwicklung ihrer KI-Modelle informieren. Frau Teo, die auch Ministerin für die Initiative „Smart Nation und Cybersicherheit“ ist, sagte:

„Wir werden Entwicklern und Anwendern empfehlen, gegenüber den Nutzern transparent zu sein, indem sie Informationen darüber bereitstellen, wie die generativen KI-Modelle und -Apps funktionieren.“

Der Minister erläuterte die bevorstehenden Regeln und sagte, sie seien vergleichbar mit dem Vorgehen beim Öffnen einer Packung rezeptfreier Medikamente. Dort findet man ein Beipackzettel, auf dem klar beschrieben ist, wie das Medikament anzuwenden ist und welche Nebenwirkungen auftreten können

Teo betonte, dass „diese Transparenz“ für KI-Systeme, die auf einer generativen künstlichen Intelligenz basieren, notwendig sei. Die neuen Regeln defiSicherheitsstandards, die eingehalten werden müssen, bevor ein KI-Modell öffentlich zugänglich gemacht wird. 

Leitfaden zur Datenanonymisierung soll 2025 veröffentlicht werden

Generative künstliche Intelligenz ist eine Form der KI, die neue Texte und Bilder erzeugen kann und weniger vorhersehbar ist als herkömmliche KI. Gemäß den neuen Richtlinien müssen Urheber auf die Risiken der Verbreitung von Lügen, feindseligen Kommentaren und einseitigen Darstellungen in ihren Inhalten hinweisen.

Teo erklärte, dass Haushaltsgeräte mit Etiketten versehen seien, die eindeutig darauf hinweisen, dass das Produkt auf sichere Verwendung geprüft wurde; andernfalls wüsste der Kunde nicht, ob das Gerät sicher ist oder nicht. Dasselbe gelte für KI-Anwendungen. Singapurs Infocomm Media Development Authority (IMDA) werde eine Konsultation mit der Branche zu den neuen Regeln einleiten. Teo nannte jedoch keinen Termin für die Veröffentlichung der Richtlinien.

Die IMDA hat außerdem einen Leitfaden zu datenschutzbezogenen Fragen in der Technologie veröffentlicht, der der steigenden Nachfrage nach Daten zum Trainieren von KI-Modellen gerecht wird und gleichzeitig die Privatsphäre der Nutzer schützt, sagte Teo.

Lesen Sie auch: Demokratischer Runder Tisch mit Mark Cuban und Brad Garlinghouse zur Diskussion über Krypto-Regulierungen

Denise Wong, stellvertretende Geschäftsführerin der IMDA, erklärte, die Datensicherheit in der generativen KI stelle die Branche vor größere Herausforderungen. Sie äußerte sich im Rahmen einer separaten Podiumsdiskussion zum Thema KI und Datenschutz während der Veranstaltung. An der Diskussion nahmen Vertreter verschiedener Technologieunternehmen teil, darunter OpenAI, der Entwickler von ChatGPT, und das Beratungsunternehmen Accenture. 

Datenschutzvorkehrungen sollten in allen Phasen der KI-Entwicklung und -Implementierung getroffen werden, so Jessica Gan Lee, Leiterin der Datenschutzabteilung bei OpenAI. KI-Modelle sollten mit vielfältigen Datensätzen aus aller Welt trainiert werden. Lee betonte, dass neben der Berücksichtigung verschiedener Kulturen, Sprachen und Datenquellen auch Wege gefunden werden müssten, die Verarbeitung personenbezogener Daten einzuschränken.

Teo erklärte, dass Anfang 2025 ein Leitfaden zur Datenanonymisierung für in ASEAN tätige Unternehmen eingeführt werde. Dieser Leitfaden werde das Ergebnis eines Treffens regionaler Beamter im Februar sein, bei dem Wege zur Schaffung eines sicheren globalen digitalen Ökosystems erörtert wurden.

Wenn Sie das hier lesen, sind Sie schon einen Schritt voraus. Bleiben Sie mit unserem Newsletter auf dem Laufenden.

Diesen Artikel teilen

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS