In einer wichtigen Entwicklung zur Förderung von Innovationen im Bereich der künstlichen Intelligenz (KI) hat die Regierung ihre Empfehlungen zur Markteinführung von GenAI sowie KI-basierten Tools und Funktionen überarbeitet. Dieser Schritt, der von Branchenvertretern begrüßt wird, ist eine Erleichterung, da Unternehmen nun keine ausdrückliche Zustimmung der Regierung mehr benötigen, bevor sie ihre Produkte auf den Markt bringen können.
Die Branche begrüßt die Überarbeitungen
Die am 15. März veröffentlichte geänderte Empfehlung hat insbesondere die Vorgabe einer strikten 15-Tage-Frist für Unternehmen zur Einhaltung der Vorgaben aufgehoben. Diese Änderung wurde von Branchenexperten begrüßt, die Bedenken hinsichtlich einer möglichen Innovationshemmnis durch die ursprünglichen Regelungen geäußert hatten.
Rohit Kumar, Gründungspartner des Beratungsunternehmens The Quantum Hub für öffentliche Politik, lobte die Reaktion der Regierung auf das Feedback der Industrie. Er betonte, dass die frühere Empfehlung die Markteinführungszeit erheblich hätte verlangsamen und das Innovationsökosystem hätte hemmen können. Kumar wies zudem darauf hin, dass der Wegfall der Pflicht zur Einreichung eines Maßnahmenberichts darauf hindeute, dass die Empfehlung nicht nur als Vorschlag, sondern als verbindliche Anweisung zu verstehen sei.
Wichtigste Überarbeitungen und Kontinuität der Anforderungen
Gemäß der überarbeiteten Empfehlung müssen Plattformen und Vermittler mit KI- und GenAI-Funktionen, wie beispielsweise Google und OpenAI , weiterhin die Genehmigung der Regierung einholen, bevor sie Dienste zur Erstellung von Deepfakes anbieten dürfen. Darüber hinaus müssen sie sich weiterhin als „in der Testphase“ kennzeichnen und die ausdrückliche Zustimmung der Nutzer einholen sowie diese über mögliche, der Technologie inhärente Fehler informieren.
Die Richtlinie erstreckt sich auf alle Plattformen und Vermittler, die große Sprachmodelle (LLMs) und Basismodelle verwenden. Darüber hinaus sind die Dienste verpflichtet, keine Inhalte zu erstellen, die die Integrität des Wahlprozesses gefährden oder gegen indisches Recht verstoßen. Dies unterstreicht die Besorgnis über Fehlinformationen und Deepfakes, die Wahlergebnisse beeinflussen könnten.
Schwerpunkt auf Verfahrenssicherungen
Obwohl die überarbeiteten Empfehlungen als positiver Schritt anerkannt werden, betonen einige Führungskräfte die Bedeutung von Verfahrenssicherungen bei der Politikgestaltung. Sie plädieren für einen konsultativen Ansatz, um überstürzte Reaktionen aufdentzu vermeiden und die Ausarbeitung wohlüberlegter Regelungen zu gewährleisten.
Führungskräfte, die anonym bleiben wollten, betonten die Notwendigkeit, dass Vermittler in risikoreichen Zeiten wie Wahlen besondere Vorsicht walten lassen. Sie unterstützten die Initiative der Regierung, Vermittler zu erhöhter Wachsamkeit vor der Veröffentlichung ungetesteter Modelle und zur korrekten Kennzeichnung der Ergebnisse aufzurufen.
Die ursprüngliche Warnung erfolgte aufgrund verschiedener Kontroversen, unter anderem als Googles KI-Plattform Gemini wegen ihrer Antworten zu Premierminister Modi in die Kritik geriet. Auch Fälle von „Halluzinationen“ durch GenAI-Modelle, wie beispielsweise die Beta-GenAI-Plattform Krutrim von Ola, wurden beobachtet und führten zu regulatorischen Eingriffen.

