Personen scannen während einer KI-Konferenz in Schanghai (China) ihre Gesichter
APA/AFP/Hector Retamal
Künstliche Intelligenz

China zwischen Hype und Zensur

Der Hype um künstliche Intelligenz (KI) und das Streben danach, Antworten auf das von Microsoft finanzierte Programm ChatGPT zu finden, ist in China besonders ausgeprägt. Doch die Staatsführung bremst die Bemühungen: Vor ihrer Veröffentlichung soll KI-gestützte Software künftig eine „Sicherheitsüberprüfung“ durchlaufen und „sozialistische Grundsätze“ erfüllen müssen. Auch andere Länder arbeiten an Regulierungen.

Chinas Internetregulierungsbehörde will Unternehmen bei der Einführung von KI besondere Regeln auferlegen. Die Cyberspace Administration of China (CAC) erklärte am Dienstag, Entwicklung und Anwendung von KI würden zwar unterstützt und zuverlässige Software und Datenressourcen gefördert. Aber die KI-Inhalte müssten mit den sozialistischen Grundwerten des Landes übereinstimmen.

Anbieter werden für die Legitimität der Daten verantwortlich sein, die zum Trainieren von generativer KI, also etwa Chatbots und Bildergeneratoren, verwendet werden, und es sollten Maßnahmen ergriffen werden, um Diskriminierung bei der Entwicklung von Algorithmen und Trainingsdaten zu verhindern, hieß es.

Die Regulierungsbehörde sagte auch, dass die Anbieter von Diensten von den Nutzern verlangen müssen, ihre echte Identität und damit verbundene Informationen anzugeben. Die Anbieter müssen mit Geldstrafen, der Aussetzung ihrer Dienste und mit strafrechtlichen Ermittlungen rechnen, wenn sie die Vorschriften nicht einhalten. Die Vorschriften zielten auf die „gesunde Entwicklung und standardmäßige Anwendung der generativen künstlichen Intelligenz“ ab.

Rennen um technologische Führung

Eine Reihe chinesischer Technologiegiganten wie Baidu, SenseTime und Alibaba hat in den vergangenen Wochen neue KI-Modelle vorgestellt. Alibaba präsentierte am Dienstag seine KI-Software und kündigte an, diese in naher Zukunft in alle Apps des Konzerns zu integrieren. Die Technologie „wird große Veränderungen in der Art und Weise mit sich bringen, wie wir produzieren, arbeiten und unser Leben leben“, sagte Konzernchef Daniel Zhang.

Das KI-Sprachmodell mit dem Namen Tongyi Qianwen („Wahrheit aus tausend Fragen“) wird zunächst in DingTalk, Alibabas Messaging-App für den Arbeitsplatz, integriert und kann dazu verwendet werden, Besprechungsnotizen zusammenzufassen, E-Mails zu schreiben und Geschäftsideen zu entwerfen. Auch in Tmall Genie, dem Sprachassistenten von Alibaba, findet es künftig Verwendung.

Junge Menschen in einem Büro in Peking (China) vor Computerbildschirmen
APA/AFP/Greg Baker
China arbeitet unter Hochdruck an ChatGPT-Alternativen, die Zensur steht dabei aber im Weg

China strebt an, bis 2030 weltweit führend im Bereich der künstlichen Intelligenz zu werden. Vorreiter in China war der Konzern Baidu, der wie Google mit seiner Suchmaschine groß wurde und der nun vor allem auf künstliche Intelligenz, Cloud-Computing und autonomes Fahren setzt. Konzernchef Robin Li räumte aber ein, dass Bot Ernie noch nicht perfekt sei und die US-Software ChatGPT mit seiner neuen Version, ChatGPT-4, die Latte noch einmal angehoben habe.

Politische Fragen tabu

Die „Neue Zürcher Zeitung“ schrieb jüngst über die Erfahrungen („NZZ“) von Testnutzern und -nutzerinnen: „Manches kann Ernie besser als ChatGPT, vieles schlechter, auch wegen Chinas Zensur – das scheint der vorherrschende Konsens zu sein. (…) Ernie antwortet zuweilen schmallippig bis gar nicht, besonders auf politische Fragen.“

Das ist wenig verwunderlich: China ist führend bei der Regulierung neuer Technologien, von denen einige als potenzielle Bedrohung für die Stabilität oder die Macht der Kommunistischen Partei angesehen werden. Nach Jahren relativer Laxheit gehen die Behörden seit 2020 kompromisslos gegen die Praktiken digitaler Unternehmen vor, insbesondere bei Fragen im Zusammenhang mit persönlichen Daten. China überwacht sein Internet und seine Medien bereits streng, mit einer Armee von Zensoren, die Inhalte, die den Staat in ein schlechtes Licht rücken oder Unruhe stiften könnten, löschen. Auch die sozialen Netzwerke werden streng kontrolliert.

Im vergangenen Jahr verlangte die Staatsführung von den Internetriesen, ihre Algorithmen offenzulegen, die normalerweise ein gut gehütetes Geheimnis sind. Diesen Jänner verschärfte China zudem den Rahmen für „Deepfake“, digitale Bildmanipulationen, die immer realistischer werden und eine Herausforderung bei der Bekämpfung von Desinformation darstellen. Für Aufsehen sorgten jüngst etwa ein künstlich generiertes Foto des Papstes sowie eine Bilderserie von einer angeblichen Verhaftung des Ex-US-Präsidenten Donald Trump.

Mahnende Stimmen werden lauter

Nach anfänglicher Euphorie über die neue Technologie mehrten sich zuletzt in vielen Ländern kritische Stimmen, die auf ihre potenziell negativen Auswirkungen auf Sicherheit, Arbeitsplätze und Bildung hinweisen und eine Regulierung fordern – vereinzelt sind Regierungen schon tätig geworden. Italien hat im vergangenen Monat ChatGPT vorübergehend verboten. Frankreichs Datenschutzbehörde CNIL gab auf Anfrage der Nachrichtenagentur Reuters am Dienstag eine Prüfung bekannt. Die spanische Schwesterbehörde AEPD hat die EU-Behörden um entsprechende Schritte gebeten.

Auch die US-Regierung macht den nächsten Schritt zu möglichen Regulierungsmaßnahmen für Software auf Basis künstlicher Intelligenz. Die IT-Behörde NTIA startet eine öffentliche Konsultation zu potenziellen Maßnahmen. Die Ergebnisse sollen helfen, politische Empfehlungen auszuarbeiten, wie NTIA-Chef Alan Davidson dem „Wall Street Journal“ („WSJ“) sagte.

Die KI-Programme seien schon in ihrem frühen Entwicklungsstadium beeindruckend, betonte Davidson. „Wir wissen, dass wir einige Leitplanken setzen müssen, damit sie verantwortungsvoll genutzt werden.“ Im Gespräch ist unter anderem eine Zertifizierung für Software, bevor sie verfügbar gemacht wird.

Die US-Regierung befasst sich schon seit einiger Zeit mit einer möglichen Regulierung von Software mit künstlicher Intelligenz. So beriet US-Präsident Joe Biden Anfang des Monats mit Experten über Chancen und Risiken solcher Programme. Auf die Journalistenfrage, ob KI aus seiner Sicht gefährlich sei, sagte er danach, das wisse man noch nicht. „Sie könnte es sehr wohl sein.“

Selbst Musk & Co. besorgt

Selbst gewichtigen Vertretern der Tech-Branche wie Elon Musk wird der KI-Hype zunehmend suspekt. Darauf verweist zumindest ein Ende März veröffentlichter Brief, in dem eine KI-Entwicklungspause gefordert wird. In dem von der gemeinnützigen, unter anderen von Musk gegründeten Organisation „Future of Life“ veröffentlichten Schreiben ist von einem „außer Kontrolle geratenen Wettlauf“ und einer Entwicklung die Rede, die mittlerweile „niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder zuverlässig kontrollieren“ könne. Leistungsstarke KI-Systeme sollten aber „erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind“.

Allerdings sei das noch nicht der Fall. Die Entwickler der nächsten KI-Generation werden daher aufgefordert, ihre Arbeit mindestens sechs Monate einzustellen. „Diese Pause sollte öffentlich und überprüfbar sein und alle wichtigen Akteure einbeziehen. Wenn eine solche Pause nicht schnell umgesetzt werden kann, sollten die Regierungen eingreifen und ein Moratorium verhängen“, heißt es in dem Schreiben.