„Intelligenzexplosion“: OpenAI legt Sicherheitskonzept vor

Der ChatGPT-Hersteller OpenAI hat ein Sicherheitskonzept für seine fortschrittlichsten KI-Modelle vorgelegt. Im Fokus steht eine Bewertung des Risikos, das von einer künstlichen Intelligenz (KI) in vier Kategorien ausgeht, wie aus dem gestern veröffentlichten Dokument hervorgeht: Cybersicherheit; atomare, chemische, biologische oder radiologische Bedrohung; Überzeugungskraft und die Autonomie des Modells.

Jeder Kategorie einer KI wird nach gewissen Kriterien eine von vier Risikostufen von „niedrig“ bis „kritisch“ zugeordnet. Als Beispiel eines kritischen Grades von Autonomie wird ein KI-Modell genannt, das allein KI-Forschung betreiben und damit „einen unkontrollierbaren Prozess der Selbstverbesserung“ auslösen könne – eine „Intelligenzexplosion“.

Die Einstufung soll dem Microsoft-Partner zufolge vor und nach der Umsetzung von Sicherheitsmaßnahmen erfolgen. Die Einstufung des Gesamtmodells entspricht dem höchsten Einzelwert in einer der Kategorien.

OpenAI zufolge sollen nur solche KI-Modelle eingesetzt werden dürfen, deren Risiko nach dem Einbau der Sicherheitsmaßnahmen höchstens die zweithöchste Stufe „mittel“ erreicht. Zudem dürften nur solche Modelle weiterentwickelt werden, bei denen kein als „kritisch“ eingestuftes Risiko festgestellt worden ist.

Teil des Sicherheitskonzepts sind verschiedene Gruppen zur Überwachung und Beratung. Das Board soll dabei Entscheidungen der Konzernführung kippen dürfen.