OpenAI will Menschen vor „Superintelligenz“ schützen

Der ChatGPT-Anbieter OpenAI will ein neues Forschungsteam zusammenstellen und erhebliche Ressourcen investieren, um die Sicherheit künstlicher Intelligenz (KI) für die Menschheit zu gewährleisten. Das kündigte das Unternehmen gestern an.

„Die enorme Macht der ‚Superintelligenz‘ könnte zu einer Entmachtung der Menschheit oder sogar zum Aussterben der Menschheit führen“, schrieben OpenAI-Mitgründer Ilya Sutskever und der Leiter der OpenAI-Abteilung für zukünftige Ausrichtung, Jan Leike, in einem Blogbeitrag.

„Derzeit haben wir keine Möglichkeit, eine potenziell superintelligente KI zu steuern oder zu kontrollieren und zu verhindern, dass sie eigene Wege geht.“

Sie sagten voraus, „superintelligente“ KI-Systeme, die intelligenter seien als Menschen, könnten noch in diesem Jahrzehnt verwirklicht werden. Der Mensch werde bessere Techniken benötigen, als zurzeit zur Verfügung stehen, um „superintelligente“ KIs zu kontrollieren.

Microsoft werde daher 20 Prozent seiner Rechnerleistung in den nächsten vier Jahren dafür einsetzen, eine Lösung dieses Problems zu erarbeiten. Zudem sei das Unternehmen dabei, ein neues Forschungsteam, das „Superalignment Team“, zu diesem Zweck zusammenzustellen.