KI-Entwickler gründen Arbeitsgruppe für Sicherheitsfragen

Vier bei der Entwicklung von Abwendungen mit künstlicher Intelligenz (KI) führende US-Konzerne wollen möglichen Risiken der neuen Technologie mit einer gemeinsamen Arbeitsgruppe begegnen.

Das gaben die daran beteiligten Unternehmen Google, Microsoft, Anthropic und der ChatGPT-Entwickler OpenAI heute bekannt. Die Gruppe bekommt den Namen „Frontier Model Forum“.

Dort sollen Expertinnen und Experten der Firmen zusammenarbeiten. Es geht darum, Gefahren zu minimieren und branchenweite Standards zu entwickeln.

Erst in der vergangenen Woche hatte US-Präsident Joe Biden bei einem Treffen mit Vertretern großer Technologie- und Internetkonzerne auf Regeln für einen verantwortungsvollen und sicheren Einsatz von KI gedrängt. Diese berge ein „enormes Versprechen unglaublicher Möglichkeiten“, sagte er. Aber sie berge auch „Risiken für unsere Gesellschaft, unsere Wirtschaft und unsere nationale Sicherheit“.