Deepfakes von Sprache werden oft nicht erkannt

Mit künstlicher Intelligenz (KI) können Sprachaufnahmen so täuschend echt gefälscht werden, dass Menschen sie oft nicht von der echten Stimme einer Person unterscheiden können. Das zeigt eine neue Studie aus England. Auch Versuche, die Studienteilnehmerinnen und -teilnehmer darin zu schulen, diese Deepfakes zu erkennen, verbesserten die Ergebnisse kaum.

Mehr dazu in science.ORF.at