Cybersecurity: Britisches Militär fürchtet KI, die Strategiespiele spielt
Das britische Militär fürchtet, dass KI, die mit Computerspielen wie Starcraft 2 trainiert wird, in wenigen Jahren in der Lage sein wird, selbstständig Cyberattacken durchzuführen. Ein Experte hält das für übertrieben.
Computerspiele seien schädlich, sagen Angehörige des britischen Militärs. Dabei haben sie aber nicht Phänomene wie Spielsucht oder Verrohung durch brutale Spielszenarien im Sinn. Sie denken an Systeme mit Künstlicher Intelligenz (KI), die mit Hilfe von Computerspielen lernen, selbstständig zu agieren. Sie sehen darin ein Sicherheitsproblem.
KI-Systeme werden anhand von Spielen wie Starcraft 2 trainiert, damit sie lernen, ohne Hilfe komplexe Probleme zu lösen. Das hat etwa das von Google gekaufte britische Unternehmen Deepmind gemacht, dessen System Alpha Go vor zwei Jahren den besten menschlichen Go-Spieler besiegte.
Das britische Militär befürchtet, dass Terroristen oder sogenannte Schurkenstaaten sich solche Systeme beschaffen könnten. Diese müssten nur leicht angepasst werden, um damit beispielsweise Versorgungssysteme zu sabotieren oder in geschützte Rechner einzudringen und sich dort geheime Daten zu verschaffen, heißt es in einer aktuellen Studie, die das britische Verteidigungsministerium herausgegeben hat.
Durch KI würden Cyberangriffe vielfältiger und schneller. Außerdem würden sie günstiger und einfacher durchzuführen sein, so dass mehr Täter dazu in der Lage seien, heißt es in der Studie. Da es keiner Fachleute bedürfe, um solche Angriffe durchzuführen, sei die einzige Einschränkung die Möglichkeit, sich solche System zu beschaffen. Wer also das Geld habe, um ein solches System zu kaufen, oder es stehlen könne, könnte schwere Cyberangriffe durchführen, befürchten die Autoren. Sie gehen davon aus, dass ein solches Szenario in zwei bis drei Jahren real werden kann.
Andere Experten halten das für überzogen. Bis KI-Systeme über die Fähigkeit verfügten, selbstständig ausgefeilte Cyberangriffe durchzuführen, werde es noch eine Weile dauern, sagte Steven Murdoch, IT-Sicherheitsforscher am University College London, der BBC. KI-Systeme wie das von Starcraft, das gegen Menschen antritt, seien noch nicht sehr kreativ und nutzten nur ein einfaches Regelwerk.
"Mit dem Fortschritt der Technik wird es mehr Automatisierung geben, vor allem für die Verteilung bösartiger Software, aber für die Vorbereitung von Angriffen und die Entwicklung von Taktiken wird auf absehbare Zeit immer noch menschliches Fachwissen nötig sein", sagte Morris.
Das sind aber sehr gläubige Menschen. Ungläubige mit der ferngesteuerten Drohne...
"KI progtrammiert 100% Simultanübersetzer" "KI entwickelt kommerzfreies Internet und...
Ich weiß nicht, inwiefern ein direkter Zusammenhang zw. einer spezialisierten AI, die...