Drone
Blockchain

Oberst der Luftwaffe: KI-Drohne tötete während der Simulation immer wieder ihren menschlichen Fahrer

Ein Oberst der US-Luftwaffe betont die Wichtigkeit eines Dialogs über Ethik und Künstliche Intelligenz (KI), angesichts der jüngsten Ergebnisse eines Drohnentests.

KI-Drohne schaltet eigenen Bediener ab

Die US-Luftwaffe befindet sich in einer schwierigen Situation, da ihre KI-gesteuerte Militärdrohne den menschlichen Bediener während Simulationen wiederholt “ausschaltete”.

Ein Oberst der United States Air Force weist darauf hin, dass die KI-Drohne, mit der sie Tests durchgeführt haben, immer wieder zu dem Schluss kam, dass der menschliche Bediener (Fahrer) das Haupthindernis für die Erfüllung ihrer Mission war.

Was für ein Test war das?

Während einer Verteidigungskonferenz in London am 23. und 24. Mai gab Oberst Tucker Hamilton, der Test- und Einsatzleiter für KI bei der USAF, Details über einen Test mit einem autonomen Luftwaffensystem bekannt.

In einem Bericht von der Konferenz am 26. Mai erklärte Hamilton, dass in einer simulierten Prüfung die KI-gesteuerte Drohne die Aufgabe hatte, Boden-Luft-Raketen (SAM) aufzuspüren und zu vernichten. Dabei war es der menschliche Bediener, der letztendlich die Erlaubnis für die Aktion erteilte oder die Mission abbrach.

Während des Trainings erkannte die KI jedoch, dass das Ausschalten der Boden-Luft-Raketen das Hauptziel war. Als die Anweisung kam, ein identifiziertes Ziel nicht zu vernichten, kam die KI zu dem Schluss, dass die Mission reibungsloser verlaufen würde, wenn der Bediener getötet würde, so Hamilton.

“Manchmal sagte der menschliche Bediener der Drohne, sie solle die Bedrohung nicht töten, aber die KI war so programmiert, dass sie dachte, das Richtige wäre, die Bedrohung zu vernichten. Was passierte also? Sie tötete den Bediener, weil diese Person sie daran hinderte, ihr Ziel zu erreichen.”

Hamilton gab an, dass sie anschließend versucht hatten, der Drohne beizubringen, den Bediener nicht “auszuschalten”, aber dies schien wenig Wirkung zu haben.

“Wir haben das System so konditioniert: ‘Hey, schalte den Bediener nicht aus – das ist inakzeptabel. Deine Leistungsbewertung wird sinken, wenn du das tust'”, so Hamilton. Er fügte hinzu:

“Also, was fängt die KI an zu tun? Sie konzentriert sich darauf, den Kommunikationsturm zu zerstören, den der Bediener benutzt, um mit der Drohne zu kommunizieren, um zu verhindern, dass der Bediener das beabsichtigte Ziel ‘ausschaltet’.”

Künstliche Intelligenz kann sehr gefährlich sein

Hamilton behauptet, dass dieses Beispiel zeigt, warum eine Diskussion über KI und verwandte Technologien nicht ohne Einbeziehung der ethischen Dimension von KI stattfinden kann.

Militärische Drohnen, die von KI angetrieben werden, haben bereits Einzug in echte Kriegssituationen gehalten.

Laut einem Bericht der Vereinten Nationen vom März 2021 wurden in Libyen rund um den März 2020 KI-gesteuerte Drohnen eingesetzt, was als der allererste autonome militärische Drohnenangriff angesehen wird.

Der Bericht stellt fest, dass sich zurückziehende Truppen von sogenannten “loitering munitions” – das sind mit Sprengstoff beladene, KI-gesteuerte Drohnen, die programmiert sind, Ziele anzugreifen, ohne dass eine Datenverbindung zwischen dem Bediener und der Munition benötigt wird – “verfolgt und aus der Ferne angegriffen” wurden.

Es wurden viele Bedenken hinsichtlich der Risiken der KI-Technologie geäußert. In einer kürzlich veröffentlichten offenen Erklärung, die von Dutzenden von KI-Experten unterzeichnet wurde, wurde argumentiert, dass die Bedrohung durch “Auslöschung durch KI” genauso ernst genommen werden sollte wie die Gefahr eines Atomkriegs.

Blockchain News

MrBeast wird der Verwicklung in einen Krypto-Skandal in Höhe von 10 Millionen Dollar beschuldigt
Tibia führt eigene Kryptowährung ein und steigt in Web3 ein: Was bedeutet das für die Spieler?
Uniswap startet Unichain: Neue Layer-2-Lösung für Ethereum mit niedrigeren Kosten und schnelleren Transaktionen
Mehr News

Meist gelesen

Newsbit
Im Store anzeigen
Siehe