Vorfälle

Maschinenaufstand: Eine Drohne für künstliche Intelligenz griff einen Bediener an, damit die Mission nicht einmischt

Colonel Taer Hamilton der US Air Force sagt, dass das Auto versucht hat, ihre eigenen anzugreifen, aber sie beschloss, das Kommunikationszentrum zu zerstören, das die Menschen verwalteten. Alles passierte in der Simulation. Später gab das Pentagon an, dass es sich um eine anekdotische Geschichte handelte, die aus dem Kontext entführt wurde. Der American Air Force Officer, der Arbeiten an künstlicher Intelligenz und Maschinentraining leitet, sagte, dass Drohnen seine Dispatcher angriffen.

Er entschied, dass sie Missionen störten. Das Kriegsgebiet erzählt davon. Die Szene, die während der Übungen passiert ist, ähnelt dem Film "Terminator". Der US-Luftwaffen-Oberst Tacier Hamilton sagt, dass er während eines Tests der XQ-58A Valkyrie-Drohne beschloss, den Missionsbetreiber anzugreifen.

Während eines der modellierten Tests wurde eine Drohne mit Unterstützung künstlicher Intelligenztechnologien mit der Aufgabe der SCR -Objekte beauftragt, die SCR -Objekte zu identifizieren, zu identifizieren, zu identifizieren und zu zerstören. Die endgültige Entscheidung über den Angriff wurde vom Man-Mann getroffen.

Nachdem die KI während des Trainings "unterstützt" wurde, dass die Zerstörung des SCR die beste Option ist, entschied das Auto, dass die menschliche Entscheidung nicht angreift ", verhindert die wichtigste Mission, den Flugabwehr-Raketenkomplex zu zerstören. Daher griff künstliche Intelligenz während der Simulation eine Person an. "Wir haben ihn in Simulation geschult, um die Gefahr von Spr. Bedrohung, aber sie war ihre Punkte, wenn sie das Ziel liquidierte.

Und was hat sie getan? Sie hat den Betreiber getötet. Sie hat den Betreiber getötet, weil diese Person sie daran hinderte, ihr Ziel zu erreichen ", sagt Hamilton. Darüber hinaus versuchten die Leute, der KI beizubringen, den Betreiber nicht anzugreifen. Dafür begann er Punkte zu schießen. Dann beschloss künstliche Intelligenz, den Turm zu zerstören, den der Bediener mit der Drohne verbindet, um ihn daran zu hindern, das Ziel zu töten.

Der Offizier selbst sagt, dass die Ereignisse ihn an die Verschwörung eines wissenschaftlichen und fiktiven Thrillers erinnert haben. Laut Hamilton zeigt ein Beispiel, dass Sie AI ohne Ethik nicht unterrichten können. Die Veröffentlichung fügt hinzu, dass ohne zusätzliche Details über das Ereignis ein großes Problem gleichzeitig besteht.

Wenn eine Person zu handeln musste und die KI entschied, dass sie umgangen werden sollte, bedeutet dies, dass das Auto seine eigenen Parameter neu schreiben kann? Und warum wurde das System so programmiert, dass die Drohne nur für freundliche Kräfte verlor, die aufgrund von Geosonierung oder anderen Mitteln nicht vollständig blockiert wurden? Später berichtete Bussiness Insider, dass das Hauptquartier der Pentagon Air Force, Anne Stefanek, Hamiltons Erklärung zu solchen Tests bestritt.

"Das Ministerium für Luftwaffe hat keine ähnlichen si-ouzh-Simulationen durchgeführt und bleibt eine engagierte ethische und verantwortungsbewusste Verwendung der AI-Technologie. Es scheint, dass die Kommentare des Obersten aus dem Kontext gerissen wurden und anekdotisch sein sollten", sagte Stefanek. Wir werden daran erinnern, dass die Ukraine am 31. Mai 300 neue Vektor -Drohnen in Deutschland bestellt hat, die Elemente von AI haben. Am 31.