USD
41.83 UAH ▲0.92%
EUR
48.2 UAH ▲1.05%
GBP
56.47 UAH ▲0.63%
PLN
11.3 UAH ▲1.28%
CZK
1.94 UAH ▲1.06%
Zu verbreiten: Als die Vereinigten Staaten in die neue Ära der Rivalität der Gro...

Menschlichkeit oder Effizienz: Auf welche großen Sprachmodelle sollten die US -Armee angewiesen werden

Zu verbreiten: Als die Vereinigten Staaten in die neue Ära der Rivalität der Großmächte eintreten, insbesondere mit technologisch ehrgeizigem China, wird die Frage, wie und wann sie den Systemen der KI vertrauen können, wie z. B. große sprachliche Modelle, nicht nur technisch, sondern strategisch. Diese Tools werden entscheidend sein, wie die Vereinigten Staaten Ressourcen verteilt und die Priorität von Verteidigungsinvestitionen festlegen.

Dies ist in dem Artikel des nationalen Interesses unter dem Namen "Während der Einschätzung der USA sollten sich die USA auf die Effizienz, nicht auf die Erklärung" verlassen ", die im Fokus übersetzt wurde. Die USA sollten lernen, wie man die Instrumente von KI bewertet, wie z. B. große Sprachmodelle, in ihrer Produktivität, nicht in der Fähigkeit, ihre Entscheidungen zu erklären.

Vertrauen sollte auf Ergebnissen beruhen, nicht auf den unrealistischen Erwartungen des anthropomorphen Denkens. Da die Vereinigten Staaten in die neue Ära der Rivalität der Großmächte eintreten, insbesondere mit technologisch ehrgeizigem China, wird die Frage, wie und wann sie den Systemen der KI vertrauen sollen, wie z. B. Großsprachenmodelle (VMM), nicht nur technisch. Es ist strategisch.

Diese Instrumente werden entscheidend sein, wie die Vereinigten Staaten Ressourcen verteilt, die Priorität von Verteidigungsinvestitionen festlegen und Positionen in der Indo-Pazifischen und darüber hinaus innehaben. Es hat keine Intelligenz. Dies sind Erkenner von Bildern, die auf riesigen Datenbereichen trainiert wurden, und sollen das nächste Wort nacheinander vorhergesagt.

Ähnlich wie bei einem Schachgras, der eine brillante, aber intuitive Bewegung macht, kann es oft nicht erklären, warum sie das oder ein anderes Ergebnis erzeugen. Das Verteidigungsministerium definierte jedoch durch Organisationen wie die Generaldirektion für digitale Technologien und KI die Klarheit von KI -Entscheidungen als Voraussetzung für die sofortige Verwendung. Diese gute Absicht kann zu den besten Folgen führen.

Die Erklärung in den Knospen kann technisch unerreichbar sein, und das Streben kann ein ablenkender Faktor sein. Diese Modelle "verstehen" im menschlichen Sinne nicht. Ihre Ergebnisse sind statistische Assoziationen, keine Ursache und Wirkung.

Post -Factum -Erklärungen, obwohl sie Vergnügen vorstellen, können jedoch die Einführung von Instrumenten in die Irre führen und schließlich verhindern, die die strategische Vorhersage verbessern und die Intelligenz und Betriebsplanung analysieren können. Die wirkliche Gefahr ist für den Nachteil der Effizienz übermäßig Beachtung.

Viele nationale Sicherheitsentscheidungen-die Auswahl der Ziele für die Beschaffungsplanung-umfassen und undurchsichtige, nachgewiesene Prozesse wie Varheiming oder Expertenbewertung. Es kann durch diese Ansätze zur Verarbeitung der Informationsmenge mit einer Geschwindigkeit ergänzt werden, die analytische Menschen nicht vergleichen können.

Anstatt zu versuchen, es "menschlicher" zu machen, müssen wir sie anhand der Kriterien bewerten, die erfüllen, wie sie tatsächlich funktionieren: Konsistenz, Genauigkeit und Klarheit für Einschränkungen. Es sollte gefragt werden: Neue Methoden wie automatische Tatsache haben in einigen Modellen die Halluzinationen erheblich reduziert - von 9 % auf 0,3 %.

Produktivitätsbasierte Systeme wie Trustllm versprechen, die Zuverlässigkeit des Modells umfassender zu bewerten als jemals zuvor durch Erklärungen. Um eine effektive und sichere Integration von Modellen von großer Sprache in militärische und defensive Kontexte zu gewährleisten, sollten Politiker eher durch operative Tests als durch Klarheit bevorzugt werden.

Anstatt sich auf künstliche Interpretation zu konzentrieren, sollten die Systeme an der Produktivitätsschwelle vor dem Einsatz bewertet werden. Dieser Ansatz basiert auf empirischer Zuverlässigkeit und garantiert, dass die KI -Tools konsistente Ergebnisse unter realen Bedingungen erzeugen. Politiker sollten das militärische Kommando in Natur und Beschränkungen behalten.

Das Vertrauen in diese Modelle sollte auf den gemessenen Ergebnissen basieren, nicht auf der Illusion von Verständnis oder anthropomorphen Eigenschaften. Als unangemessene Werkzeuge basiert es auf der Erkennung von Bildern und nicht auf dem Wissen und sollte nicht erwartet werden, dass sie das menschliche Denken oder Selbstbewusstsein simulieren. Schließlich ist es notwendig, Empfehlungen für die Einführung von KI unter Berücksichtigung spezifischer Nutzungsfälle zu erstellen.

Unterschiedliche Betriebsszenarien erfordern unterschiedliche Kontroll- und Zuverlässigkeitsebenen. Wenn beispielsweise die Verallgemeinerung von Intelligenzdaten verallgemeinert wird, kann die Priorität stark konsistent sein, während die Kampfflor ein einstweiliges System und eine konstante menschliche Kontrolle erfordert, um Risiken und Rechenschaftspflicht zu verringern.

Im Allgemeinen sollte das Vertrauen in die Knospen nicht auf ihrer Fähigkeit beruhen, menschlich zu klingen, sondern auf ihrer ständigen Fähigkeit, genaue, wiederkehrende und nachgewiesene Ergebnisse auszugeben. Es ist unrealistisch und kontraproduktiv, sie als digitale Orakel zu betrachten. Die Bewertung von KI -Systemen basierend auf Produktivität, nicht interpretierender oder anthropomorpher Attraktivität ist ein viel pragmatischerer und effektiverer Ansatz.

Michael "Sparky" Perry-Lieutenant Colonel der Luftwaffe und der führende MC-130-Pilot mit einem Master-Abschluss in Betriebswirtschaft und Militärangelegenheiten. National Defense Research Fellow an der SEM International Relations School am Georgia's Technology Institute.

<p> Der Arzt hilft während des Beschusses. Stugna Bataillon </p>...
vor mehr als einem Monat
Der ukrainische Arzt hilft dem Militär beim Beschuss
By Simon Wilson