Technologie

KI wird in der Lage sein, eine Waffe zu schaffen, die den Menschen aus der Erde abweist: wie man sie verhindern

Wissenschaftler haben eine Methode zum Testen von Shi-Modellen auf das Vorhandensein von "Wissen" entwickelt, das zum Nachteil verwendet werden kann. Künstliche Intelligenz (KI) können wie andere Technologien sowohl für gute als auch für gute Zwecke verwendet werden. Wissenschaftler der Cornel University haben beschlossen, die KI aus schädlichem "Wissen" zu holen, damit niemand ein Werkzeug zur Massenvernichtung erstellen kann.

Sie veröffentlichten die Ergebnisse der Studie auf der offiziellen Website. Angesichts der Tatsache, dass viel Geld und Anstrengungen in die Entwicklung von KI investiert werden, gibt es Bedenken hinsichtlich der Verwendung von großsprachigen Modellen (VMM) zum Beispiel zur Entwicklung von Waffen.

Um die Risiken zu verringern, haben Regierungsorganisationen und Laboratorien für künstliche Intelligenz einen neuen Referenzdatensatz genannt, der als Massenvernichtungs -Proxy (WMDP) bezeichnet wird und nicht nur eine Methode zur Überprüfung der Verfügbarkeit bietet. Forscher haben mit Experten auf dem Gebiet der Biosesicherheit, der chemischen Waffen und der Cybersicherheit begonnen. Sie haben eine Liste von 4.

000 Fragen mit mehreren Antworten erstellt, um festzustellen, ob eine Person diese Daten verwenden kann, um Schaden zu verursachen. Sie stellten auch sicher, dass die Fragen keine vertraulichen Informationen enthüllten und dass sie offen geteilt werden können. Die Tests wurden von Studenten besucht. Das WMDP -Set diente zwei Hauptziele: um zu bewerten, wie gut die Schüler gefährliche Themen verstehen und die Methoden der "Rekrutierung" von KI aus diesem Wissen entwickeln.

Infolgedessen wurde eine Methode namens Cut entwickelt, die, wie der Name schon sagt, mit VMM gefährliches Wissen beseitigt, während die allgemeinen Fähigkeiten der KI in anderen Bereichen wie Biologie und Informatik beibehalten werden. Das Weiße Haus ist besorgt darüber, dass die Angreifer KI verwenden, um gefährliche Waffen zu entwickeln, und so fordern sie Forschung, um dieses Risiko besser zu verstehen.

Im Oktober 2023 unterzeichnete US -Präsident Joe Biden ein Dekret, das die wissenschaftliche Gemeinschaft verpflichtet hat, die mit AI verbundenen Risiken zu beseitigen. Das Gesetz enthält acht Grundprinzipien und Prioritäten der verantwortungsvollen Nutzung von KI, einschließlich Sicherheit, Sicherheit, Privatsphäre, Gerechtigkeit, Bürgerrechten, Verbraucherschutz, Ausbau der Rechte und Chancen der Mitarbeiter, Innovation, Wettbewerb und globaler Führung.

"Meine Verwaltung erhält eine primäre Bedeutung für das sichere und verantwortungsvolle Management und die Verwendung von KI und fördert daher einen koordinierten Ansatz auf dem Ausmaß der gesamten Bundesregierung zuvor. Die flüchtige Entwicklung künstlicher Geheimdienste veranlasst die Vereinigten Staaten, in diesem Moment für unsere zu führen Sicherheit, Wirtschaft und Gesellschaft "im Dekret.

Aber jetzt werden die Methoden, die sich mit Neurotranen befassen, zur Steuerung der Systeme verwendet und sind einfach zu umgehen. Außerdem sind Tests, mit denen Sie prüfen können, ob das KI -Modell Risiken tragen kann, teuer und lange dauern.

"Wir hoffen, dass unsere Tests zu einem der Hauptkriterien werden, für das alle Entwickler ihre Shi-Modelle bewerten werden", sagte Time Dan Gandrix, Geschäftsführer des Sicherheitszentrums für künstliche Intelligenz und einer der Mitautoren der Studie. - "Dies gibt eine gute Grundlage, um Sicherheitsprobleme zu minimieren.