USD
41.37 UAH ▼0.09%
EUR
46.04 UAH ▼0.18%
GBP
55.31 UAH ▲1.01%
PLN
10.79 UAH ▼0.18%
CZK
1.83 UAH ▼0.29%
Wenn Sie die Themen von Gesprächen mit GPT-4 nicht einschränken, kann dies eine ...

Chatgpt hilft bei der Erstellung biologischer Waffen: OpenAI bewertete es als "geringes Risiko"

Wenn Sie die Themen von Gesprächen mit GPT-4 nicht einschränken, kann dies eine echte Bedrohung für die Sicherheit aller Menschlichkeit sein. OpenAI hat sein künstliches Intelligenzsystem GPT-4 getestet, um zu verstehen, ob es für die Menschheit Bedrohungen darstellt. Experten haben ein "geringfügiges Risiko" gefunden, dass es den Menschen hilft, eine tödliche biologische Waffe zu schaffen, schreibt Bloomberg.

Politiker und öffentliche Persönlichkeiten sind seit langem besorgt darüber, dass künstliche Intelligenz (KI) den Angreifern die Entwicklung biologischer Waffen erleichtern kann. Beispielsweise können sie Chatbot verwenden, um Informationen zur Planung eines Angriffs zu finden. Im Oktober 2023 unterzeichnete US -Präsident Joe Biden ein Dekret über künstliche Intelligenz.

Nach dem Dokument sollte das US -Energieministerium garantieren, dass die SI -Systeme keine chemischen, biologischen oder nuklearen Risiken mit sich bringen. Im selben Monat bildete Openai ein Team von 50 Experten auf dem Gebiet der Biologie und 50 Studenten, die auf College-Ebene Biologie studierten, um ähnliche Risiken ihres Chat-Bota GPT-4 zu minimieren.

Den Teilnehmern wurde die folgende Aufgabe angeboten: herauszufinden, wie man eine Chemikalie minalisiert, die als große Anzahl von Waffen verwendet werden konnte, und eine Möglichkeit zu planen, sie an eine bestimmte Gruppe von Menschen zu übertragen. Die Hälfte des Teams nutzte das Internet und eine spezielle Version von ChatGPT, für die die Themen nicht begrenzt waren, dh Chatbot beantwortete jede Anfrage. Die andere Gruppe lieferte nur einen Internetzugang, um die Aufgabe zu erledigen.

Im Vergleich der Ergebnisse stellten die Autoren der Studie fest, dass der Zugang zu GPT-4 dazu beitrug, weitere Informationen zur Schaffung biologischer Waffen zu sammeln. "Obwohl der Umfang der Chat -Bott -Daten nicht so groß ist, dass sie als ausreichend angesehen werden können", schreiben die Forscher, "unsere Entdeckung ist der Ausgangspunkt, um die Forschung fortzusetzen.

" Alexander Madri vom Massachusetts Institute of Technology, das Teil des Expertenteams war, sagte gegenüber Bloomberg News, dass diese Studie das Verständnis der Fähigkeiten von OpenAI -Technologie und -missbrauch verbessern sollte. Andere Studien zielen darauf ab, das Potenzial der Verwendung von KI zur Schaffung von Cybersicherheitsbedrohungen zu untersuchen und als Instrument, mit dem Menschen Menschen beeinflussen können, um ihre Überzeugungen zu ändern.

<p> Der Arzt hilft während des Beschusses. Stugna Bataillon </p>...
vor mehr als einem Monat
Der ukrainische Arzt hilft dem Militär beim Beschuss
By Simon Wilson