USD
39.53 UAH ▼0.34%
EUR
42.31 UAH ▼0.5%
GBP
49.47 UAH ▼0.32%
PLN
9.78 UAH ▼0.84%
CZK
1.68 UAH ▼0.39%

Ilon Musk erklärte einen WI -Krieg: Er beneidet oder spielt Konkurrenten?

"Diese Person verkaufte Flammen und spricht nun über Sicherheit", lachen sie über eine Kritikmaske. Der skandalöse IT Magnat erfordert sogar ein staatliches Verbot der Entwicklung von Neurotranen. Ilon Musk und eine Gruppe von Experten, die heute einen offenen Brief an die gesamte IT -Community unterstützten, unterschrieben und veröffentlicht haben, mit einem Aufruf, die Entwicklung von KI vorübergehend zu stoppen.

In ihrer Botschaft bitten sie mindestens ein halbes Jahr lang um künstliche Intelligenzentwickler, um die Entwicklung und Ausbildung von Neurotromen zu stoppen, was ihre Fähigkeiten heute von ChatGPT-4 überschreiten kann, da sie die Menschheit mit fast Apokalypse bedrohen. Der Fokus versuchte sich mit dem zu befassen, was passiert war.

Die Unterzeichner, die bereits Lärm gemacht haben, ist überzeugt, dass es nun notwendig ist, in der Entwicklung von KI eine Pause zu erhalten, um konzeptionelle Regeln und Beschränkungen ihrer Arbeit zu entwickeln. Die Initiativgruppe hat Angst, dass moderne KI -Systeme bei einfachen Aufgaben wettbewerbsfähiger werden. Da dieses Argument jedoch nicht zu effektiv ist, betonen Experten ihre Aufmerksamkeit insbesondere auf die schmerzhaften Fragen von Fälschungen und Propaganda.

"Wir müssen uns fragen: Können wir Maschinen erlauben, unsere Informationskanäle durch Propaganda und falsch verstopfen zu lassen?" - Die Autoren des Buchstabens. Darüber hinaus sind die Unterzeichner der Ansicht, dass die KI mit der Entwicklung von Neurotroups schlauer als eine Person wird, was das Risiko eines Kontrollverlusts über die Zivilisation und den Übergang der Macht über Menschen zur KI verursacht.

Experten sind bereit für extreme Ereignisse, wenn der Brief den Adressaten nicht gibt. "Wenn die Unternehmen, die KI entwickeln, nicht einverstanden sind, ihre Entwicklungen mindestens ein halbes Jahr lang auszusetzen, sollte die Regierung eingreifen und alle dieser Forschungsergebnisse verbieten", sagte in dem von Ilon Musk unterzeichneten Dokument.

Die Expertengruppe möchte "spezielle Sicherheitsprotokolle für KI erstellen, und in dieser Zeit müssen die Regierungen der Länder innerhalb eines halben Jahres über besondere Regulierungsstellen und Gesetze verfügen. Musk und sein Team lehnen sofort alle Anschuldigungen ab, dass sie stagnieren werden, und betonen, dass sie nur die Entwicklung von KI in eine Pause setzen wollen.

Übrigens gibt es unter den Unterzeichnern eine Person, die trotz aller Zweifel und Vorbehalte die IT-Industrie einst die Vorwärts-Steve Wozniak, einen der Gründer von Apple, bewegt hat. Interessanterweise wurde der Brief mit Unterstützung der Nicht -Profit -Organisation Future of Life Institute erstellt, die mit der Förderung der verantwortungsvollen und ethischen Entwicklung der KI befasst ist.

Das Institut hat zuvor erreicht, dass die folgenden Figuren wie Musk und Labo Google Deepmind nie versprochen wurden, tödliche autonome Waffensysteme zu entwickeln. Übrigens wurde Ilon selbst zu einem ehrenvollen "freiberuflichen Berater" dieses Instituts, zusammen mit den Stars of Science wie Sol Perlmutter, dem Nobelpreis für Physik im Jahr 2011 und Morgan Fryman, Schauspieler und Regisseur.

Natürlich hat dieser offene Brief einen echten Sturm von Emotionen auf Twitter verursacht und die Kommentatoren schämen sich nicht in Aussagen. Einige von ihnen glauben, dass eine Person, die Flammenwerfer eintauschte, nicht über Sicherheit sprechen sollte. Andere Kommentatoren vermuteten, dass Ilon Musk einfach in das KI -Rennen passen möchte, und da es keine Zeit für Führungskräfte hat, diesen Brief und die Regierung auffordern, einfach Sabotage -Konkurrenten einzugreifen.

Jemand vermutete sogar eine Maske, dass er China oder Google spielt. Schließlich gehören die Unterzeichner DeepMind, das zum Suchgiganten gehört, und es ist bekannt, dass er schnell Positionen gegen die erfolgreiche Integration von Chatgpt-4 in alle Produkte und wachsenden Benutzer verliert.

Jemand erinnerte sich an die Maske und seine schwierige Beziehung zu Open AI (Chatgpt Developers), mit denen Ilon zusammenarbeitete, aber scheiden ließ und die versprochenen Milliarden griff, die in das Unternehmen investieren würden. Kritiker Vorwürfe Masken für banalen Neid an seine ehemaligen Kollegen, die trotz irgendetwas zu Erfolg geführt haben und Gesetzgeber im Segment für künstliche Intelligenz geworden sind.

Sie erinnerten sich an die Maske und seine Fähigkeit, die KI zu bewältigen, da das neuronale Netzwerk für die Entwicklung von Autopiloten in Tesla eingesetzt wurde und die Autos immer noch den Unfall hatten. Viele haben festgestellt, dass die Unterzeichner KI-Unternehmen wie Stabilität AI (Drawing Generation) umfassen, die ernsthaft mit Dall-E-A generatives neuronales Netzwerk von OpenAI konkurrieren.

Dank der enormen Investition in Open AI ist Dall-E übrigens kostenlos für alle Benutzer des Unternehmens kostenlos zur Verfügung. Die am meisten zerrissenen können nicht an die Logik eines solchen Vorschlags glauben.

Sie verstehen wirklich nicht, wie ein halbes Jahr es möglich ist, eine so große Menge an Arbeiten auszuführen: die Entwicklung von Regulierungsregeln, Regierungsgesetze zur Kontrolle der KI, um eine Gruppe von "unabhängigen Experten für die Kontrolle" zu sammeln ("Unabhängigkeit", welche welche wird nicht zweifelhaft sein, und die Kandidaten selbst werden alles mögen).

Und es gibt auch eine wichtige Frage: Wer kontrolliert das Moratorium über das vorübergehende Verbot der Entwicklung von AI China und Russland? Und wenn der Russischen Föderation mehr Sanktionen auferlegt werden können, ist China sehr aktiv an der Verhandlung von Neurotromen beteiligt, und es ist nicht so einfach, aus dem Sattel herauszukommen.

Und vor allem, wo ist die Garantie, dass andere Länder dieser "Pause" folgen? Und wer wird die Pause verletzen, um die gleichen IT -Giganten fortzusetzen, wie sie sagen, weiter an der SI zu arbeiten, damit sie nicht mit den Konkurrenten Schritt halten? Das Hauptargument zugunsten von "Danger AF for Humans" -Kommentatoren breitete sich auch in Flusen und Schießpulver aus und zitierte spezifische Daten von Umfragen von maschinellen Lernforschern, die durch KI -Auswirkungen durchgeführt werden.

Nach diesen Daten werden nur 24% der Experten als "sehr gute" Fähigkeiten moderner Neurotrome geschätzt, und der Rest der Bewertungen liegt auf "guter" Ebene (26% der Befragten), "neutral" (18% der Spezialisten ) und "sehr schlecht" (14% Experten). Einige Leute in den Kommentaren weisen darauf hin, dass moderne Chatbots auf der Grundlage der KI weit davon entfernt sind, ihnen eine scheinbar einfache Frage zu beantworten.

Im Allgemeinen wird der Vorschlag der Maske und einer Gruppe seiner Anhänger, zu denen auch Steve Wozniak gehört, Kommentatoren als hysterisch und beibehalten. Einer der Kritiker machte eine lebendige Analogie zwischen den "Panikern" der Begriffe und der Meinung eines Beamten, den er während der Covid-19-Pandemie zum Ausdruck brachte: "Diese Quarantäne beträgt nur 2 Wochen. Wir müssen nur die Welle niederschlagen.

<p> Der Arzt hilft während des Beschusses. Stugna Bataillon </p>...
vor mehr als einem Monat
Der ukrainische Arzt hilft dem Militär beim Beschuss
By Simon Wilson