Googles Auslöser, der so beängstigend wie Atomwaffen anerkannt wird: Was ist es gefährlich
Didzhital" auf Facebook Laut Eric Schmidt müssen in naher Zukunft aufgrund von Problemen mit China und der US -Sicherheit eine Vereinbarung über die Zurückhaltung im Bereich künstlicher Intelligenz abschließen, genau wie zuvor verboten den Test von nuklearen Bomben und unterzeichnete andere wichtige Verträge in diesem Bereich. In den 1960er Jahren schuf die Länder eine Welt, die es unmöglich machte, "zu überraschen" und erreichte das Vertrauensgewicht.
Jetzt arbeitet niemand an solchen Einschränkungen für künstliche Intelligenz, obwohl es "genauso mächtig" ist. "Ich bin sehr besorgt darüber, dass die US -Einstellung zu China als korrupter, kommunistisch oder ein anderes Land und die chinesische Haltung zu Amerika als Versagen erlauben, den Menschen zu sagen:" Mein Gott, sie denken etwas "und starten dann etwas wie ein Rätsel.
Wenn Sie anfangen, etwas für Waffen oder Vorbereitung zu tun, machen Sie die andere Partei besorgt ", sagte Eric Schmidt. Laut Schmidt war er sich der Informationsleistung nicht genau bewusst, als Google ging. Jetzt sieht er den potenziellen Schaden der Technologie und fordert sie auf, sie unter Berücksichtigung der ethischen Normen und moralischen Werte der Menschheit zu schaffen.
Hiroshima und Nagasaki sind zwei japanische Städte, die die Vereinigten Staaten am Ende des Zweiten Weltkriegs zerstört haben, indem sie Atombomben fallen lassen. Dieser Angriff forderte das Leben von Zehntausenden von Menschen und zeigte, wie stark und beängstigend Atomwaffen sind. Danach beherrschten die UdSSR und China auch die Technologie, und die Menschheit lebt unter der Bedrohung durch garantierte gegenseitige Zerstörung.
Die Zurückhaltungstheorie impliziert, dass ein Land, wenn sie Atomsprengköpfe einleiten, gleich beantwortet werden und eine globale Katastrophe auftritt. Vice stellt fest, dass KI und maschinelles Lernen auffällige Technologien sind, die das Falsche oft verstehen. Maschinen sind größtenteils nicht so schlau, wie die Leute denken, sondern in der Lage sind, Meisterwerke der Kunst zu erstellen, Videospiele zu gewinnen oder mit Kunden telefonieren.
Einige Entwickler versuchen, künstliche Intelligenz zu zwingen, ein Auto in großen Städten ohne menschliche Beteiligung zu fahren, aber es gibt immer noch Fälle. Andere schlugen vor, dass Sie die Kontrolle über Atomwaffen haben und glauben, dass dies keine Fehler machen und dazu beitragen würde, Katastrophen zu vermeiden. "KI ist weit davon entfernt, wie Atomwaffen so destruktiv zu sein.
Aber Menschen, die an der Macht sind, haben Angst vor dieser neuen Technologie und in der Regel aus völlig falschen Gründen", sagen Analysten. Sie erklären, dass das Hauptproblem der künstlichen Intelligenz nicht das Potenzial ist, das mit Atomwaffen verglichen werden kann, sondern die Nachteile der Entwickler. Maschinenalgorithmen sind genauso gut wie die Menschen, die sie schaffen.
Zum Beispiel vermitteln Rassisten, bewusst oder nicht, ihre Ansichten zu Chatbots, die dann rassistische Aussagen zulassen. Der CEO von DeepMind Depmind Hasabis, der KI erstellte und in der Lage ist, Menschen im Computer -II -Computerspiel zu gewinnen: "AI, ist eine sehr große Sache, die die SI schafft, die sie kultivieren und welche Werte in ihnen, die Schöpfer, die Schöpfer, die Schöpfer. Von den Systemen der KI.