USD
41.79 UAH ▼0.02%
EUR
48.35 UAH ▼0.72%
GBP
55.57 UAH ▼1%
PLN
11.3 UAH ▼1.15%
CZK
1.97 UAH ▼0.63%
Um sich zu verbreiten: Hacker verwenden künstliche Intelligenz (KI), um den Clou...

Künstliche Intelligenz begann an Hacker -Angriffen teilzunehmen: Welche Katastrophe verursacht es

Um sich zu verbreiten: Hacker verwenden künstliche Intelligenz (KI), um den Cloud -Speicher zu brechen, und greifen auf Social Engineering basierend auf Dipfey zurück. Zwischen Juli 2024 und Juni 2025 stieg die Anzahl der Invasionen in den Cloud -Speicher nach dem jüngsten CrowdStrike -Cybersecurity -Bericht um 136% gegenüber dem gesamten 2024. Für das Brechen nutzen Angreifer zunehmend künstliche Intelligenz.

Nach Angaben des Unternehmens durfte die generative KI Taktiken ohne schädliche Software anwenden, die seitliche Bewegung automatisieren und sozialtechnisch skaliert. "Die Bösewichte arbeiten jetzt mit der Geschwindigkeit von Maschinen in verschiedenen Bereichen, was viele traditionelle Heilmittel veraltet macht. Dies ist eine Revolution in der Operation von Malefaktoren und erfordert einen neuen Ansatz für die Sicherheit", betonte Crowdstrike.

Der Bericht erwähnt separat die DPRK -bezogene Famus Collima, die in diesem Zeitraum mehr als 320 Unternehmen durchdrungen hat, wobei Dienste mit großen Sprachmodellen (LLM) verwendet wurden, um Lebensläufe, gefälschte Identifizierung und sogar Antworten auf reale Zeitinterviews zu erstellen.

Nach der Beschäftigung stützte sich das Selbstwertgefühl auf künstliche Kodierungsassistenten und Übersetzungswerkzeuge, um gleichzeitig mehrere entfernte Aufgaben für die Entwickler auszuführen, die gleichzeitig geistiges Eigentum stehlen.

Um solche Situationen zu vermeiden, empfiehlt Crowdstrike fortgeschrittene Personenprüfungsverfahren während der Einstellung, reale Time -Tests für Fälschungen während der Interviews, eine sorgfältige Überwachung der Fernzugriffsaktivität sowie die konstante Überprüfung der Identifizierungsdaten, Endpunkte und Cloud -Telemetrie.

"Die Ära der künstlichen Intelligenz hat die Arbeit der Angreifer verändert, und die meisten Schutzmechanismen wurden nicht für diese Realität geschaffen", betonten Experten. Erinnern Sie sich daran, dass der Einwohner Großbritanniens ein Modell für ein Start von KI für fast 2. 000 US -Dollar wurde und die Kontrolle über die Verwendung ihres Gesichts verlor. Focus berichtete auch, dass der CEO von OpenAI, Sam Altman, Angst vor einer neuen Version von Chatgpt hat.

<p> Der Arzt hilft während des Beschusses. Stugna Bataillon </p>...
vor mehr als einem Monat
Der ukrainische Arzt hilft dem Militär beim Beschuss
By Simon Wilson