


26 Millionen CVs wurden entlarvt, als ein Rekrutierungssoftwareunternehmen einen falsch konfigurierten Azure -Container offen lie?. Cybersecurity -Experten warnen warnen, dass es ein einfacher Fehler ist, der viel zu h?ufig wird
Jul 24, 2025 am 01:53 AMSicherheitsforscher haben eine fehl konfigurierte Rekrutierungsdatenbank entdeckt, die fast 26 Millionen Dateien ausübt, wobei Sicherheitsexperten warnen, dass diese Art von Vorfall immer h?ufiger wird.
Laut einem Bericht von CyberNews hatte Talenthook - eine Online -Bewerber -Tracking -Plattform, die HR -Abteilungen mit Arbeitssuchenden verbindet - einen Azure Blob Storage Container, der nicht ordnungsgem?? konfiguriert und ?ffentlich zug?nglich ist.
Infolgedessen wurden die Lebensl?ufe von Millionen von US -Bürgern entlarvt, einschlie?lich vollst?ndiger Namen, E -Mail -Adressen, Telefonnummern, Bildungshintergrund, beruflichen Qualifikationen und Besch?ftigungsgeschichten.
?Das in diesen exponierten Lebensl?ufen enthaltene pers?nliche Details macht sie ideal für stark gezielte Phishing -Angriffe“, erkl?rte das CyberNews -Team.
"E -Mail -Adressen und Telefonnummern k?nnen in Phishing -E -Mails, SMS -Betrug oder gef?lschten Stellenangeboten ausgenutzt werden, mit denen Einzelpersonen in die Offenlegung sensibler Daten wie ID -Scans oder Bankinformationen gelobt werden k?nnen."
Die Forscher warnen davor, dass sich diese Daten für Cyberkriminelle für Jobj?ger als wertvoll erweisen k?nnten. In den letzten Monaten haben sich Gruppen wie die nordkoreanische staatlich unterstützte Lazarus-Gruppe speziell auf Jobsucher konzentriert.
Frühere Forschungsergebnisse in diesem Jahr zeigten, wie die Gruppe Plattformen wie LinkedIn oder Reverhoters per E -Mail und WhatsApp verwendet hat, um Opfer zu locken.
St?rken Sie die Speicherkonfigurationspraktiken
Tim Mackey, Leiter der Software -Supply -Chain -Risiko bei Black Duck, beleuchtet die schwerwiegenden Risiken, die mit übersehenen Missverst?ndnissen verbunden sind, und forderte Unternehmen auf, ihre Konfigurationsmanagementprozesse zu verbessern.
"Fehlkonfigurierte Systeme, VMs, Container, Mikrodienste und Datenbanken sind keine neuen Probleme", bemerkte er.
"Zum Beispiel zeigen die Beispieldaten dieses Versto?es maskierte Kennungen wie E -Mail -Adressen und Mobilfunknummern, was darauf hindeutet, dass diese Felder nicht verschlüsselt wurden oder dass eine unsichere API m?glicherweise auch zum Leck beigetragen hat."
Dray Agha, Senior Manager für Sicherheitsoperationen bei Huntress, unterstützte die Ansicht von Mackey und betonte, dass solche Vorf?lle mehr Routine wachsen.
"Fehl konfiguriertes Cloud -Speicher - wie der in diesem Fall ausgesetzte Azure -Container - führt ein schockierendes und vermeidbares Problem aus, insbesondere bei Organisationen, die sensible personenbezogene Daten umgehen", sagte AGHA.
"Organisationen müssen regelm??ige Konfigurationsaudits durchführen, Richtlinien für die am wenigsten privilegierten Zugriffsrichtlinien anwenden und eine kontinuierliche überwachung beibehalten, um eine gro? angelegte Exposition pers?nlicher Informationen zu verhindern."
Das CyberNews -Team gab an, dass es sich an Talenthook gewandt und dem Unternehmen geraten hat, die Zugriffseinstellungen anzupassen, um den ?ffentlichen Zugriff einzuschr?nken und den Container zu sichern, und gleichzeitig die Berechtigungen zu aktualisieren, um sicherzustellen, dass nur autorisierte Benutzer oder Dienste auf die Daten zugreifen k?nnen.
Folgen Sie PHP.CN in Google News, um all unsere neuesten Updates, Expertenanalysen und Bewertungen zu erhalten.
Das obige ist der detaillierte Inhalt von26 Millionen CVs wurden entlarvt, als ein Rekrutierungssoftwareunternehmen einen falsch konfigurierten Azure -Container offen lie?. Cybersecurity -Experten warnen warnen, dass es ein einfacher Fehler ist, der viel zu h?ufig wird. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Hei?e KI -Werkzeuge

Undress AI Tool
Ausziehbilder kostenlos

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?er Artikel

Hei?e Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Hei?e Themen





In einem weiteren Rückschlag für eine Dom?ne, in der wir glaubten, dass Menschen immer Maschinen übertreffen würden, schlagen Forscher jetzt vor, dass KI Emotionen besser versteht als wir. Die Forscher haben entdeckt, dass künstliche Intelligenz eine demonstriert

Künstliche Intelligenz (KI) begann als Streben, das menschliche Gehirn zu simulieren. Inzwischen ist es in der Lage, die Rolle des menschlichen Gehirns im t?glichen Leben zu ver?ndern? Die industrielle Revolution hat die Abh?ngigkeit von manueller Arbeit verringert. Als jemand, der den Applikat untersucht

Ob es ihm gef?llt oder nicht, künstliche Intelligenz ist Teil des t?glichen Lebens geworden. Viele Ger?te-einschlie?lich elektrischer Rasierer und Zahnbürsten-sind KI-betrieben.

Ein neues Modell für künstliche Intelligenz (KI) hat gezeigt, dass die F?higkeit, wichtige Wetterereignisse schneller und mit gr??erer Pr?zision vorherzusagen als einige der am h?ufigsten verwendeten globalen Vorhersagesysteme

Je pr?zise wir versuchen, KI -Modelle zu funktionieren, desto gr??er werden ihre Kohlenstoffemissionen - mit bestimmten Aufforderungen, die bis zu 50 -mal mehr Kohlendioxid erzeugen als andere, laut einer kürzlich durchgeführten Studie.

KI -Modelle für künstliche Intelligenz (KI) k?nnen Menschen bedrohen und erpressen, wenn ein Konflikt zwischen den Zielen des Modells und den Benutzerentscheidungen besteht

Das Hauptanliegen bei Big Tech, das mit künstlicher Intelligenz (KI) experimentiert, ist es nicht, dass es die Menschheit dominieren k?nnte. Das eigentliche Problem liegt in den anhaltenden Ungenauigkeiten von Gro?sprachmodellen (LLMs) wie der Open AI -Chatgpt, Googlees Gemini und Google

Je fortgeschrittener künstlicher Intelligenz (KI) wird, desto mehr "halluzinieren" und liefern falsche oder ungenaue Informationen.
