


Die Industrie begrü?t die neue Verwundbarkeitsforschungsinitiative des NCSC. Aber geht es weit genug?
Jul 21, 2025 am 01:00 AMDas National Cyber Security Center (NCSC) in Gro?britannien verbessert seinen Ansatz zur Schwachstellenforschung, indem sie mit externen Unternehmen zusammenarbeiten, anstatt nur von internen Analysten.
Diese neue Anstrengung, die als Schwachstellenforschungsinitiative (VRI) bezeichnet wird, erweitert die aktuellen externen Kooperationen und hat die allgemeine Genehmigung des Cybersicherheitssektors erhalten.
Der NCSC stellte fest , dass es bereits eng mit der britischen Regierung, der Technologieunternehmen und der breiteren ?ffentlichkeit zusammenarbeitet, um Sicherheitsm?ngel zu identifizieren, Leitlinien für die Online -Sicherheit anzubieten und Cyber -Vorf?lle zu beheben.
Die Schwachstellenforschungsinitiative (VRI) stellt jedoch ein kooperativeres Modell dar, das spezielles Cybersicherheitswissen von jenseits der Agentur einbringt.
"Das VRI zielt darauf ab, die F?higkeit des Vereinigten K?nigreichs bei der Durchführung von Forschungsarbeiten zu verbessern", erkl?rte der NCSC bei der Ankündigung der Initiative.
?Wir arbeiten mit externen Forschern der externen Schwachstellen zusammen, um eingehende Einblicke in die Sicherheit in einer Vielzahl von Technologien zu erhalten, die wir priorisieren. Die externe VRI-Community hilft uns auch, Tools und Methoden zur Identifizierung von Schwachstellen zu entwickeln“, fuhr die Erkl?rung fort.
In der Organisation wurde auch die Zusammensetzung des Kern -VRI -Teams beschrieben, zu dem technische Spezialisten, Beziehungskoordinatoren und Projektmanager geh?ren. Weitere Einzelheiten wie die Identit?t externer Partner sind jedoch immer noch unklar.
Kevin Robertson, CTO von Acumen Cyber, beschrieb das Projekt als ?theoretisch vielversprechend“, wies jedoch darauf hin, dass das NCSC zuvor Programme auf den Markt gebracht hat, die ?weitgehend ineffektiv und eigennützig“ waren, was darauf hindeutet, dass dies in ?hnlicher Weise keine wirklichen Auswirkungen haben k?nnte.
Trotzdem reagierten andere in der Branche günstiger auf die Ankündigung.
Kev Breen, Senior Director von Cyber Threat Research bei Immersive, lobte den Umzug als proaktives Ma? bei der Erkennung und Bew?ltigung von Sicherheitsrisiken.
"Es gibt eine Fülle von Fachwissen, insbesondere in Nischenforschungsbereichen", bemerkte er.
?Für den NCSC w?re es unrealistisch, alle erforderlichen F?higkeiten, Zeiten und Ressourcen beizubehalten, die erforderlich sind, um Fehler in jeder Dom?ne zu jagen.
"Das ?ffnen des VRI für die breitere Forschungsgemeinschaft durch Einladungen oder Anwendungen ist eine kluge M?glichkeit, um ihren Wissenspool zu erweitern."
Wird das NCSC -Programm ausreichen?
Breen bemerkte jedoch, dass das Fehlen finanzieller Anreize - wie diejenigen, die in Bug Bounty -Programmen zu sehen sind - viele Forscher davon abhalten, die Teilnahme zu beteiligen.
Zum Beispiel zahlt Google zwischen 100 und 31.337 US -Dollar für qualifizierte Fehler, wie von den Geeks für Geeks gemeldet .
Microsoft führt au?erdem mehrere Kopfgeldprogramme durch und bietet bis zu 300.000 US-Dollar für azurebezogene Schwachstellen oder bis zu 30.000 US-Dollar für Probleme, die in den Windows Insider-Vorschau-Builds gefunden wurden.
In Bezug auf die Hardware bietet Intel Belohnungen von 500 bis 100.000 US -Dollar pro gültigem Bericht, abh?ngig von der Schwere und Art der Verwundbarkeit.
Bleiben Sie mit PHP.CN über Google News aktualisiert, um die neuesten Nachrichten, Expertenanalysen und Bewertungen zu erhalten.
Das obige ist der detaillierte Inhalt vonDie Industrie begrü?t die neue Verwundbarkeitsforschungsinitiative des NCSC. Aber geht es weit genug?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Hei?e KI -Werkzeuge

Undress AI Tool
Ausziehbilder kostenlos

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?er Artikel

Hei?e Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Hei?e Themen





In einem weiteren Rückschlag für eine Dom?ne, in der wir glaubten, dass Menschen immer Maschinen übertreffen würden, schlagen Forscher jetzt vor, dass KI Emotionen besser versteht als wir. Die Forscher haben entdeckt, dass künstliche Intelligenz eine demonstriert

Künstliche Intelligenz (KI) begann als Streben, das menschliche Gehirn zu simulieren. Inzwischen ist es in der Lage, die Rolle des menschlichen Gehirns im t?glichen Leben zu ver?ndern? Die industrielle Revolution hat die Abh?ngigkeit von manueller Arbeit verringert. Als jemand, der den Applikat untersucht

Ob es ihm gef?llt oder nicht, künstliche Intelligenz ist Teil des t?glichen Lebens geworden. Viele Ger?te-einschlie?lich elektrischer Rasierer und Zahnbürsten-sind KI-betrieben.

Ein neues Modell für künstliche Intelligenz (KI) hat gezeigt, dass die F?higkeit, wichtige Wetterereignisse schneller und mit gr??erer Pr?zision vorherzusagen als einige der am h?ufigsten verwendeten globalen Vorhersagesysteme

Je pr?zise wir versuchen, KI -Modelle zu funktionieren, desto gr??er werden ihre Kohlenstoffemissionen - mit bestimmten Aufforderungen, die bis zu 50 -mal mehr Kohlendioxid erzeugen als andere, laut einer kürzlich durchgeführten Studie.

KI -Modelle für künstliche Intelligenz (KI) k?nnen Menschen bedrohen und erpressen, wenn ein Konflikt zwischen den Zielen des Modells und den Benutzerentscheidungen besteht

Das Hauptanliegen bei Big Tech, das mit künstlicher Intelligenz (KI) experimentiert, ist es nicht, dass es die Menschheit dominieren k?nnte. Das eigentliche Problem liegt in den anhaltenden Ungenauigkeiten von Gro?sprachmodellen (LLMs) wie der Open AI -Chatgpt, Googlees Gemini und Google

Je fortgeschrittener künstlicher Intelligenz (KI) wird, desto mehr "halluzinieren" und liefern falsche oder ungenaue Informationen.
