Bei diesem innovativen Ansatz bieten KI-Modelle nicht nur Einblicke-sie dienen als Entscheidungstr?ger. Sie analysieren, reagieren und arbeiten gelegentlich unabh?ngig. Dieser übergang erfordert eine vollst?ndige Neubewertung dessen, wie wir das Risiko wahrnehmen, Vertrauen schaffen und digitale Infrastrukturen schützen.
Von der Logik zum Lernen: Der Rahmen hat sich verschoben
Traditionell wurde die Unternehmenssoftware in Schichten konstruiert: Infrastruktur, Daten, Logik und Pr?sentation. Jetzt ist in der Architektur eine neue Schicht aufgetreten - die Modellschicht. Es ist dynamisch, wahrscheinlich und schrittweise entscheidend für die Ausführung von Anwendungen.
Jeetu Patel , EVP und GM der Sicherheit und Zusammenarbeit bei Cisco , erkl?rte diese Transformation w?hrend einer kürzlich durchgeführten Diskussion: ?Wir bemühen uns, hochdarstellerische Unternehmensanwendungen auf einem Stapel zu erstellen, der von Natur aus unvorhersehbar ist.“
Diese Unvorhersehbarkeit ist kein Defekt - es ist ein Merkmal für gro?e Sprachmodelle und generative KI. Es erschwert jedoch herk?mmliche Sicherheitsvorschriften. Modelle ergeben nicht konsequent identische Ausg?nge aus denselben Eing?ngen. Ihre Handlungen k?nnen mit neuen Daten, Feinabstimmungen oder Umweltstimuli variieren. Diese Variabilit?t macht sie schwieriger zu schützen.
KI ist die neue Verwundbarkeit
Da KI eine gr??ere Rolle bei Bewerbungsprozessen übernimmt, wird sie auch zu einem ansprechenden Ziel. Bedrohungsakteure nutzen bereits Schw?chen durch sofortige Injektion, Jailbreaks und System -Umformung. Bei beispiellosen Geschwindigkeiten, die ausgebildet, geteilt und fein abgestimmt sind, f?llt es den Sicherheitsma?nahmen schwer, Schritt zu halten.
Patel betonte, dass die meisten Unternehmen sechs bis neun Monate ben?tigen, um ein Modell zu überprüfen, aber die Modelle selbst sind m?glicherweise nur für drei bis sechs Monate anwendbar. Die Berechnungen summieren sich nicht.
Darüber hinaus führt die Verbreitung von Modellen zu einer erh?hten Inkonsistenz - durch unterschiedliche Sicherheitsschwellen, Verhaltensweisen und Schutzma?nahmen. Diese Quilt von Schutzlücken l?sst Lücken. Patel behauptete, der einzige Weg nach vorne sei ?ein einheitliches Substrat für die Sicherheit in allen Modellen, Agenten, Anwendungen und Wolken“.
Laufzeitbeschr?nkungen und algorithmische Validierung
In Anbetracht der Geschwindigkeit und Komplexit?t zeitgen?ssischer Bedrohungen sind traditionelle QS -Praktiken zu kurz. Patel betonte, dass sich das rotes Teaming zu etwas automatisiertem und Algorithmisches entwickeln müsse. Die Sicherheit muss von sporadischen Bewertungen zur laufenden Verhaltensüberprüfung übergehen.
Er zeigte eine Methode wie ?das Spiel von 1.000 Fragen“ - eine automatisierte Untersuchungstechnik, die die Antworten eines Modells auf Anzeichen eines Kompromisses untersucht. Diese Art von adaptivem rotem Teaming zeigt, wie Modelle durch indirekte oder irreführende Aufforderungen in unsicheres Verhalten manipuliert werden k?nnen. "Wir haben Deekseek 100% der F?lle mit den Top 50 -Benchmark -Eingaben erfolgreich verletzt", sagte er, "w?hrend Openai es geschafft hat, 26% der F?lle zu brechen."
Ein solches unterschiedliches Risiko unterstreicht die Notwendigkeit eines standardisierten Cross-Model-Rahmens für die Durchsetzung der Laufzeit. Modelle k?nnen nicht als schwarze Kisten behandelt werden - sie müssen in Echtzeit beobachtet, validiert und gerichtet werden.
Agent AI: Wenn Modelle alleine arbeiten
Die Gefahr erstreckt sich über die Ausgaben hinaus. Mit der Entstehung von Agent AI - wo Modelle autonome Aufgaben erledigen, APIs aufrufen und mit anderen Wirkstoffen interagieren - verst?rkt sich die Komplexit?t. Die Sicherheit muss nun autonome Systeme berücksichtigen, die Entscheidungen treffen, kommunizieren und Code ohne menschliche Aufsicht ausführen.
Patel warnt davor, dass die Kommunikation zwischen den Agenten neue Bedrohungswege einführt, da Modelle Daten und Anweisungen untereinander austauschen. Ohne Aufsicht k?nnten diese B?rsen Schwachstellen eskalieren oder b?swillige Aktivit?ten maskieren.
Dieser Fortschritt beschleunigt. Bis zum n?chsten Jahr k?nnen wir eine weit verbreitete Bereitstellung von Agenten beobachten, die mehrstufige Workflows mit minimalen menschlichen Eingaben ausführen. Die Sicherung dieser Systeme wird eine Mischung aus Sichtbarkeit, Verhaltensheuristik und Echtzeit-Durchsetzung erfordern-im Ma?stab, der der Sektor noch nie zuvor begegnet ist.
?Wenn KI intelligenter und selbstst?ndiger w?chst, müssen wir unsere Perspektive auf Risiken ver?ndern und schneller handeln als zuvor“, warnte Russell Fishman , Senior Director, Global Head of Solutions Product Management für KI und moderne Arbeitsbelastung bei NetApp . "Dies beinhaltet die Konzentration auf die Datenlinie-die Klarheit, den Schutz und das Vertrauen in die Daten zur Feinabstimmung und Wiederholung von Modellen sowie die Informationen, die in Echtzeitinferenz vorantreiben. Durch die Verfolgung und Sicherung dieser gesamten" Kette von Vertrauen "k?nnen wir die Risiken reduzieren, die mit den Antworten und Schild gegen immer expressione Angriffsantriebsvektoren verbunden sind."
Ein Fall für einheitliche Infrastruktur und offene Zusammenarbeit
Patel warnt davor, dass wir, wenn jedes Modell, jede Plattform und das Unternehmen seinen unterschiedlichen Sicherheitsrahmen einsetzt, auf die St?rung zusteuern. Was erforderlich ist, ist eine einheitliche Infrastruktur - eine neutrale, interoperable Basis für die KI -Sicherheit, die Wolken, Verk?ufer und Modelle umfasst.
Cisco erkannte dies an und stellte die Einführung von Foundation AI bei RSAC 2025 vor - ein erheblicher Schritt zur demokratisierenden KI -Sicherheit.
Foundation AI wird als erstes Open-Source-Argumentationsmodell vermarktet, das ausdrücklich gefertigt wurde, um Sicherheitsanwendungen zu steigern. Indem Cisco dieses Modell ?ffentlich zug?nglich macht, beabsichtigt Cisco, eine gemeindenahe Strategie zur Sicherung von KI-Systemen zu f?rdern und die Zusammenarbeit in der gesamten Branche zu inspirieren, um die komplizierten Herausforderungen der KI-Integration zu bew?ltigen.
Die Einführung von Foundation AI symbolisiert eine breitere Branchen -Tendenz zur offenen Zusammenarbeit in der KI -Sicherheit. Durch die Teilnahme an der Open-Source-Community geht Cisco nicht nur mit den unmittelbaren Sicherheitsbedenken hin, die mit KI verbunden sind, sondern auch einen Pr?zedenzfall für andere Unternehmen festlegt, um die Transparenz und die gemeinsame Probleml?sung in der KI-?ra zu f?rdern.
Das menschliche Element: Das Urteil bleibt von entscheidender Bedeutung
Selbst mit Ais F?higkeiten erzeugt es keine menschliche Intuition. Patel betonte, dass selbst fortgeschrittene Modelle es schwierig finden, Instinkt, Subtilit?t und nonverbale Argumentation nachzuahmen. "Die meisten Dinge, die Sie und ich engagieren", sagte er, "beinhalten ein gewisses Ma? an Daten -, aber dann viel Urteilsverm?gen."
Die besten Systeme werden diejenigen sein, die das menschliche Know -how erg?nzen und nicht ersetzen. Wir verlangen immer noch, dass Einzelpersonen die richtigen Fragen stellen, die richtigen Signale interpretieren und die richtigen Entscheidungen treffen - insbesondere wenn die Empfehlungen von AI in mehrdeutige Gebiete wagen.
?hnlich wie bei der Verwendung von GPS in einer Stadt, die Sie bereits kennen, müssen die Menschen die F?higkeit beibehalten, maschinell erstellte Vorschl?ge zu best?tigen, zu überschreiben und zu verfeinern. KI sollte ein Co-Pilot sein, kein Autopiloten.
Vertrauen in die ?ra der Intelligenz neu definieren
Da Unternehmen Intelligenz weiter in ihre Systeme integrieren, müssen sie auch Vertrauen einbringen. Dies beinhaltet die rechenschaftspflichtigen Konstruktion von Modellen. Es bedeutet, das Verhalten konsequent zu validieren, nicht nur beim Start. Und es bedeutet zusammenzuarbeiten - Unternehmen, Disziplinen und Plattformen -, um sicherzustellen, dass KI die Sicherheit st?rkt, ohne ihre eigene Haftung zu werden.
Fishman kam zu dem Schluss, "Echtzeitüberwachung, intelligentere Leitplanken und die Zusammenarbeit zwischen Sektor-mit Transparenz in jeder Phase sind entscheidend, um Vertrauen in KI aufzubauen und unseren digitalen Bereich zu schützen."
AI ver?ndert bereits die Cybersicherheitslandschaft. Die Abfrage ist, ob wir diese Transformation rechtzeitig st?rken k?nnen. Die Intelligenzschicht ist hier. Es ist stark. Und es ist anf?llig.
Jetzt ist der Moment, um neu zu interpretieren, wie die Sicherheit aussieht, wenn Intelligenz allgegenw?rtig ist.
Das obige ist der detaillierte Inhalt vonWarum KI das neue Schlachtfeld Cybersicherheit ist. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Hei?e KI -Werkzeuge

Undress AI Tool
Ausziehbilder kostenlos

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?er Artikel

Hei?e Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Hei?e Themen





Das Investieren boomt, aber Kapital allein reicht nicht aus. Mit zunehmender Bewertungen und Verblassen der Unterscheidungskraft müssen Investoren in AI-fokussierten Risikokonstrumentfonds eine wichtige Entscheidung treffen: Kaufen, Bau oder Partner, um einen Vorteil zu erlangen? Hier erfahren Sie, wie Sie jede Option bewerten - und PR

Reden wir darüber. Diese Analyse eines innovativen KI -Durchbruchs ist Teil meiner laufenden Forbes -S?ulenberichterstattung über die neueste in der KI, einschlie?lich der Identifizierung und Erkl?rung verschiedener wirksamer KI -Komplexit?ten (siehe Link hier). Auf dem Weg zu Agi und

Erinnern Sie sich an die Flut chinesischer Open-Source-Modelle, die die Genai-Industrie Anfang dieses Jahres gest?rt haben? W?hrend Deepseek die meisten Schlagzeilen machte, war Kimi K1.5 einer der herausragenden Namen in der Liste. Und das Modell war ziemlich cool.

Reden wir darüber. Diese Analyse eines innovativen KI -Durchbruchs ist Teil meiner laufenden Forbes -S?ulenberichterstattung über die neueste in der KI, einschlie?lich der Identifizierung und Erkl?rung verschiedener wirksamer KI -Komplexit?ten (siehe Link hier). Für diejenigen Leser, die h

Bis Mitte 2025 heizt sich das KI ?Wettret“ auf, und Xai und Anthropic haben beide ihre Flaggschiff-Modelle GROK 4 und Claude 4 ver?ffentlicht. Diese beiden Modelle befinden

Wenn Sie beispielsweise einem Modell eine Frage wie: "Was macht (x) Person bei (x) Firma?" M?glicherweise sehen Sie eine Argumentationskette, die ungef?hr so ??aussieht, vorausgesetzt, das System wei?, wie man die erforderlichen Informationen abgerufen: Details zum CO finden

Klinische Studien sind ein enormer Engpass in der Arzneimittelentwicklung, und Kim und Reddy glaubten, dass die AI-f?hige Software, die sie bei PI Health gebaut hatten, dazu beitragen k?nnte, sie schneller und billiger zu machen, indem sie den Pool potenziell berechtigter Patienten erweitert. Aber die

Der Senat stimmte am Dienstagmorgen mit 99: 1 für die T?tung des Moratoriums nach einem Aufruhr in letzter Minute von Interessenvertretungsgruppen, Gesetzgebern und Zehntausenden von Amerikanern, die es als gef?hrliche überreichung ansah. Sie blieben nicht ruhig. Der Senat h?rte zu.
