


Organisationen sehen sich der Timing Timebomb gegenüber AI Governance ausgesetzt
Jul 29, 2025 am 01:07 AMEin aktueller Bericht von TrustMarque zeigt, dass viele Unternehmen w?hrend der Entwicklung und Bereitstellung künstlicher Intelligenzsysteme nicht mit KI-spezifischen Risiken eingehen.
Trotz der einzigartigen Herausforderungen stützt sich AI-wie Modellverzerrung, mangelnde Transparenz und Halluzinationen-, die Führungskr?fte weiterhin auf traditionelle Softwareentwicklungsrahmen verlassen, die für die Verwaltung dieser aufkommenden Bedrohungen nicht geeignet sind.
In dem Bericht wird hervorgehoben, dass 93% der Organisationen KI bereits in irgendeiner Form verwenden, aber nur sehr wenige ihre vorhandenen Prozesse für die Behandlung von KI-bezogenen Schwachstellen angepasst haben. Schockierend, nur 7% haben die Governance -Strukturen vollst?ndig umgesetzt und über die H?lfte ohne Governance oder ?u?erst begrenzte Aufsicht betrieben.
Darüber hinaus haben nur 8% die KI -Governance erfolgreich in ihren Softwareentwicklungslebenszyklus (SDLC) integriert, wobei die meisten ihre Bemühungen als fragmentiert oder inkonsistent beschrieben haben.
KI -Modelle haben inh?rente Gefahren, einschlie?lich voreingenommener Outputs und Halluzinationen - erreichte Antworten, die als Fakten dargestellt werden. Obwohl viele Unternehmen Sicherheitschecks oder Monitor für Anomalien durchführen, testen nur 28% aktiv auf Verzerrungen w?hrend der Entwicklung und nur 22% der Modellinterpretierbarkeit.
Ein wichtiges Hindernis ist eine unzureichende Infrastruktur. Nur 4% der Organisationen sagen, dass ihre Daten und technischen Umgebungen voll ausgestattet sind, um gro? angelegte KI-Initiativen zu unterstützen. Entscheidend ist, dass wesentliche Komponenten wie Modellregister, Prüfungswege und die Versionskontrolle h?ufig manuell oder gar nicht behandelt werden.
"Die Annahme von KI ist eindeutig die Governance", sagte Seb Burrell, Leiter der AI bei Trustmarque. "Da 93% der Organisationen, die KI verwenden, jedoch nur 7% umfassende Governance -Governance haben, gibt es eine erhebliche Unterbrechung. Innovation bewegt sich schneller als Systeme und Unterstützungsstrukturen k?nnen Schritt halten."
Er fügte hinzu: "Entwicklungsteams fehlen die erforderlichen Werkzeuge und Infrastrukturen, und dies wird durch unzureichende Unterstützung für die Führung von Führungskr?ften für den Aufbau starker Governance -Rahmenbedingungen verschlechtert."
Die Rechenschaftspflicht bleibt diffus, wobei nur 9% der Befragten eine Ausrichtung zwischen IT -Führung und Governance -Verantwortlichkeiten angeben. Volle 19% gaben an, keinen ausgewiesenen Eigentümer für die KI -Governance zu haben.
Die meisten Governance-Initiativen werden eher auf Abteilungsebene als auf unternehmensweite Strategie angetrieben. Die kontinuierliche überwachung ist selten - nur 18% der Organisationen nutzen KPIs, um die KI -Leistung und -konformit?t im Laufe der Zeit zu verfolgen.
Es fehlt auch eine funktionsübergreifende Zusammenarbeit. Rechts-, Ethik- und HR-Teams werden nur gelegentlich in der KI-Entscheidungsfindung konsultiert (40%), und nur 20% haben formelle, mehrfach abteilte Governance-K?rperschaften festgelegt.
Laut dem Bericht stellt diese Trennung zwischen Ehrgeiz und Umsetzung die gr??te Hürde für Unternehmen dar, die die KI heute nutzt. Die Autoren empfehlen, AI -Initiativen mit den Kerngesch?ftszielen auszurichten, die Governance direkt in Entwicklungsworkflows einzubetten und in die Funktionen für technologische Infrastrukturen und Belegschaft zu investieren.
Sie betonen auch die Notwendigkeit einer gemeinsamen Rechenschaftspflicht über Funktionen hinweg und nicht die Verantwortung.
"Organisationen veranstalten die generative KI schneller als sie verwalten k?nnen, und die Risiken sind greifbar", warnte Burrell. "Ohne ordnungsgem??e Aufsicht verzeichnen wir eine zunehmende Exposition gegenüber Datenschutzverst??en, operativen Fehlern, ethischen Verf?llen und Erosion des Stakeholder-Trusts. Dies sind nicht nur regulatorische Bedenken, sondern grundlegende Bedrohungen für langfristige Gesch?ftsstabilit?t und Glaubwürdigkeit."
Das obige ist der detaillierte Inhalt vonOrganisationen sehen sich der Timing Timebomb gegenüber AI Governance ausgesetzt. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Hei?e KI -Werkzeuge

Undress AI Tool
Ausziehbilder kostenlos

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?er Artikel

Hei?e Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Hei?e Themen





In einem weiteren Rückschlag für eine Dom?ne, in der wir glaubten, dass Menschen immer Maschinen übertreffen würden, schlagen Forscher jetzt vor, dass KI Emotionen besser versteht als wir. Die Forscher haben entdeckt, dass künstliche Intelligenz eine demonstriert

Künstliche Intelligenz (KI) begann als Streben, das menschliche Gehirn zu simulieren. Inzwischen ist es in der Lage, die Rolle des menschlichen Gehirns im t?glichen Leben zu ver?ndern? Die industrielle Revolution hat die Abh?ngigkeit von manueller Arbeit verringert. Als jemand, der den Applikat untersucht

Ob es ihm gef?llt oder nicht, künstliche Intelligenz ist Teil des t?glichen Lebens geworden. Viele Ger?te-einschlie?lich elektrischer Rasierer und Zahnbürsten-sind KI-betrieben.

Ein neues Modell für künstliche Intelligenz (KI) hat gezeigt, dass die F?higkeit, wichtige Wetterereignisse schneller und mit gr??erer Pr?zision vorherzusagen als einige der am h?ufigsten verwendeten globalen Vorhersagesysteme

Je pr?zise wir versuchen, KI -Modelle zu funktionieren, desto gr??er werden ihre Kohlenstoffemissionen - mit bestimmten Aufforderungen, die bis zu 50 -mal mehr Kohlendioxid erzeugen als andere, laut einer kürzlich durchgeführten Studie.

KI -Modelle für künstliche Intelligenz (KI) k?nnen Menschen bedrohen und erpressen, wenn ein Konflikt zwischen den Zielen des Modells und den Benutzerentscheidungen besteht

Das Hauptanliegen bei Big Tech, das mit künstlicher Intelligenz (KI) experimentiert, ist es nicht, dass es die Menschheit dominieren k?nnte. Das eigentliche Problem liegt in den anhaltenden Ungenauigkeiten von Gro?sprachmodellen (LLMs) wie der Open AI -Chatgpt, Googlees Gemini und Google

Je fortgeschrittener künstlicher Intelligenz (KI) wird, desto mehr "halluzinieren" und liefern falsche oder ungenaue Informationen.
