{"id":25681,"date":"2024-01-01T14:20:19","date_gmt":"2024-01-01T14:20:19","guid":{"rendered":"https:\/\/www.techopedia.com\/de"},"modified":"2024-01-03T09:01:03","modified_gmt":"2024-01-03T09:01:03","slug":"tech-ceos-nennen-die-top-8-ki-trends-2024","status":"publish","type":"post","link":"https:\/\/www.techopedia.com\/de\/tech-ceos-nennen-die-top-8-ki-trends-2024","title":{"rendered":"Tech-CEOs nennen die Top 8 KI-Trends 2024"},"content":{"rendered":"
Allein 2023 war ein herausragendes Jahr f\u00fcr generative KI<\/a>: <\/span>GPT-4<\/span><\/i>, <\/span>GPT-4V<\/span><\/i>, <\/span>Google Bard<\/span><\/i><\/a>, <\/span>PaLM 2<\/span><\/i> und <\/span>Google Gemini <\/span><\/i>wurden alle in diesem Jahr als Teil eines sich schnell entwickelnden Wettr\u00fcstens zur Automatisierung<\/a> allt\u00e4glicher Arbeitsabl\u00e4ufe eingef\u00fchrt.<\/span><\/p>\n F\u00fcr weitere Einblicke in die Zukunft hat <\/span>Techopedia<\/span><\/i> f\u00fchrende CEOs aus dem Bereich der Unternehmenstechnologie befragt, welche Auswirkungen KI ihrer Ansicht nach 2024 auf Betriebe haben wird und welche KI-Trends sich bereits abzeichnen. <\/span><\/p><\/blockquote>\n Die folgenden Kommentare wurden zwecks Knappheit und Klarheit \u00fcberarbeitet.<\/span><\/p>\n Schon bald werden wir das Aufkommen von generativer, KI-gest\u00fctzter Malware<\/a> erleben, die im Wesentlichen selbstst\u00e4ndig denken und handeln kann. <\/span><\/p>\n Eine solche Bedrohung, die die USA mit besonderer Sorge betrachten sollten, geht von nationalstaatlichen Gegnern aus.<\/span><\/p><\/blockquote>\n Wir werden sehen, dass Angriffsmuster immer polymorpher werden, d. h. die k\u00fcnstliche Intelligenz (KI)<\/a> wertet die Zielumgebung sorgf\u00e4ltig aus und denkt dann selbstst\u00e4ndig nach, um die ultimative L\u00fccke im Netzwerk oder den besten Bereich zum Ausnutzen zu finden und entsprechend zu ver\u00e4ndern.<\/span><\/p>\n Statt dass ein Mensch den Code knackt, wird es selbstlernende Systeme geben, die auf der Grundlage von Ver\u00e4nderungen in ihrer Umgebung erkennen, wie sie Schwachstellen<\/a> ausnutzen k\u00f6nnen.<\/span><\/p>\n Patrick Harr, CEO von <\/span>SlashNext<\/span><\/i><\/a>\u00a0<\/span><\/i><\/p>\n Der KI-Boom hat eine Schattenseite, die nur wenigen Verbrauchern oder Unternehmen bewusst ist: Cyberkriminelle<\/a> k\u00f6nnen nun ihre Phishing<\/a>-Angriffe glaubw\u00fcrdiger, h\u00e4ufiger und raffinierter gestalten, indem sie die Leistung generativer KI wie <\/span>WormGPT<\/span><\/i><\/a> nutzen. <\/span><\/p>\n Mit Blick auf das Jahr 2024 wird diese Bedrohung an Umfang und Ausma\u00df zunehmen.<\/span>\u00a0<\/span><\/p><\/blockquote>\n Vor diesem Hintergrund wird der Wendepunkt f\u00fcr die massenhafte Einf\u00fchrung von Passkeys erreicht sein (auch wenn es noch eine betr\u00e4chtliche \u00dcbergangszeit bis zu einer wirklich passwortlosen Zukunft geben wird).<\/span><\/p>\n Im vergangenen Jahr wurden Passkeys plattform\u00fcbergreifend immer h\u00e4ufiger eingesetzt, und Big Tech <\/span>\u2013<\/span> von <\/span>Google<\/span><\/i><\/a> bis <\/span>Amazon<\/span><\/i> \u2013<\/span> hat verschiedene Stufen der Passkey-Unterst\u00fctzung eingef\u00fchrt.<\/span><\/p>\n Passkeys werden jedoch letztendlich die Passw\u00f6rter<\/a> als Status quo-Technologie abl\u00f6sen, sobald die Konsequenzen der Nichtverwendung einer sichereren, Phishing-resistenten Form der Authentifizierung im Zuge der zunehmend sch\u00e4dlichen und kostspieligen Cyberangriffe<\/a> deutlich werden.<\/span><\/p>\n John Bennett, CEO von<\/span> Dashlane<\/span><\/i><\/a>\u00a0<\/span><\/p>\n Sicherheit und Datenschutz m\u00fcssen f\u00fcr jedes Technologieunternehmen ein Hauptanliegen bleiben, unabh\u00e4ngig davon, ob es sich auf KI konzentriert oder nicht. <\/span><\/p>\n Wenn es um KI geht, ist es von entscheidender Bedeutung, dass das Modell \u00fcber die notwendigen Sicherheitsvorkehrungen, eine Feedbackschleife und vor allem einen Mechanismus zum Aufzeigen von Sicherheitsbedenken verf\u00fcgt.<\/span><\/p><\/blockquote>\n Da Unternehmen im Jahr 2024 die Vorteile von KI in Bezug auf Effizienz, Produktivit\u00e4t und Demokratisierung von Daten immer schneller nutzen werden, muss sichergestellt werden, dass bei der Identifizierung von Problemen ein Meldemechanismus vorhanden ist, der diese aufdeckt, so wie eine Sicherheitsl\u00fccke erkannt und angezeigt wird.<\/span><\/p>\n David Gerry, CEO von <\/span>Bugcrowd<\/span><\/i><\/a>\u00a0<\/span><\/i><\/p>\n 2024 wird die Entwicklung der generativen KI (GenAI) und der gro\u00dfen Sprachmodelle<\/a> (Large Language Models, LLM), die 2023 eingeleitet wurde, die Cybersicherheitskette neu definieren, die Effizienz steigern und die Abh\u00e4ngigkeit von Arbeitskr\u00e4ften in der Cloud-Security minimieren.<\/span><\/p>\n Ein Beispiel sind durch LLMs verst\u00e4rkte Erkennungstools. LLMs werden die Protokollanalyse erweitern und eine fr\u00fchzeitige, genaue und umfassende Erkennung von bekannten und schwer fassbaren Zero-Day-Angriffen<\/a> erm\u00f6glichen.<\/span><\/p>\n Die analytischen F\u00e4higkeiten von LLMs werden subtile, komplizierte Muster und Anomalien aufdecken, was die Identifizierung und Abschw\u00e4chung komplexer Bedrohungen sowie die Verbesserung der allgemeinen Sicherheitslage gew\u00e4hrleistet.<\/span><\/p><\/blockquote>\n GenAI wird die Raffinesse sowohl von Cyberangriffen als auch von Verteidigungsmechanismen erh\u00f6hen, was innovative Strategien voraussetzt und die Schaffung flexibler, reaktionsf\u00e4higer Sicherheitsrahmen f\u00f6rdert.<\/span><\/p>\n Die Verschmelzung von KI und LLM wird die Sicherheitsabl\u00e4ufe und -protokolle rationalisieren. <\/span><\/p>\n Dadurch k\u00f6nnen sich die Fachleute auf strategische Analysen und Innovationen konzentrieren und eine robuste Erkennung und Bek\u00e4mpfung von Bedrohungen<\/a> gew\u00e4hrleisten, was die Integrit\u00e4t, Vertraulichkeit und Verf\u00fcgbarkeit von Informationen in der Cloud st\u00e4rken wird.<\/span><\/p>\n Chen Burshan, CEO von <\/span>Skyhawk Security<\/span><\/i><\/a>\u00a0<\/span><\/i><\/p>\n Das Konzept der <\/span>\u201e<\/span>Risikominderung<\/span>\u201c<\/span> im Bereich der Datensicherheit<\/a> wird sich in den n\u00e4chsten Jahren im Einklang mit dem zunehmenden Einsatz von Technologien der generativen KI weiterentwickeln.<\/span><\/p>\n Bis vor kurzem haben Unternehmen Richtlinien zur Datenaufbewahrung und -l\u00f6schung zur Gew\u00e4hrleistung eines minimalen Risikos f\u00fcr ihre Assets eingef\u00fchrt. <\/span><\/p>\n In dem Ma\u00dfe, in dem die M\u00f6glichkeiten der GenAI f\u00fcr Unternehmen an Bedeutung gewinnen, wird die Motivation steigen, Daten so lange wie m\u00f6glich zu speichern, um sie f\u00fcr das Training und Testen dieser neuen F\u00e4higkeiten zu nutzen.<\/span><\/p><\/blockquote>\n Daher wird es f\u00fcr Datensicherheitsteams nicht mehr m\u00f6glich sein, Risiken durch das L\u00f6schen unn\u00f6tiger Daten zu bek\u00e4mpfen, da der neue Gesch\u00e4ftsansatz darin besteht, dass alle Daten irgendwann einmal ben\u00f6tigt werden k\u00f6nnen.<\/span><\/p>\n Liat Hayun, CEO und Mitbegr\u00fcnderin von <\/span>Eureka Security<\/span><\/i><\/a><\/p>\n In einer sich schnell entwickelnden Technologielandschaft sind die Parallelen zwischen der Einf\u00fchrung von Cloud-Diensten und dem aktuellen Anstieg der Implementierung von k\u00fcnstlicher Intelligenz sowohl auff\u00e4llig als auch warnend.<\/span><\/p>\n So wie Unternehmen Cloud-L\u00f6sungen wegen ihres Innovationspotenzials eifrig angenommen haben, hat die Eile der Integration die Entwicklung robuster Sicherheitskontrollen und Compliance<\/a>-Tools \u00fcberholt.<\/span><\/p>\n Infolgedessen entstanden Schwachstellen, die von b\u00f6swilligen Akteuren schnell ausgenutzt werden konnten, wodurch Unternehmen mit unvorhergesehenen Herausforderungen konfrontiert wurden.<\/span><\/p><\/blockquote>\n Da wir eine \u00e4hnliche Entwicklung bei der Einf\u00fchrung von KI-Technologien beobachten, ist es zwingend erforderlich, Lehren aus der Vergangenheit zu ziehen und sich proaktiv mit den drohenden Problemen zu befassen. <\/span><\/p>\n Die rasche Integration von KI in verschiedene Bereiche des Gesch\u00e4ftsbetriebs ist unbestreitbar transformativ. Doch der Mangel an umfassender Transparenz und Unternehmenskontrolle gibt Anlass zu Bedenken.<\/span><\/p>\n \u00c4hnlich wie in den Anf\u00e4ngen der Cloud-Einf\u00fchrung betreten Unternehmen mit KI Neuland, oft ohne die notwendigen Sicherheitsvorkehrungen zu treffen. <\/span><\/p><\/blockquote>\n Die Folgen unzureichender Ma\u00dfnahmen sind zweierlei: erstens ein erh\u00f6htes Risiko von Sicherheitsverletzungen und zweitens ein potenzieller Vertrauensverlust, da Stakeholder die ethischen Implikationen und die Transparenz von KI-Entscheidungen in Frage stellen.<\/span><\/p>\n Varun Badhwar, CEO und Mitbegr\u00fcnder von <\/span>Endor Labs<\/span><\/i><\/a><\/p>\n Dies ist ein zweigleisiges Thema, \u00fcber das die F\u00fchrungskr\u00e4fte im Jahr 2024 wirklich nachdenken m\u00fcssen. Einerseits m\u00fcssen CISOS- und IT-Verantwortliche sich Gedanken dar\u00fcber machen, wie wir den Quellcode sicher in unsere eigenen <\/span>\u201e<\/span>K\u00f6nigreiche<\/span>\u201c<\/span> innerhalb des Tuner-Rise einspeisen k\u00f6nnen.<\/span><\/p>\n Mit Tools wie <\/span>Copilot<\/span><\/i> und <\/span>ChatGPT<\/span><\/i><\/a> werden Entwickler und Unternehmen viel effizienter arbeiten k\u00f6nnen. Dies birgt jedoch auch mehr Risiken in Bezug auf potenzielle Schwachstellen, die uns Sorgen bereiten sollten.<\/span><\/p>\n Auf der anderen Seite m\u00fcssen wir dar\u00fcber nachdenken, wie Anbieter von Anwendungssicherheitsl\u00f6sungen es CISOS und IT-F\u00fchrungskr\u00e4ften erm\u00f6glichen, generative KI in ihren Tools f\u00fcr eine effizientere Ausf\u00fchrung ihrer Programme zu nutzen und die Produktivit\u00e4t in Bezug auf den Einsatz von KI zur Beschleunigung von Sicherheitsergebnissen zu steigern. <\/span><\/p><\/blockquote>\n Dazu geh\u00f6ren z. B. die Erstellung von Sicherheitsrichtlinien, die Identifizierung von Mustern und Anomalien, das schnellere Auffinden und die Priorisierung von Schwachstellen sowie die Unterst\u00fctzung bei der Reaktion auf Vorf\u00e4lle.<\/span><\/p>\nDer Aufstieg von KI-gest\u00fctzter Malware<\/span><\/h2>\n
Passkey-Annahme wird st\u00e4rker<\/span><\/h2>\n
Zus\u00e4tzliche Schutzma\u00dfnahmen f\u00fcr KI-Modelle<\/span><\/h2>\n
LLMs werden die Cloud-Sicherheit umgestalten<\/span><\/h2>\n
\u201eRisikoreduzierung\u201c bei der Datensicherheit wird immer besser<\/span><\/h2>\n
Erosion des Vertrauens in KI-Entscheidungsprozesse<\/span><\/h2>\n
Entwickler werden effizienter sein<\/span><\/h2>\n