KDB-Tech-Update – Warnungen vor IT-Pannen und neuen KI-Herausforderungen

Guten Morgen und willkommen zum KDB-Tech-Update!

Guten Morgen zusammen! Hier ist euer tägliches Tech-Update von der KDB Medienagentur GmbH. Heute haben wir einige spannende und wichtige Themen für euch im Gepäck:

  • Bundesdigitalminister Volker Wissing äußert sich zu den wachsenden IT-Pannen und Cyberangriffen.
  • Microsoft sieht OpenAI als Wettbewerber im KI- und Suchmaschinenmarkt.
  • Die Bedeutung von Storytelling in der modernen Kommunikation.
  • DARPA initiiert ein Projekt zur Übertragung von C-Code in Rust mithilfe von KI.
  • Gefahr durch KI-generierte Trainingsdaten: Ein Kollaps droht.
  • Verzögerungen bei Nvidias Blackwell B200 durch Konstruktionsfehler.
  • Vorsicht im Google Play Store: Diese 5 Apps laden Spyware auf dein Smartphone.
  • Phishing-Mails erkennen und richtig reagieren.

Los geht’s!

Bundesdigitalminister Volker Wissing: IT-Pannen werden zunehmen

In einem aktuellen Interview äußerte sich Bundesdigitalminister Volker Wissing besorgt über die wachsende Zahl von IT-Pannen und Cyberangriffen auf kritische Infrastrukturen in Deutschland. Er erklärte, dass die Zunahme dieser Vorfälle in direktem Zusammenhang mit dem steigenden Grad der Digitalisierung steht. Besonders die rasante Entwicklung und Nutzung von künstlicher Intelligenz, sowohl im positiven als auch im negativen Sinne, spielt dabei eine entscheidende Rolle. Wissing verdeutlichte, dass kriminelle Akteure KI-Technologien verwenden, um ihre Cyberangriffe zu optimieren und effektiver durchzuführen.

Ein Beispiel für eine solche IT-Panne war kürzlich der Vorfall beim amerikanischen IT-Sicherheitsexperten Crowdstrike, der weltweit zu weitreichenden Störungen führte. Der Vorfall hatte unter anderem Auswirkungen auf den Flugverkehr, Supermärkte, Banken, Krankenhäuser und Fernsehsender. Crowdstrike benannte ein fehlerhaftes Software-Update als Ursache für die Störungen. Dies zeigt, wie verwundbar kritische Infrastrukturen sind und wie schnell derartige Probleme ernsthafte Folgen haben können.

Wissing betonte die Notwendigkeit eines robusten Sicherheitskonzepts für Deutschland. Er hob hervor, dass es immer wichtig sei, einen „Plan B“ und idealerweise auch weitere Alternativen zu haben, um auf unerwartete Ereignisse reagieren zu können. Im Falle der Crowdstrike-Panne konnten andere Flughäfen angeflogen werden, was zeigt, dass Redundanzen in kritischen Infrastrukturen unerlässlich sind. Dazu zählen beispielsweise Ausweichflughäfen, alternative Bahnstrecken und zusätzliche Kommunikationsleitungen.

Des Weiteren merkte Wissing an, dass der Schutz kritischer Infrastrukturen, wie Bahnstrecken und Flughäfen, erhöht werden muss. Die Deutsche Bahn hat bereits Maßnahmen ergriffen, um ihre Sicherheitsvorkehrungen zu verbessern. Aktuell sind rund 10.000 Kameras an etwa 800 Standorten im Streckennetz installiert, was eine Erhöhung um 2.000 Kameras im Vergleich zur Vergangenheit darstellt. Zudem wurden in den von der Bahn betriebenen S-Bahnen über 50.000 Kameras verbaut, und das Sicherheitspersonal wurde auf 4.500 Sicherheitskräfte aufgestockt.

Wissing schloss seine Ausführungen mit der Feststellung, dass die Zeiten, in denen wir leben, schwieriger geworden sind, und dass es unerlässlich ist, sich dieser Realität bewusst zu sein und entsprechend zu handeln.

Microsoft sieht OpenAI als Wettbewerber im KI- und Suchmaschinenmarkt

In der dynamischen Welt der Künstlichen Intelligenz (KI) hat sich die Beziehung zwischen Microsoft und OpenAI gewandelt. Microsoft, der Software- und Cloud-Riese, hat in den letzten Jahren Milliarden in OpenAI investiert, um exklusiven Zugang zu dessen hochentwickelten KI-Technologien zu erhalten. Diese Partnerschaft, die ursprünglich auf einer gemeinsamen Vision beruhte, wird nun durch die Tatsache belastet, dass Microsoft OpenAI als einen der Hauptkonkurrenten im Bereich der Internet-Suche sowie der KI einstuft.

Bei der Veröffentlichung der letzten Finanzergebnisse hat Microsoft nicht nur von Wachstum in verschiedenen Geschäftsfeldern berichtet, sondern auch die Wettbewerbslandschaft skizziert. In einer offiziellen Mitteilung an die US-Börsenaufsichtsbehörde SEC (Securities and Exchange Commission) listete Microsoft Konkurrenten im Cloud-Geschäft wie Amazon, Google und Oracle auf. Im Bereich der Künstlichen Intelligenz wird OpenAI nun neben anderen Unternehmen wie Anthropic und Meta geführt. Besonders auffällig ist die Einstufung von OpenAI als Wettbewerber im Bereich der Websuche und Werbung.

Ein entscheidender Faktor für diese Neubewertung ist der Test von OpenAIs eigener KI-Suchmaschine, SearchGPT. Dieses innovative Tool wurde Ende Juli 2023 eingeführt und ist direkt in ChatGPT integriert. Derzeit steht es allerdings nur einer ausgewählten Gruppe von Testern zur Verfügung. SearchGPT stellt eine Neuinterpretation der Websuche dar, indem es die Funktionalität des Chatbots mit der Fähigkeit zur Internetrecherche verbindet. Die neuen Crawler von OpenAI haben Zugriff auf eine Vielzahl von Webseiten, was die Suchergebnisse erheblich erweitern könnte.

Sollte OpenAI SearchGPT in vollem Umfang launchen, würde dies OpenAI in direkte Konkurrenz zu etablierten Suchmaschinen wie Google und Bing, die von Microsoft betrieben werden, setzen. Dies ist besonders bemerkenswert, da Microsoft bislang der größte Investor in OpenAI ist und bereits im Jahr 2019 eine Milliarde US-Dollar in das Unternehmen investierte. Auch nach der Einführung von ChatGPT, das die öffentliche Wahrnehmung von KI revolutionierte, flossen Anfang 2023 weitere Milliarden in die Kassen von OpenAI. Insgesamt wird geschätzt, dass Microsoft mittlerweile 13 Milliarden US-Dollar in die KI-Entwickler investiert hat.

Trotz der Einstufung als Wettbewerber betont OpenAI, dass die Partnerschaft mit Microsoft weiterhin stark bleibt. Ein Sprecher von OpenAI erklärte gegenüber CNBC, dass die Zusammenarbeit mit dem Verständnis begann, dass es auch zu Wettbewerbssituationen kommen würde. Microsoft bleibt für OpenAI ein wertvoller Partner, und solange das Cloud-Geschäft von Microsoft, unterstützt durch OpenAIs Technologien, floriert, wird sich an dieser Beziehung wohl wenig ändern.

Insgesamt zeigt sich, dass die Künstliche Intelligenz nicht nur eine technologische Revolution mit sich bringt, sondern auch die Dynamik zwischen Unternehmen neu definiert. Die Rivalität zwischen Microsoft und OpenAI könnte die Zukunft der Internet-Suche und der KI-Entwicklung maßgeblich beeinflussen.

Die Kraft des Storytelling in der modernen Kommunikation

Storytelling ist ein Begriff, der in den letzten Jahren immer mehr an Bedeutung gewonnen hat, vor allem im Kontext von Marketing, Unternehmenskommunikation und persönlicher Markenbildung. Doch was genau ist Storytelling und warum ist es so wichtig?

Was ist Storytelling?
Storytelling bedeutet, Geschichten zu erzählen. Es geht darum, Informationen und Botschaften in eine narrative Form zu bringen, die emotional ansprechend ist und das Publikum fesselt. Eine gute Geschichte hat die Fähigkeit, komplexe Sachverhalte zu vereinfachen, sie nachvollziehbar zu machen und eine tiefere Verbindung zum Publikum herzustellen.

Die Bedeutung von Emotionen
Emotionen spielen eine zentrale Rolle beim Storytelling. Studien zeigen, dass Menschen sich an emotionale Erlebnisse viel besser erinnern können als an trockene Fakten oder Statistiken. Wenn eine Geschichte Emotionen weckt – sei es Freude, Trauer, Überraschung oder Angst – bleibt sie im Gedächtnis. Deshalb ist es wichtig, beim Erstellen von Geschichten authentische Emotionen zu vermitteln, die die Zielgruppe ansprechen.

Die Struktur einer guten Geschichte
Eine effektive Geschichte folgt oft einer klaren Struktur:
1. Einführung: Hier wird der Kontext gesetzt und die Charaktere vorgestellt.
2. Konflikt: Eine Herausforderung oder ein Problem tritt auf, das die Charaktere überwinden müssen.
3. Lösung: Die Charaktere finden einen Weg, um das Problem zu lösen, was oft zu einer positiven Wendung führt.
4. Schlussfolgerung: Die Geschichte endet mit einer Lehre oder einer Botschaft, die die Zuhörer zum Nachdenken anregt.

Diese Struktur hilft nicht nur, die Aufmerksamkeit der Zuhörer zu fesseln, sondern sorgt auch dafür, dass die Botschaft klar und einprägsam ist.

Einsatzmöglichkeiten von Storytelling
Storytelling findet in vielen Bereichen Anwendung:

  • Marketing: Marken nutzen Geschichten, um ihre Produkte emotional aufzuladen und Kundenbindung zu schaffen.
  • Unternehmenskommunikation: Unternehmen erzählen Geschichten über ihre Werte, Mission und Erfolge, um eine starke Unternehmensidentität zu fördern.
  • Bildung: Lehrer verwenden Geschichten, um komplexe Themen zu erklären und das Lernen zu erleichtern.
  • Persönliche Markenbildung: Individuen nutzen Storytelling, um ihre persönliche Marke zu definieren und sich in einem überfüllten Markt abzuheben.

Tipps für erfolgreiches Storytelling

  1. Kenne dein Publikum: Verstehe, wer deine Zuhörer sind und was sie anspricht.
  2. Sei authentisch: Geschichten, die aus persönlichen Erfahrungen stammen, wirken oft glaubwürdiger.
  3. Verwende visuelle Elemente: Bilder, Videos oder Grafiken können Geschichten verstärken und das Engagement erhöhen.
  4. Übe das Erzähltempo: Variiere dein Sprechtempo und deine Tonlage, um die Spannung zu halten.
  5. Schließe mit einer starken Botschaft ab: Stelle sicher, dass deine Zuhörer wissen, was sie aus der Geschichte mitnehmen sollen.

Fazit
Storytelling ist ein mächtiges Werkzeug in der modernen Kommunikation. Es hilft nicht nur, Informationen effektiv zu vermitteln, sondern auch emotionale Verbindungen herzustellen. Ob im Marketing, in der Unternehmenskommunikation oder in der persönlichen Markenbildung – die Fähigkeit, Geschichten zu erzählen, kann den Unterschied zwischen einer einfachen Botschaft und einer, die im Gedächtnis bleibt, ausmachen.

DARPA sagt Speicherfehlern den Kampf an: KI soll alten C-Code in Rust übertragen

In einem wegweisenden Schritt hat die US-Bundesbehörde DARPA ein neues Förderprogramm ins Leben gerufen, das darauf abzielt, bestehende C- und C++-Codebasen mithilfe von künstlicher Intelligenz (KI) in die moderne Programmiersprache Rust zu übertragen. Das Programm mit dem Namen ‚Translating All C To Rust‘ – kurz ‚TRACTOR‘ – verfolgt das ambitionierte Ziel, diese Übersetzung auf einem Niveau zu erreichen, das dem eines erfahrenen Rust-Programmierers entspricht.

Der Hintergrund dieses Projekts ist die weit verbreitete Problematik von Sicherheitslücken, die durch Speicherzugriffsverletzungen in C-Code entstehen. In einer Mitteilung betont die DARPA, dass durch dieses Vorhaben \“ein für alle Mal\“ den Gefahren durch diese Schwachstellen der Garaus gemacht werden soll. C und C++ sind aufgrund ihrer Fähigkeit, direkte Speicheränderungen vorzunehmen und des Fehlens eines klaren Handlings für undefinierte Zustände verwundbar, was zu den häufigsten Software-Schwachstellen führt.

Ein zentraler Fokus des TRACTOR-Projekts liegt darin, maschinelles Lernen (ML) sowie moderne Sprachmodelle (Large Language Models, LLMs) zu nutzen, um die Code-Übersetzung weitgehend automatisiert durchzuführen. Obwohl es bereits Ansätze gibt, die dies ermöglichen, hebt die DARPA hervor, dass die Qualität und der Stil des resultierenden Codes dem eines erfahrenen Entwicklers entsprechen müssen. Dies ist besonders wichtig, um die Integrität und Sicherheit des übertragenen Codes zu gewährleisten.

Ein bedeutender Aspekt der Herausforderung besteht darin, den bestehenden C- und C++-Code in dem Umfang neu zu schreiben, der notwendig ist, um die drängenden Sicherheitsprobleme zu adressieren. Der TRACTOR-Projektleiter Dan Wallach stellt fest, dass gegenwärtige KI-Chatbots bereits in der Lage sind, C-Code in Rust zu übersetzen, jedoch sei die Qualität der Ergebnisse variabel. Daher liegt die Herausforderung in der Weiterentwicklung der KI-Technologie, um die automatische Übersetzung zu verbessern, insbesondere bei den zentralen Programmkonstrukten.

Wallach beschreibt Rust als eine Programmiersprache, die Programmierer zwingt, ihre Arbeit sorgfältig zu gestalten. Die Regeln, die Rust vorgibt, können anfangs als Einschränkung empfunden werden, bieten jedoch eine Art von Freiheit, da sie den Entwicklern ermöglichen, sich auf die wesentlichen Aspekte der Programmierung zu konzentrieren, ohne sich um die typischen Speicherverwaltungsprobleme kümmern zu müssen.

Das TRACTOR-Projekt wird auch öffentliche Wettbewerbe veranstalten, um innovative Vorschläge zu sammeln und die Fähigkeiten der eingereichten Lösungen zu bewerten. Interessierte haben bis zum 19. August die Möglichkeit, ihre Vorschläge bei der DARPA einzureichen, und die Präsentation der Einreichungen ist für den 26. August geplant. Damit könnte das TRACTOR-Projekt einen bedeutenden Schritt zur Verbesserung der Software-Sicherheit und zur Reduzierung von Speicherfehlern in der Programmierung darstellen.

KI: Kollaps droht wegen KI-generierter Trainingsdaten

In der aktuellen Diskussion über künstliche Intelligenz (KI) und deren Training ist ein alarmierendes Phänomen aufgekommen: Die Gefahr, dass KI-Modelle an sich selbst ersticken, wenn sie mit Daten gefüttert werden, die ebenfalls von KIs generiert wurden. Forscher der Rice Universität in Houston, Texas, haben in ihrer Studie „Self-Consuming Generative Models Go MAD“ untersucht, wie sich die Qualität dieser Modelle über Generationen hinweg verschlechtert, wenn sie ständig mit ihren eigenen generierten Inhalten trainiert werden.

Die Studie konzentriert sich insbesondere auf populäre generative Bildmodelle wie DALL·E 3, Midjourney und Stable Diffusion. Die Ergebnisse zeigen, dass die Qualität der generierten Bilder nach mehreren Trainingszyklen stark abnimmt, was als „Modellkollaps“ oder, treffender, als „Model Autophagy Disorder“ (MAD) bezeichnet wird. Richard Baraniuk, Professor für Elektrotechnik und Computertechnik an der Rice-Universität, erklärt, dass sich durch ständiges Training mit synthetischen Daten eine Feedbackschleife bildet, die die Modelle irreparabel schädigen kann. Diese Problematik erinnert an den Rinderwahnsinn, eine neurodegenerative Krankheit, die durch das Füttern von Kühen mit infiziertem Fleisch verursacht wird.

Um das Problem zu illustrieren, haben die Forscher drei Szenarien untersucht, in denen KI-Modelle selbst konsumierende Trainingsschleifen durchlaufen. In der vollsynthetischen Schleife werden neue Generationen ausschließlich mit synthetischen Daten trainiert, die aus den Ausgaben vorheriger Generationen stammen. In der synthetischen Verstärkungsschleife werden sowohl synthetische als auch reale Daten verwendet, während in der frischen Datenschleife neue Modelle mit einer Mischung aus alten synthetischen und frischen realen Daten trainiert werden. Die Studien zeigen, dass die Modelle mit jeder Generation zunehmend verzerrte Ergebnisse liefern, insbesondere wenn sie nicht mit neuen, realen Daten gefüttert werden.

Ein weiteres Problem, das die Forscher identifiziert haben, ist die „Rosinenpickerei“ im Datenmaterial, das für das Training verwendet wird. Oft neigen Menschen dazu, selektiv Inhalte auszuwählen, die ein bestimmtes Bild vermitteln. Dies führt dazu, dass KI-Modelle falsche Annahmen über die Realität entwickeln. So könnte eine KI beispielsweise annehmen, dass alle Pflanzen Blumen sind oder dass Menschen immer lächeln. Diese fehlerhaften Annahmen führen dazu, dass die generierten Bilder immer unrealistischer werden und bestimmte Motive nicht mehr adäquat darstellen können.

Ein zentraler Punkt in der Diskussion ist die Notwendigkeit einer transparenten Kennzeichnung von KI-generierten Inhalten. Entwickler müssen sicherstellen, dass sie keine KI-Daten zum Training zukünftiger Modelle verwenden, um die Qualität und Funktionalität ihrer KI-Generatoren langfristig zu gewährleisten. Es ist wichtig, Standards zu schaffen, um die Verwendung von KI-generierten Inhalten zu regulieren und sicherzustellen, dass menschliche Inhalte nicht an Wert verlieren. Die Debatte über die Entlohnung und den Wert von menschlich produzierten Inhalten wird dadurch neu entfacht, da klar wird, dass sie für das Training von KI-Modellen unverzichtbar sind.

Durch die aktuelle Studienlage wird deutlich, dass das Problem des „Datenrinderwahnsinns“ bereits heute ernst genommen werden muss. KI-Entwickler stehen vor der Herausforderung, ihre Modelle mit qualitativ hochwertigen, menschlichen Daten zu versorgen, um eine langfristige Funktionsfähigkeit und Qualität ihrer KI-Generationen zu gewährleisten.

Verzögerungen bei Nvidias Blackwell B200: Ein Konstruktionsfehler sorgt für Aufschub

In der Welt der Technologie und speziell im Bereich der Künstlichen Intelligenz (KI) steht Nvidia mit seiner neuesten GPU-Generation, dem Blackwell B200, im Fokus. Die Erwartungshaltung war hoch, da Nvidia-Chef Jensen Huang den Chip als „Antrieb einer neuen industriellen Revolution“ anpries. Nun jedoch müssen Unternehmen wie Microsoft, Google und Meta, die bereits Chips im Wert von mehreren Milliarden US-Dollar vorbestellt haben, auf eine verspätete Markteinführung warten.

Der Grund für diese Verzögerung liegt in einem Konstruktionsfehler, der laut Berichten von The Information „ungewöhnlich spät im Produktionsprozess“ entdeckt wurde. Diese Entdeckung bedeutet, dass der Produktionsstart des Blackwell B200 um mindestens drei Monate verschoben wird, möglicherweise sogar länger. Nvidia selbst hat auf die Berichterstattung reagiert, indem sie bestätigten, dass die Chipproduktion im zweiten Halbjahr hochgefahren werden soll, jedoch keine weiteren Details zu den Gerüchten preisgaben.

<p

Dieser Artikel wurde durch eine KI generiert und dient lediglich der Unterhaltung. Dieser Artikel soll aufzeigen, was durch künstliche Intelligenz möglich ist.