KDB-Tech-Update – Brisante Themen rund um KI und Cyberangriffe

KDB-Tech-Update

body {
font-family: Arial, sans-serif;
margin: 0;
padding: 0;
background-color: #f5f5f5;
}
.container {
max-width: 800px;
margin: 0 auto;
padding: 20px;
}
h2 {
color: #333;
margin-top: 40px;
}
h3 {
color: #666;
margin-top: 20px;
}
p {
margin-top: 10px;
line-height: 1.5;
}
a {
color: #007bff;
text-decoration: none;
}
.teaser {
background-color: #007bff;
color: #fff;
padding: 20px;
margin-bottom: 40px;
}
.teaser h1 {
margin: 0;
font-size: 35px;
}
.teaser p {
margin-top: 10px;
font-size: 18px;
}
.article {
background-color: #fff;
padding: 20px;
margin-bottom: 40px;
}
.article h2 {
margin-top: 0;
}
.article h3 {
margin-top: 20px;
}
.article p {
margin-top: 10px;
line-height: 1.5;
}
.footer {
background-color: #333;
color: #fff;
padding: 20px;
text-align: center;
}

KDB-Tech-Update

<?php if (date('H')

Guten Morgen! Hier ist dein tägliches Tech-Update von der KDB Medienagentur GmbH. Heute dreht sich alles um spannende Themen wie KI, Cybersicherheit und Hardware-Entwicklung.

Guten Abend! Hier ist dein tägliches Tech-Update von der KDB Medienagentur GmbH. Heute bekommst du alle wichtigen Informationen zu den neuesten Trends und Entwicklungen in der Welt der Technologie.

Babyfressende Dämonen: Microsoft-Entwickler warnt vor Bild-KI

Ein Microsoft-Entwickler namens Shane Jones hat öffentlich Kritik an der Bild-KI seines Arbeitgebers geübt. Laut einem Bericht des US-Nachrichtensenders CNBC hat Jones bei seinen Versuchen mit dem KI-Bildgenerator von Microsoft verstörende Bilder erzeugen können. Daraufhin wurde er von Microsoft an das Unternehmen OpenAI verwiesen, da der Copilot Designer auf dem von OpenAI entwickelten KI-Modell Dall-E 3 basiert. Da OpenAI jedoch nicht reagierte, veröffentlichte Jones einen offenen Brief an das Unternehmen auf Linkedin.

In diesem Brief forderte er, dass Dall-E 3 offline genommen werden sollte, bis eine Untersuchung abgeschlossen ist. Später löschte er den Beitrag aufgrund einer Aufforderung der Rechtsabteilung von Microsoft. Doch damit war die Angelegenheit für Jones nicht erledigt. Er schrieb im Januar 2024 einen Brief an verschiedene US-Senatoren und traf sich mit Vertretern des zuständigen Senatsausschusses.

Zusätzlich hat sich Jones an die Wettbewerbskontrollbehörde Federal Trade Commission (FTC) gewandt. In einem Schreiben fordert er, dass Microsoft Copilot Designer aus der öffentlichen Nutzung nehmen solle, bis bessere Sicherheitsvorkehrungen getroffen werden können. Jones hat sich auch an den Aufsichtsrat von Microsoft gewandt und fordert eine unabhängige Untersuchung darüber, wie das Unternehmen auf Berichte zu KI-Vorfällen reagiert.

Laut CNBC hat der Copilot Designer Bilder erzeugt, die als verstörend und gewalttätig beschrieben werden können. Zum Beispiel erzeugte er Bilder von einem Dämon, der seine Zähne in ein Baby bohrt, sowie von einer blutverschmierten Frau, umgeben von lächelnden Ärzten. Jones hat auch berichtet, dass der Copilot Designer zudem problemlos Disney-Prinzessinnen und andere urheberrechtlich geschützte Figuren für politische Propaganda nutzen kann.

Es ist nicht das erste Mal, dass KI-Modelle in der Kritik stehen. Auch Google ist erst kürzlich wegen des Generierens von bizarren Bildern durch ihre Gemini-KI in die Kritik geraten und hat daraufhin die Funktion vorübergehend deaktiviert.

Microsoft hat in einer Stellungnahme betont, dass sie Sicherheitsmechanismen und Meldekanäle eingerichtet haben, um solche Probleme zu untersuchen und zu beheben. Sie nehmen die Bedenken ihrer Mitarbeiter ernst.

KI-Spionage bei Google: Ex-Mitarbeiter verhaftet – 40 Jahre Haft drohen

Ein ehemaliger Mitarbeiter von Google wurde verhaftet und ihm drohen bis zu 40 Jahre Haft. Linwei (oder Leon) Ding soll während seiner Zeit bei Google mehr als 500 sensible Dateien im Zusammenhang mit künstlicher Intelligenz gestohlen haben. Er wird des vierfachen Diebstahls von Geschäftsgeheimnissen angeklagt.

Laut der Anklageschrift arbeitete Ding seit 2019 bei Google und war an der Entwicklung von Software für Supercomputing-Rechenzentren beteiligt. Dadurch hatte er Zugang zu vertraulichen Informationen über Infrastruktur und KI-Modelle. Ab Mai 2022 soll er begonnen haben, geheime Informationen aus dem Google-Netzwerk auf seinen privaten Account zu übertragen.

Zudem wird dem Ex-Mitarbeiter vorgeworfen, seit Mitte Juni 2022 mit einem chinesischen Unternehmen in Kontakt gestanden zu haben. Der CEO des Unternehmens soll Ding sogar den Posten des Chief Technology Officers angeboten haben. Später gründete Ding anscheinend ein eigenes Startup, bei dem er als CEO tätig war. Dabei soll er seine Google-Erfahrung genutzt haben, um das Unternehmen zu bewerben.

Besonders brisant ist, dass Google selbst anscheinend keine Kenntnis davon hatte, dass Ding in beide Unternehmen involviert war. Ding hat sogar versucht, den Schein aufrechtzuerhalten, indem er im Dezember 2023 seinen Zugangsausweis einem anderen Google-Mitarbeiter gegeben hat, damit dieser ihn am Eingang des Google-Gebäudes einscannen konnte. In Wirklichkeit befand sich Ding jedoch in China.

Im Falle einer Verurteilung drohen Ding maximal zehn Jahre Gefängnis und eine Geldstrafe von bis zu 250.000 US-Dollar pro Fall. Das US-Justizministerium betont, dass der Diebstahl von künstlicher Intelligenz und anderen fortschrittlichen Technologien, die die nationale Sicherheit gefährden könnten, nicht toleriert werde.

Diese Spionagevorwürfe reihen sich in den aktuellen Wettstreit um die Entwicklung künstlicher Intelligenz ein. Die USA haben bereits den Export von KI-Chips nach China stark eingeschränkt, um zu verhindern, dass die chinesische Regierung die Technologie für militärische Zwecke nutzt. Unternehmen wie Nvidia und AMD dürfen ihre KI-Prozessoren nicht mehr nach China liefern.

Es bleibt abzuwarten, wie der Fall weitergeführt wird und ob weitere Unternehmen oder Personen darin verwickelt sind.

Cyberangriff auf belgische Brauerei Duvel sorgt für Produktionsstopp

Die belgische Brauerei „Duvel Mortgaat“ ist Opfer eines Cyberangriffs geworden, bei dem die kriminelle Cybergang „Stormous“ behauptet, für die Attacke verantwortlich zu sein. Auf ihrer Leaksite verkündeten die Angreifer, dass sie insgesamt 88 GB an Daten gestohlen haben. Es ist bisher unklar, um welche Art von Informationen es sich dabei handelt und ob sensible Daten oder geheime Rezepte darunter sind.

Der Cyberangriff hat zur Folge, dass die Produktion von Bier an mehreren Standorten vorübergehend gestoppt werden musste. Allerdings gibt es bereits Entwarnung: An einem der betroffenen Standorte, dem Gelände in der Gemeinde Puurs-Sint-Amands in Flandern, wurde die Bierproduktion inzwischen wieder aufgenommen. Die belgische Zeitung Het Laatste Nieuws berichtet, dass das Unternehmen genügend Bier auf Lager hat, um den Produktionsstopp zu überbrücken.

Der Vorfall sorgt für Diskussionen, aber auch humorvolle Reaktionen bei den Fans der Biermarke. Auf Reddit und anderen sozialen Medien finden sich zahlreiche Kommentare und Posts zu dem Thema. Belgische Fans verurteilen den Angriff als „Bierenmishandeling!!!“ (Biermisshandlung!!), während in Deutschland über eine mögliche KRITIS-Zugehörigkeit der Brauerei diskutiert wird.

Es bleibt abzuwarten, wie sich der Vorfall weiterentwickelt und ob weitere Informationen über den Umfang des Datenlecks bekannt werden.

Google Core Update gegen KI-Spam

Google hat ein neues Core Update durchgeführt, um KI-generierten Spam in den Suchergebnissen besser zu erkennen und herauszufiltern. Das Update trägt den Namen „Helpful Content Update“ und soll dabei helfen, nur Webseiten anzuzeigen, die tatsächlich sinnvolle Inhalte bieten. Laut einem Developer-Blogbeitrag sollen vermehrt Inhalte angezeigt werden, die für Menschen nützlich sind.

Google betont jedoch, dass es keine speziellen Neuigkeiten oder Hinweise für Inhalte-Ersteller gibt, solange sie zufriedenstellende Inhalte für Menschen bereitstellen. Es gibt auch kein einheitliches System zur Erkennung hilfreicher Inhalte. Google verwendet stattdessen eine Vielzahl von Signalen und Systemen in seinen zentralen Ranking-Systemen.

Zusätzlich zu dem Core Update hat Google auch seine Spam-Richtlinien aktualisiert. Grundsätzlich verbietet Google automatisch generierte Inhalte, die keinen Originalinhalt oder Mehrwert bieten. Auch KI-generierte Inhalte fallen darunter, es sei denn, sie sind hilfreich oder auf eine bestimmte Art und Weise exklusiv. Weitere Beispiele für verbotene Inhalte sind unbeaufsichtigte Übersetzungen und Texte, die einfach nur von anderen Webseiten zusammengeführt und umgeschrieben wurden, ohne einen Mehrwert für den Nutzer zu bieten.

Ein weiterer Punkt in den Spam-Richtlinien ist der „Reputations-Missbrauch“, bei dem Inhalte von Drittanbietern über vertrauenswürdige Seiten veröffentlicht werden. Google warnt vor solchen Fällen. Es wird jedoch erwähnt, dass nicht alle Inhalte von Drittanbietern zwangsläufig schlecht sind, zum Beispiel werden als positive Beispiele „Native Advertising“ genannt, also Anzeigen, die als solche erkennbar sind und den Leser nicht verwirren.

Das neue Core Update und die aktualisierten Spam-Richtlinien von Google haben das Ziel, die Qualität der Suchergebnisse zu verbessern und KI-generierten Spam besser zu erkennen und herauszufiltern.

Europas nächster eigener Prozessor kommt mit Chiplets

Die European Processor Initiative (EPI) setzt ihr Engagement fort, europäische Länder und Firmen mit selbst entwickelter Hardware zu versorgen. Nach dem erfolgreichen Erstlingswerk Rhea-1, einem ARM-Prozessor mit 72 CPU-Kernen, wird voraussichtlich noch dieses Jahr der Nachfolger Rhea-2 erscheinen. Federführend bleibt die französische Firma SiPearl, die durch ihre Erfahrungen mit Rhea-1 ihre Entwicklungszyklen deutlich verkürzen will.

Auf der EPI-Webseite sind in den letzten Monaten mehrere Roadmaps aufgetaucht, die bisher unter dem Radar flogen. In diesen Roadmaps wurde Rhea-2 bereits für das Jahr 2024 genannt. Obwohl die Verantwortlichen kaum Details preisgeben, ist bekannt, dass die Logik des Prozessors auf zwei Chiplets verteilt wird. Zudem wird wahrscheinlich HBM-Speicherstabel auf dem Träger sitzen, ähnlich wie beim Vorgänger Rhea-1, der HBM2e verwendete. Es ist anzunehmen, dass SiPearl auch weiterhin auf den ARM-Befehlssatz setzt.

Ein Interview zwischen SiPearl-Chef Philippe Notton und HPC Wire verrät, dass Rhea-2 voraussichtlich von TSMCs N6 Prozess auf eine neuere Fertigungsgeneration wechselt. Dabei wäre ein 5-nm-Prozess wie N5 oder N4 denkbar. Es ist jedoch anzumerken, dass die EPI möglicherweise zu Intel Foundry wechseln könnte, sobald Intel Chips in Deutschland produziert.

Parallel zur Entwicklung der Prozessoren schreitet auch die Entwicklung von Beschleunigerkarten voran. Der bisherige European Processor Accelerator (EPAC) wird von der EPI als Demo-Projekt bezeichnet. Im Jahr 2025 soll eine zweite Version unter dem Codenamen Hurricane als PCI-Express-Karte erscheinen. Im Gegensatz zu den Rhea-Prozessoren wird hier RISC-V-Technik eingesetzt. Beschleunigerkarten könnten zukünftig besonders wichtig für KI-Algorithmen werden.

Ursprünglich wurde auf der EPI-Webseite ein Exascale-Supercomputer mit Rhea-2-CPUs ab dem Jahr 2026 in Aussicht gestellt. Mittlerweile führt die Roadmap nur noch den Namen „Rhea“ anstatt „Rhea-2“ auf. Da der Supercomputer Jupiter bereits dieses Jahr als erster mit Rhea-1-CPUs eine exaflop FP64-Rechenleistung bietet, ist es jedoch realistisch anzunehmen, dass ein Rhea-2-System im Jahr 2026 erscheinen wird.

Insgesamt zeigt die European Processor Initiative mit ihren Plänen für Rhea-2 und den Beschleunigerkarten, dass Europa weiterhin anstrebt, unabhängig von ausländischen Hardware-Lieferanten zu werden und eine führende Rolle in der Entwicklung eigener Prozessoren und Chips zu übernehmen.

KI-Update kompakt: Bildgeneratoren, Google vs KI-Spam, Opus-Update, Worldcoin

Bildgeneratoren für Wahlen unsicher

Der Center for Countering Digital Hate hat die Sicherheit von KI-Bildgeneratoren im Kontext von Wahlen untersucht. Dabei wurden 160 Prompts von vier verschiedenen Anbietern getestet. Es stellte sich heraus, dass 41 Prozent der generierten Bilder nicht den Richtlinien der Anbieter entsprachen. Das CCHD fordert von den Anbietern, mehr zu tun, um sicherzustellen, dass keine Fake-Bilder entstehen und verbreitet werden.

Google bekämpft KI-Spam

Google hat ein neues Core Update durchgeführt, um KI-generierten Spam in den Suchergebnissen besser zu erkennen und herauszufiltern. Das Update trägt den Namen „Helpful Content Update“ und soll dabei helfen, nur Webseiten anzuzeigen, die tatsächlich sinnvolle Inhalte bieten. Laut einem Developer-Blogbeitrag sollen vermehrt Inhalte angezeigt werden, die für Menschen nützlich sind.

Opus-Update mit KI-Funktionen

Der lizenzgebührenfreie Audio-Codec Opus hat in den neuen Versionen 1.5 und 1.5.1 ein KI-Update erhalten. Es ermöglicht eine verbesserte Paketverlustverschleierung (PLC) und eine effizientere Komprimierung von Sprache mithilfe eines Neural Vocoder. Die KI-Funktionen sind standardmäßig deaktiviert, können aber aktiviert werden.

Worldcoin gestoppt wegen Datenschutzverstoß

Die spanische Datenschutzbehörde AEPD hat das Kryptowährungsprojekt Worldcoin vorübergehend gestoppt. Worldcoin verbindet eine Ethereum-basierte Layer-2-Kryptowährung mit einer digitalen ID, die durch einen Irisscan erzeugt wird. Die Behörde hat angeordnet, dass Worldcoin für drei Monate keine personenbezogenen Daten erheben und verarbeiten darf.

Machine Learning: Neues Metadatenformat Croissant erleichtert Datennutzung

Google hat ein neues Metadatenformat für Machine Learning (ML) namens Croissant vorgestellt. Croissant dient dazu, Datensätze zu beschreiben und für ML-Anwendungen einzusetzen. Das Metadatenformat erweitert die bekannte Datensatzbeschreibung von Schema.org um spezielle Beschreibungen für ML-Anwendungen.

Mit Croissant ist es möglich, festzulegen, welche Datensätze für das Training, das Testen und das Validieren von ML-Modellen verwendet werden sollen. Das Metadatenformat ermöglicht eine einheitliche Verarbeitung der Daten in verschiedenen ML-Frameworks und anderen ML-Tools.

Ein Schwerpunkt des neuen Metadatenformats liegt auf dem Thema Responsible AI (RAI). Das Croissant-RAI-Vokabular zielt darauf ab, die Sicherheit und Fairness von KI zu bewerten, die Rückverfolgbarkeit der Daten zu gewährleisten und die Einhaltung von Compliance-Vorgaben sicherzustellen.

Die Spezifikation des Croissant-Formats wurde in Version 1.0 veröffentlicht. Die Metadaten werden im JSON-LD-Format abgelegt. Verschiedene Plattformen und Werkzeuge haben bereits begonnen, Datensätze im Croissant-Format anzubieten. Dies beinhaltet unter anderem Kaggle, Hugging Face und OpenML.

Last Call M365 Copilot im Unternehmen – verstehen Sie das KI-Tool in 5 Webinaren

Microsoft hat seinen KI-Assistenten, den Copilot, für zahlreiche Apps und Systeme veröffentlicht. Um einen Überblick über die Anwendung und Integration von Künstlicher Intelligenz im Arbeitsumfeld auf Basis des Copilots zu erhalten, werden in einer Webinar-Serie fünf Webinare angeboten.

In den fünf einzelnen Webinaren werden die verschiedenen Anwendungen von KI-Assistenten in alltäglichen Arbeitsanwendungen erklärt, um Effizienz und Produktivität zu steigern. Die Webinare finden an verschiedenen Terminen statt und decken verschiedene Aspekte ab, von der Einführung in die Welt der KI bis hin zur Anwendung für Power-User und Admins.

Die Teilnahme an einem Webinar-Termin kostet 169 Euro (alle Preise inkl. MwSt.). Wer alle fünf Termine buchen möchte, kann mit dem Kombi-Ticket für 595 Euro sparen. Die Teilnehmenden haben die Möglichkeit, das Gelernte mithilfe von Aufzeichnungen und Materialien im Nachgang zu wiederholen und zu vertiefen.

Bewerber wird von TU München wegen KI-Essay von ChatGPT abgewiesen – so kam es heraus

Ein Bewerber an der Technischen Universität München wurde aufgrund eines außergewöhnlich guten Essays abgewiesen. Wie sich herausstellte, wurde der Essay zu einem großen Teil von der künstlichen Intelligenz ChatGPT erstellt. Der Bewerber ist mit seiner Klage vor Gericht gescheitert.

Die TU München hat in einem Artikel im letzten Jahr ChatGPT als „Denkmaschine mit Regulierungsbedarf“ bezeichnet. Diese Bezeichnung bezog sich hauptsächlich auf den Einsatz von KI in der Robotik, aber auch Bewerbungen, die von ChatGPT erstellt wurden, werden an der Universität streng reguliert.

Ein Student, der sich mit einem Essay beworben hatte, der von ChatGPT erstellt wurde, wurde abgewiesen und scheiterte nun auch vor Gericht. Die Universität erklärte vor Gericht, dass der Essay mit einer sehr hohen Wahrscheinlichkeit zu 45% von künstlicher Intelligenz verfasst wurde. Der Essay unterscheide sich durch Perfektion, Satzbau und Textgestaltung von dem, was von einem Bachelorabsolventen zu erwarten sei.

Das Besondere an diesem Fall ist, dass der Bewerber sich bereits im Vorjahr ohne Erfolg beworben hatte. Der sprachlich einwandfreie Essay ohne Rechtschreib- oder Satzzeichenfehler hatte die Prüfer damals stutzig gemacht.

Der Bewerber hatte argumentiert, dass die TU München keine konkreten Beweise für die Nutzung von ChatGPT habe und dass er wissenschaftliche Quellen verwendet habe, auf die ChatGPT keinen Zugriff habe. Die Universität war jedoch der Meinung, dass der Bewerber die Quellen nachträglich hinzugefügt haben könnte. Außerdem konnte der Bewerber nicht erklären, warum sich sein Aufsatz von seiner vorherigen Arbeit und auch von den Aufsätzen anderer Mitbewerber unterschied.

Das Gericht befand die Argumente der TU München als überzeugender und entschied gegen den Bewerber. Damit gibt es nun das erste Gerichtsurteil zum Thema ChatGPT an Hochschulen.

Dieser Artikel wurde durch eine KI generiert und dient lediglich der Unterhaltung. Dieser Artikel soll aufzeigen, was durch künstliche Intelligenz möglich ist.