Morgendlicher Blogbeitrag – KDB-Tech-Update
Guten Morgen, liebe Leserinnen und Leser! Willkommen zum morgendlichen KDB-Tech-Update. Heute haben wir wieder interessante Themen für euch zusammengestellt. Wir berichten über die Gefahren von Deepfakes beim Romance-Scamming, den Einfluss von künstlicher Intelligenz auf unsere Entscheidungen, den neuen Atlas-Roboter von Boston Dynamics, den API-Zugriff auf den KI-Bildgenerator Stable Diffusion 3, den laufenden Lernprozess des humanoiden Roboters Digit, die Entfernung von WhatsApp und Threads aus dem chinesischen App Store, die verbesserte Version von Llama bei Meta AI, die neuen Belichtungsanlagen von Intel und das ungewollte Installieren der Copilot-App durch ein Edge-Update von Microsoft. Los geht’s!
Falsche Gesichter, echte Gefühle: Wie Betrüger Deepfakes für Romance-Scams nutzen
Immer mehr Betrüger nutzen Deepfakes, um ihre Opfer beim Romance-Scamming hereinzulegen. Mit Hilfe von Face-Swapping-Apps können sie ihren Opfern falsche Identitäten vorgaukeln. Dieser Artikel berichtet über die Machenschaften der sogenannten „Yahoo Boys“, organisierte Cyberkriminelle aus Nigeria, die Frauen online unter falscher Identität vorgaukeln, verliebt zu sein, um dann Geld von ihnen zu erpressen. Früher haben die Betrüger vor allem gefälschte Profile in sozialen Medien und auf Datingportalen genutzt, um ihre Opfer anzulocken. Doch seit etwa zwei Jahren experimentieren sie vermehrt mit Deepfakes. Anstatt vorbereitete Videos zu verwenden, erstellen sie nun Deepfakes in Echtzeit. Sie flirten mit ihren Opfern unter falscher Identität und bitten sie dann irgendwann um Geld, indem sie vorgeben, in einen Unfall oder ähnliches verwickelt zu sein.
Die Betrüger gehen offen mit ihren Methoden um und tauschen ihre Tricks untereinander aus. Auf Plattformen wie TikTok kann man Videos finden, in denen sie ihre Vorgehensweise vorführen, um sie anderen Kriminellen zu verkaufen. Eine Methode besteht darin, zwei Smartphones zu nutzen. Der Betrüger ruft sein Opfer mit einem Smartphone an, während er mit der Rückkamera des anderen Smartphones ein Face-Swapping-App verwendet, um sein Aussehen zu ändern. Eine andere Methode besteht darin, einen Laptop mit einer Webcam zu verwenden, um das Gesicht des Betrügers aufzunehmen und mit Hilfe einer Software zu verändern. Das Opfer sieht dabei nur die Deepfake-Version des Gesichts.
Die Betrüger nutzen gängige Face-Swapping-Apps, die ursprünglich für Unterhaltungszwecke entwickelt wurden. Je besser die Software, desto überzeugender sind die Deepfakes. Auch wenn die Übertragungsqualität bei Videokonferenzen oft schlecht ist und Glitches auftreten, können die Betrüger ihre Opfer dennoch täuschen. Laut Wired haben die Deepfake-Technologie in den letzten zwei Jahren große Fortschritte gemacht, da sie mittlerweile auch Künstliche Intelligenz einsetzen. Es ist zu erwarten, dass sich die Qualität der Deepfakes in den nächsten Jahren weiter verbessern wird.
Insgesamt zeigt dieser Artikel, wie Betrüger Deepfakes nutzen, um beim Romance-Scamming ihre Opfer zu täuschen und Geld von ihnen zu erpressen. Es wird deutlich, dass die Betrüger immer raffiniertere Methoden entwickeln, um ihre Opfer zu manipulieren und dass es für die Opfer immer schwieriger wird, die Täuschung zu erkennen.
Wie KI langfristig unsere Entscheidungen beeinflusst
Der Artikel behandelt die Frage, wie künstliche Intelligenz (KI) langfristig unsere Entscheidungsfähigkeit beeinflusst. Der amerikanische Psychologe Joe Árvai warnt vor den Auswirkungen der KI auf unsere Entscheidungen. Als Professor für Psychologie am USC Dornsife College beschäftigt er sich mit der Frage, wie Menschen Entscheidungen treffen.
Ein Beispiel für den Einfluss der KI auf unsere Entscheidungen ist die App Arc Search von The Browser Company. Diese App übernimmt das Browsen für den Nutzer und durchsucht verschiedene Websites nach Informationen. Wenn man beispielsweise ein Rezept für einen Pizzateig sucht, gibt man dies in die App ein und diese wählt ein passendes Rezept aus und erstellt eine Webseite mit den Zutaten und der Zubereitung.
Auf den ersten Blick mag dies eine Arbeitserleichterung sein, da einem die App das Suchen und Vergleichen von Rezepten abnimmt. Doch laut Árvai führt dies langfristig dazu, dass uns immer mehr Entscheidungen von der KI abgenommen werden. Die KI entscheidet, welche Websites besucht werden und welches Rezept ausgewählt wird. Dadurch könnten wir unsere Fähigkeit, Entscheidungen zu treffen, verlieren.
Árvai erklärt in seinem Blogbeitrag die drei Schritte, die für eine durchdachte Entscheidung notwendig sind. Er argumentiert, dass die KI Entscheidungen aufgrund von Algorithmen trifft, die wiederum auf voreingenommenen Entscheidungen von Menschen beruhen. Da KI-Modelle oft eine Blackbox sind und ihre Entscheidungsprozesse für die Anwender nicht transparent sind, besteht die Gefahr, dass Menschen ihre Fähigkeit, eigenständig Entscheidungen zu treffen, verlieren.
Es ist wichtig, diese Warnungen zu beachten und sich bewusst zu machen, dass KI zwar viele Vorteile bietet, aber auch potenzielle Risiken mit sich bringt. Es ist notwendig, einen verantwortungsvollen Umgang mit KI zu fördern und sicherzustellen, dass Entscheidungen weiterhin von Menschen getroffen werden, die die Auswirkungen ihrer Entscheidungen verstehen und verantworten können.
Boston Dynamics: Das ist der neue Atlas-Roboter
Der humanoide Atlas-Roboter von Boston Dynamics wird durch eine neue, elektrische Version ersetzt. Diese neue Version wird das erste kommerziell vertriebene Modell des Unternehmens sein und über einige KI-Technologien verfügen. Der hydraulische Atlas-Roboter wird somit in den Ruhestand geschickt.
Der neue Atlas-Roboter wird zusammen mit den Robotern Spot und Stretch das Trio der Roboter von Boston Dynamics vervollständigen, die darauf ausgelegt sind, Menschen bei ihrer Arbeit zu unterstützen. Hyundai spielt eine Doppelrolle in dieser Initiative, indem das Unternehmen sowohl als Investor als auch als einer der ersten Tester des neuen Atlas-Roboters fungiert.
Zu Beginn wird nur eine exklusive Gruppe von Kunden die Möglichkeit haben, den humanoiden Roboter einzusetzen. In dieser Phase ist geplant, den Atlas-Roboter kontinuierlich zu verbessern. Der neue Roboter zeichnet sich durch einen erweiterten Bewegungsbereich aus und kann vielfältigere Objekte greifen als seine Vorgängermodelle. Trotz seiner humanoiden Form wird er nicht durch menschliche Bewegungsmuster eingeschränkt, was ihm ermöglicht, Aufgaben auszuführen, die über die physischen Fähigkeiten des Menschen hinausgehen.
Der neue Atlas-Roboter ist mit verschiedenen KI-Features ausgestattet, darunter Computer-Vision und Reinforcement-Learning. Diese Technologien ermöglichen es ihm, sich flexibel an komplexe Situationen anzupassen und in verschiedenen Umgebungen zu agieren. Laut Boston Dynamics funktioniert dieser Prozess am besten, wenn der Roboter möglichst viele Informationen über das Unternehmen, in dem er eingesetzt wird, sowie über dessen Arbeitsabläufe erhält.
Insgesamt ist der neue Atlas-Roboter ein beeindruckendes Beispiel für die Fortschritte in der Robotertechnologie und Künstlichen Intelligenz. Seine Fähigkeit, menschenähnliche Bewegungen auszuführen und sich an verschiedene Umgebungen anzupassen, macht ihn zu einem vielversprechenden Werkzeug für die Unterstützung von Arbeitskräften in verschiedenen Branchen.
Stable Diffusion 3: Entwickler erhalten API-Zugriff auf neuen KI-Bildgenerator
Stability AI, ein Startup im Bereich der künstlichen Intelligenz, hat kürzlich den API-Zugriff auf seinen neuen KI-Bildgenerator „Stable Diffusion 3“ freigeschaltet. Dabei arbeitet das Unternehmen mit dem API-Plattformanbieter Fireworks AI zusammen, um den Einsatz des Bildgenerators auch in größeren Unternehmen zu ermöglichen.
Stable Diffusion 3 wurde im Februar 2024 vorgestellt und ist die neueste Version des quelloffenen KI-Bildgenerators von Stability AI. Zunächst hatten nur ausgewählte Entwickler:innen Zugang zu einer Preview-Version. Nun können weitere Entwickler:innen über die Stability-AI-Entwicklungsplattform und die API auf den Bildgenerator zugreifen.
Der KI-Bildgenerator Stable Diffusion 3 soll mindestens so gut wie andere bekannte Bildgeneratoren wie Dall-E 3 oder Midjourney V6 sein. Untersuchungen von Nutzer:innen haben ergeben, dass Stable Diffusion 3 in Bezug auf die Eingabe und Umsetzung von Prompts mindestens ebenbürtig ist, wenn nicht sogar überlegen.
Die neue Version des Bildgenerators basiert auf einer multimodalen Diffusion-Transformer-Architektur, die bereits 2022 entwickelt wurde. Diese Architektur ermöglicht nun erstmals eine skalierbare Nutzung des Bildgenerators. Es werden verschiedene Varianten von Stable Diffusion 3 angeboten, die von 800 Millionen bis zu acht Milliarden Parametern reichen. Die größte Variante verfügt derzeit über 3,5 Milliarden Parameter.
Stability AI plant auch die Einführung einer Self-Hosting-Option über eine Stability-AI-Mitgliedschaft. Dadurch wird es möglich sein, Stable Diffusion 3 lokal auf dem eigenen Rechner laufen zu lassen.
Das genaue Datum für die öffentliche Verfügbarkeit von Stable Diffusion 3 wurde noch nicht bekannt gegeben. Mit der API-Öffnung setzt Stability AI jedoch die Verbesserung des KI-Modells fort und bereitet sich auf den offiziellen Release vor.
Neben Stable Diffusion 3 hat das Unternehmen auch eine Betaversion seines KI-Assistenten Stable Assistant vorgestellt. Interessierte können sich für einen Testzugang anmelden.
Digit-Roboter lernt mithilfe von ChatGPT laufen
Der humanoide Roboter Digit, entwickelt von Agility Robotics in Zusammenarbeit mit der University of California, Berkeley, kann mithilfe eines Transformer-Modells auf verschiedenen Oberflächen stabil laufen. Dieses Modell ähnelt den großen Sprachmodellen, die für Chatbots wie ChatGPT verwendet werden. Die Software konnte eigenständig neue Fähigkeiten erlernen, wie zum Beispiel rückwärts zu laufen, obwohl sie dafür nicht explizit trainiert wurde.
Humanoide Roboter sind schon seit den 1970er-Jahren bekannt, jedoch gestaltet sich das Laufen für diese Maschinen als äußerst schwierig. Bisherige Lösungen konnten nur für spezifische Fälle optimiert werden, wie zum Beispiel das Bewältigen eines Hindernis-Parcours durch den Atlas-Roboter von Boston Dynamics. Um diesem Problem entgegenzuwirken, forschen verschiedene Gruppen und Unternehmen an Methoden, bei denen Roboter durch Versuch und Irrtum lernen, die optimalen Bewegungen auszuführen.
In diesem konkreten Fall haben die Forscher von der University of California, Berkeley den Digit-Roboter mithilfe eines neuronalen Netzwerks in Transformer-Architektur gesteuert. Da es jedoch keinen zugänglichen Datensatz über das Gehen von humanoiden Robotern gab, wurde das Netzwerk mittels Verstärkungslernen trainiert. Der Roboter führte zu Beginn zufällige Bewegungssequenzen aus und wurde belohnt, wenn erwünschtes Verhalten, wie das Balancieren oder das Ausführen eines Schrittes, gezeigt wurde. Bei unerwünschtem Verhalten, wie einem Sturz, gab es hingegen eine Bestrafung.
Nach vielen Versuchen konvergierte der Trainingsprozess zu einem neuronalen Netzwerk, das in der Lage war, den Roboter zum Laufen zu bringen. Dieses Transformer-Modell konnte nicht nur in der Simulation, sondern auch in der realen Umgebung, verschiedene Bewegungen ausführen. Es war in der Lage, über unterschiedliches Terrain zu laufen, ohne zu stürzen, und konnte auch mit externen Störungen umgehen. Zudem entwickelte der Roboter neue Verhaltensweisen, wie zum Beispiel das rückwärts Laufen, ohne dafür explizit trainiert worden zu sein.
Die Forscher haben nun vor, den Roboter weiter zu trainieren, um Hindernisse zu überwinden und komplexe Greifbewegungen auszuführen. Das Ergebnis dieser Arbeit bietet vielversprechende Möglichkeiten, um weitere komplexe Fähigkeiten bei humanoiden Robotern zu erlernen.
Apple entfernt WhatsApp und Threads aus dem chinesischen App Store
Apple hat aufgrund einer Aufforderung der zentralen Internetaufsicht in China die Apps von WhatsApp und Threads aus dem chinesischen App Store genommen. Dies erschwert es den Nutzern in China, die Apps des US-Konzerns Meta (früher Facebook) auch über Umwege zu verwenden. Die Aufforderung zur Entfernung der beiden Apps wurde mit Sorgen um die nationale Sicherheit begründet, jedoch wurden keine weiteren Details dazu genannt. Andere Anwendungen von Meta, wie Instagram, Facebook und der Facebook Messenger, bleiben weiterhin im chinesischen App Store verfügbar.
Mit diesem Schritt haben die chinesischen Behörden eine Lücke geschlossen, die es den Nutzern bisher ermöglichte, WhatsApp und Threads trotz der strikten Internetzensur in China zu nutzen. Die Apps konnten auf iOS-Geräte heruntergeladen werden, wurden jedoch von der sogenannten Großen Firewall blockiert. Um diese Blockade zu umgehen, wurde häufig ein VPN-Dienst verwendet. Nun ist dieser Umweg nicht mehr möglich und Nutzer, die WhatsApp und Threads in China verwenden möchten, müssen einen erheblichen Mehraufwand betreiben.
Weder die „Cyberspace-Verwaltung“ Chinas, die die Entfernung der Apps gefordert hat, noch Meta haben bisher zu diesem Schritt Stellung genommen. Die Grundlage für die Sperrung ist eine im Herbst von der chinesischen Regierung beschlossene Regulierung, nach der für ausländische Apps eine Lizenz erteilt werden muss, andernfalls müssen sie entfernt werden. Für neue Software gilt diese Regelung sofort, ältere Programme hatten eine mehrmonatige Schonfrist. Dieses System existiert in China bereits seit langem für Websites, wurde jedoch bisher nicht auf Apps angewendet. Mit der Entfernung von WhatsApp und Threads vollzieht Apple nun eine Kehrtwende in dieser Hinsicht.
Meta AI setzt auf verbesserte Version von Llama
Meta Platforms hat angekündigt, dass sein Chatbot Meta AI jetzt mit einer neuen und verbesserten Version von Llama arbeitet. Die vorherige Version, Meta Llama 2, wurde durch die neue Version, Meta Llama 3, ersetzt. Die Einführung von Llama 3 erfolgte in 14 englischsprachigen Ländern, darunter Australien, Kanada, Singapur und die USA. Weitere Länder sollen folgen.
Meta AI ist ein KI-Assistent, der in verschiedenen Anwendungen von Meta zum Einsatz kommt, insbesondere bei Suchanfragen. Interessierte können den Assistenten auch auf der Webseite meta.ai ausprobieren. Meta gibt an, dass Llama 3 der intelligenteste KI-Assistent ist, den man kostenlos nutzen kann. Llama 3 basiert auf Open Source-Technologie und wurde mit einer größeren Menge an Daten trainiert, was zu einer verbesserten Leistung und Geschwindigkeit führt. Der Assistent soll auch Aufgaben bewältigen können, mit denen er bisher nicht in Berührung gekommen ist.
Es gibt zwei Versionen von Llama 3, eine größere und eine kleinere Variante. Die größere Variante basiert auf 70 Milliarden Parametern und enthält Daten bis Dezember 2023. Die kleinere Variante hingegen hat acht Milliarden Parameter und enthält Daten bis März 2023.
Im Gegensatz zu anderen Chatbots verlinkt Meta AI in seinen Antworten manchmal auf öffentliche Suchmaschinen und bietet auch Quellenangaben, zum Beispiel aus Wikipedia oder Technology Review. Dies ermöglicht den Nutzern, aktuelle und verlässliche Informationen zu erhalten. Meta AI hat sogar auf eine Mitteilung von Google verwiesen, dass Meta Llama 3 nun Teil des Vertex AI Model Garden der Google Cloud ist. Dadurch haben erfahrene Nutzer die Möglichkeit, das LLM (Large Language Model) an ihre eigenen Bedürfnisse anzupassen.
Eine weitere Neuerung ist die Echtzeit-Bildgenerierung, die derzeit nur Nutzern in den USA mit einem Facebook-Konto zur Verfügung steht. Diese Nutzer können auf der meta.ai-Webseite oder in Whatsapp ein Bild bestellen, während sie ihre Eingabe tätigen. Der Assistent erstellt das Bild und passt es basierend auf den Buchstaben, die der Nutzer eingibt, an. Die Qualität der grafischen Ausgaben soll verbessert worden sein, insbesondere im Hinblick auf eingebetteten Text. Darüber hinaus kann die KI auch Standbilder in Animationen umwandeln.
Obwohl Meta AI bereits in der Lage ist, Texte vom Englischen ins Deutsche zu übersetzen, arbeitet der Assistent noch daran, Deutsch zu verstehen. Bei einer Anfrage zur Übersetzung ins Deutsche gab Meta AI zunächst eine deutsche Übersetzung aus, löschte diese jedoch schnell wieder und gab an, dass Deutsch noch nicht vollständig verstanden wird.
Intels High-NA-Chips: Die neuste Belichtungsanlage ist fertig
Intel hat den Bau seiner ersten „serienreifen“ Belichtungsmaschine mit hoher numerischer Apertur (High NA EUV) abgeschlossen. Die Maschine stammt von ASML und steht in Intels Forschungshalbleiterwerk in Hillsboro, Oregon. Derzeit wird die Anlage kalibriert und im kommenden Jahr soll sie bis zu 220 Wafer pro Stunde belichten können.
Das Ziel von Intel ist es, Chips in noch kleineren Strukturen zu erzeugen, nämlich unter 2 Nanometern oder 20 Ångström. Dies ermöglicht einen geringeren Stromverbrauch und die Unterbringung von mehr Transistoren auf derselben Fläche. Darüber hinaus kann die neue Anlage mit höherem Kontrast belichten, was die Belichtungszeit reduziert und somit die Produktion beschleunigt.
Die Belichtung erfolgt mit einer Wellenlänge von 13,5 Nanometern, die auf der Erde in der Natur nicht vorkommt. Die Anlage erzeugt dieses extrem-ultraviolette Licht, indem sie Zinn mittels Laser auf unvorstellbare 220.000 Grad Celsius erhitzt. Das erzeugte Licht wird von einer Maske reflektiert, die das gewünschte Schaltkreismuster darstellt, und dann von exakten Spiegeln von Zeiss auf den Silizium-Wafer gelenkt. Diese Spiegel verkleinern die Auflösung von 13,5 auf 8 nm.
ASML ist das einzige Unternehmen, das diese Technik beherrscht. Die Belichtungsmaschine mit dem Namen Twinscan EXE:5000 hat 350 Millionen Euro gekostet und wurde in 43 Containern aus den Niederlanden geliefert. Sie wiegt mehr als 150 Tonnen. Intel ist der Erstkunde für EXE:5000 und hat bereits das Nachfolgemodell EXE:5200B bestellt.
Mit der Auslieferung der ersten Maschine hat Intel einen zeitlichen Vorsprung vor anderen Chipfertigern wie TSMC und Samsung. Traditionell liefert ASML im ersten Jahr nur eine Handvoll Maschinen aus einer neuen Generation aus und skaliert die Fertigung dann hoch.
Microsoft: Edge-Update kann ungewollt Copilot-App installieren
Microsoft hat kürzlich ein Update für den Webbrowser Microsoft Edge herausgebracht, das fälschlicherweise die Copilot-App mitinstalliert. Das Update mit der Version 123.0.2420.65 wurde seit Ende März verteilt und ist dafür verantwortlich, dass das entsprechende MSIX-Paket auf dem System installiert wird. Dadurch kann in den Windows-Einstellungen unter „Installierte Apps“ der Eintrag „Microsoft chat provider for Copilot in Windows“ auftauchen.
Microsoft betont jedoch, dass dies kein Grund zur Sorge ist, da der „Chat Provider for Copilot“ keinerlei Programmcode oder Prozesse ausführt und auch keine Geräte- oder Umgebungsdaten analysiert oder überträgt. Das Paket ist eigentlich dazu gedacht, bestimmte Windows-Geräte auf die zukünftige Aktivierung des Windows Copilot vorzubereiten, jedoch nicht für alle. Die installierte Komponente aktiviert und installiert den Copilot nicht vollständig.
Als Lösung für das Problem wird die „Chat Provider für Copilot“-Komponente von Geräten entfernt, für die die Aktivierung und Installation des Copilot nicht vorgesehen ist. Dies betrifft hauptsächlich Windows-Server-Geräte. Betroffen sind Windows 11 23H2, 22H2 und 21H2 sowie Windows 10 22H2 und der Windows Server 2022.
Es wird erwartet, dass Microsoft das Problem in Zukunft vollständig beheben wird, um ungewollte Installationen der Copilot-App zu verhindern.
Das war unser morgendliches KDB-Tech-Update. Wir hoffen, dass euch die Themen interessiert haben und ihr etwas Neues dazu lernen konntet. Bleibt gespannt auf weitere Neuigkeiten aus der Tech-Welt und bis zum nächsten Update!