Zugegeben, die Entwicklerkonferenz WeAreDevelopers in Berlin liegt schon eine Weile zurück. Das Thema aber, mit dem ich mich dort beschäftigt habe, hat von seiner Aktualität nichts verloren. Im Gegenteil: Mehr und mehr werden wir mit der Künstlichen Intelligenz und all seinen Möglichkeiten und Herausforderungen konfrontiert. Genau davon handelt dieser Beitrag.
Ich dachte ja immer, das CloudFest im Europapark Rust wäre ein Event mit mittlerweile gigantischen Ausmaßen. Doch die WeAreDevelopers Entwicklerkonferenz Mitte Juli übertraf meine diesbezüglichen Vorstellungen bei weitem. Dort tummelten sich weit mehr als 10.000 Menschen, die allesamt lernen wollten über die Möglichkeiten der Software-Entwicklung im Allgemeinen und den Chancen der KI im Speziellen. Für Intel ein ausreichender Grund, gleich doppelt in Berlin vertreten zu sein.
Intel AI Summit in Berlin, dritte Ausgabe
Das begannt mit einer weiteren Ausgabe des Intel AI Summit, auf dem ausführlich der Themenkomplex „Intel und die Künstliche Intelligenz“ besprochen wurde. Anwesend waren wie immer diverse Intel-Vertreter (Ralph de Wargny, Stephan Gillich und andere), die Technologiepartner Red Hat und Microsoft sowie drei der zahlreichen Startup-Unternehmen, die Teil des Intel Liftoff-Programms sind. Dazu gehörten in diesem Fall Ultralytics und TurinTech AI. Der Andrang war groß, das Interesse ebenfalls. Was vor allem eines zeigt: Das Thema KI steht bei vielen Entwickler:innen ganz weit oben auf der Agenda.
Das wurde während der nächsten Tage im CityCube der Messe Berlin ebenfalls deutlich. Dort fand die Entwicklerkonferenz WeAreDevelopers statt, und das auf mehreren Ebenen, wo sich zahlreiche Anbieter präsentierten und teils sogar zelebrierten. Intel war einer davon, und klar, an dessen Stand drehte sich alles um das Thema Künstliche Intelligenz. Das wurde vor allem von drei anwesenden KI-Startups visualisiert. Dazu gehörten TurinTech AI und Ultralytics. Deren KI-Software durfte ich mir ein wenig näher erläutern lassen, woraus die folgenden Videos entstanden sind. Zudem habe ich mit Karin Schweizer von Microsoft über deren Technologiepartnerschaft mit Intel gesprochen, ebenfalls im Videoformat.
Mike Basios (TurinTech AI) über skalierbare LLM-Modelle und Cloud-Transfers
Von Mike Basios wollte ich wissen, was es mit der Verbindung zwischen TurinTech AI und Intel auf sich hat. Zum einen hilft Intel mit seiner Entwicklerplattform Intel Tiber Developer Cloud KI-Startups wie TurinTech AI, ihre Softwarelösungen schneller zu skalieren. Damit kann das KI-Startup innerhalb einer sicheren Umgebung zahlreiche LLM-Modelle seinen Anwender:innen global zur Verfügung stellen. Hierfür bietet TurinTech AI’s Plattform Artemis eine automatisierte Code-Optimierung, die Code-Ineffizienzen aufspürt und die Anwendung insgesamt verbessert, was Laufzeiten und CPU-Nutzung betrifft. Die Demonstration am Intel-Stand zeigte, wie Artemis mithilfe eines Large Language-Modells die Softwareentwicklung effizienter gestalten kann.
Hierbei werden sie vom KI-Beschleuniger Intel Gaudi 2 sowie passenden KI-Softwarebibliotheken unterstützt. Für möglichst effiziente und skalierende Machine Learning-Prozesse kommt zudem das Intel OpenVINO Toolkit zum Einsatz. Obendrein nutzt TurinTech AI für das Optimieren seiner Software weitere Intel-Tools. Dazu gehören unter anderem Intel oneAPI, Intel oneMKL sowie Intel oneDAL.
TurinTech AI ist Teil des Intel Liftoff-Programms für KI-Startups. Das hilft dem Unternehmen vor allem beim Software-Transfer vom lokalen Rechenzentrum in eine global verfügbare Cloud-Umgebung. Dabei achtet das Startup vor allem auf einen möglichst optimal angepassten Software-Code, was sich auf geringere Cloud-Infrastrukturkosten und eine verbesserte Nachhaltigkeit auszeichnet. Genau dabei helfen Intel-Ingenieure. Mit ihrer Unterstützung lernt TurinTech AI, wie sich die eigene KI-Software an Intel-Hardware bestmöglich anpassen lässt.
Francesco Mattioli (Ultralytics) über mit Intel OpenVINO optimierte LLM-Modelle
Von Francesco Mattioli wollte ich ebenfalls mehr erfahren über die Verbindung ihrer KI-Software und Intel. Bei Ultralytics steht vor allem das Verwalten, Anpassen und Optimieren des OpenSource-LLM-Modells YOLO (You Only Look Once) im Vordergrund. Und natürlich das Entwickeln der passenden KI-Anwendungen. Dazu gehören mittlerweile zahlreiche Use Cases wie das KI-gesteuerte Verwalten von riesigen Parkplatzanlagen, dem Überwachen von risikobehafteten Arbeitsbereichen und mehr. Hierfür kommen KI-Aufgaben wie das Entdecken, Segmentieren und Vorhersagen von Objekten zu Einsatz.
Auch Ultralytics ist Teil des Intel Liftoff-Programms für KI-Startups. Diese Zusammenarbeit führte vor allem zu einem vollständigen Machine-Learning-Transfer der YOLO-basierten LLM-Modelle mithilfe des Intel OpenVINO Toolkit. Denn trotz enormer Fortschritte in der KI stehen viele Unternehmen vor Herausforderungen, was das Implementieren von Technologien wie Computer Vision betrifft.
Traditionelle KI-Projekte sind oft komplex, zeitaufwendig und erfordern spezielles Fachwissen – eine Hürde für viele Firmen. Mit YOLO lässt sich die LLM-Komplexität reduzieren und das Bereitstellen von KI-Modellen beschleunigen. Das wird zum Beispiel durch einfaches Drag-and-Drop von Objekten für das Trainieren von KI-Modellen ermöglicht.
Damit können komplexe, video-basierte Bilder in nahezu Echtzeit eingefangen, analysiert und ausgewertet werden. Dazu gehören unter anderem Luft- und Satellitenaufnahmen sowie per Mikroskop generierte Bilder. Aber auch Röntgenaufnahmen lassen sich mithilfe des passenden YOLO-Modells deutlich schneller aus- und bewerten. Für einen ersten Blick auf YOLO empfiehlt sich übrigens die mobile App, die in den App-Stores kostenlos zur Verfügung steht.
Karin Janina Schweizer (Microsoft) über die KI-Partnerschaft mit Intel
Von Karin wollte ich vor allem wissen, was das Besondere an der Zusammenarbeit von Microsoft und Intel ist. Klar, dass Intel vor allem in Sachen KI ein zentraler Partner für Microsoft ist. Hierbei spielt speziell die Verbindung der einzelnen Plattformen eine wesentliche Rolle. Diese beginnt bei der Cloud, bezieht lokale Geräte wie PC und Notebook ein und rundet das Ganze mithilfe Edge-basierter Plattformen ab, wie sie mehr und mehr in Fabriken, Lagerhallen und anderswo anzufinden sind.
Genau das ist der Bereich, den Karin als besonders relevant erachtet. Hierbei übernehmen dedizierte KI-PCs zunehmend wichtige Aufgaben, gerade im stationären Kontext. Also immer dann, wenn KI-Funktionen direkt auf dem Notebook oder Desktop-PC ausgeführt werden sollen, womit Standardrechner überfordert wären.
Als Beleg führt Karin eine Tendenz in Richtung der Small Language Modelle an. Diese KI-Modelle weisen nicht diese enorme Zahl an Parametern wie die klassischen LLMs auf und lassen sich damit auch auf Rechnerklassen einsetzen, die über eine geringere Rechenleistung verfügen. Eben wie die mobilen oder stationären KI-Maschinen, die mit Intel Core Ultra Prozessor ausgestattet sein können.
In diesem Chip führt vor allem die NPU (Neural Processing Unit) die KI-relevanten Funktionen aus, was die aufkommenden lokal installierten KI-Anwendungen erheblich beschleunigt. Auch hier kommt das Intel OpenVINO Toolkit zum Einsatz – für kürzere Machine Learning-Trainingsprozesse.
Disclaimer: Für das Verfassen und Veröffentlichen dieses Blogbeitrags hat mich die Firma Intel beauftragt. Bei der Ausgestaltung der Inhalte hatte ich nahezu freie Hand.