Darum sind Intel und die Künstliche Intelligenz (KI) ein gutes Team

geschätzter Leseaufwand: 3 Minuten

Spricht man über das Thema Künstliche Intelligenz (KI), kommt man an einem IT-Schwergewicht wie Intel kaum noch vorbei. Denn mit ihrer technischen Expertise und ihren KI-Tools und -Techniken stellen sie die Grundlage für AI-Anwendungen dar. Welche das im Falle des Chipherstellers Intel sind, davon soll in diesem Beitrag die Rede sein.

Intel Xeon Prozessoren der 3. Generation sorgen für KI-Power

Die Basis von allem, was die Intel-basierten KI-Anwendungen betrifft, ist natürlich die CPU. Genauer gesagt sorgt der skalierbare Intel Xeon-Prozessor mit seinen speziell auf KI-Anwendungen ausgelegten Funktionen wie Intel Deep Learning Boost und dem Befehlssatz Intel Advanced Vector Extensions 512 (AVX-512) für die notwendige KI-Performance.

[irp posts=“158275″ name=“Darum sind Intel und die Cloud ein gutes Team“]

Intel Optane und Intel 3D NAND-Bausteine transferieren KI-Daten

Neben diesen eher CPU-lastigen Features weisen Intel-Techniken weitere Spezialitäten auf, wenn es um das Thema KI geht. Dazu gehören beispielsweise Speicher-Technologien wie Intel Optane und Intel 3D NAND-Bausteine, die immer dann zum Einsatz kommen, wenn möglichst schnelle Datentransfers erforderlich sind. Beim Trainieren von KI-Anwendungen ist das zum Beispiel oft der Fall.

Intel Movidius Myriad X VPUs ermöglichen schlaue Edge-Rechner und -Anwendungen

Doch auch ganz neue, an der KI ausgerichtete Lösungen und Technologien, hat Intel im Portfolio. Dazu gehört beispielsweise die Intel Movidius Myriad X VPU. Dahinter verbirgt sich nicht einfach ein weiterer Intel-Prozessor, sondern eine sogenannte Vision Processing Unit, in der eine neuronale Compute-Einheit für leistungsfähige KI-Funktionen sorgt.

Daraus entstehen neuartige Anwendungen, die beispielsweise auf Edge-Computern per Bilderfassung in der Qualitätssicherung zum Einsatz kommen. Besonders interessant an diesen VPUs ist deren Fähigkeit, auf einer PCI-Erweiterungskarte dedizierte KI-Funktionen bereitzustellen. Damit wird theoretisch aus jedem Edge-Server ein KI-Edge-Server.

Mit OpenVINO zu KI-optimierten FGPA-Bausteinen

Unterstützt werden Intel-basierte KI-Systeme von hierfür speziell designten FGPAs. Diese kleinen, unscheinbaren Chips übernehmen immer wiederkehrende Funktionen und Aufgaben, die speziell im Kontext der künstlichen Intelligenz anfallen. Für die passende Programmierung dieser Compute-Bausteine stellt Intel das OpenVINO-Toolkit bereit, das Deep-Learning-Frameworks wie Caffe genauso unterstützt wie TensorFlow, die wohl bekannteste Open-Souce Machine-Learning-Plattform am Markt. Damit gelangen KI-Anwendungen ohne tiefgreifende FGPA-Kenntnisse auf Edge-KI-Rechnern.

[irp posts=“34087″ name=“Der KI auf der Spur: Künstliche Intelligenz, Machine Learning, Predictive Maintenance und mehr“]

Intelligente Intel Core Prozessoren für mehr KI-Power

Doch was nützen all die schlauen Anwendungen, wenn der heimische PC die KI-Algorithmen nicht interpretieren kann. Für diesen Fall stehen Rechner bereit, in denen Intel Core Prozessoren der 11. Generation werkeln. Denn auch in diesen CPUs sorgt eine Gruppe von Intel Advanced Vector Extensions namens Intel Deep Learning Boost für beschleunigte KI-Anwendungen. Beispiel hierfür ist die Bildbearbeitungssoftware CyberLink PhotoDirector, in der Unschärfekorrekturen für bessere Bilder sorgen sollen. Unterstützt werden derlei Applikationen von der Intel Iris X Grafikarchitektur, die 8K-Videos rendert und bis zu vier 4K-Monitore ansteuern kann.

Habana Gaudi und Goya kommen in Rechenzentren von morgen zum Einsatz

Wenn in einen Supercomputer wie dem Voyager des San Diego Supercomputer Centers State-of-the-Art-Technologien wie Habana Gaudi AI Training Prozessoren und Goya AI Inference-Beschleuniger verbaut sind, dann hat das natürlich triftige Gründe.

Beide Komponenten bzw. Bausteine stammen von der Firma Habana Labs, einer Intel-Tochter. Im Voyager sollen ab Herbst 2021 knapp 340 Gaudi-Prozessoren für hochspezialisierte KI-Anwendungen sorgen. Hierfür liefern zehn 100-Gigabit Ethernet-Ports pro CPU einen äußerst performanten Datendurchsatz. Zudem kümmern sich 16 Goya-Prozessoren für noch genauere Inferencing-Funktionen, die im Bereich Machine Learning zum Einsatz kommen.

[irp posts=“33210″ name=“Videoblog: Die europäische Künstliche Intelligenz ist besser als ihr Ruf!““]

AI-Applikationen auf einem einzigen USB-Stick

Wer sich die Möglichkeiten der Intel Movidius Myriad X VPU erst einmal auf seinem Windows-, macOS- oder Linux-Rechner ansehen will, kann das mithilfe des Intel Neural Computer Stick 2 tun. Aber eben ohne gleich in den passenden Supercomputer oder Edge-Rechner investieren zu müssen. KI on a stick!

Disclaimer: Für das Verfassen und Veröffentlichen dieses Blogbeitrags hat mich die Firma Intel beauftragt. Bei der Ausgestaltung der Inhalte hatte ich nahezu freie Hand.

Schreibe einen Kommentar