Im Rahmen des jüngsten Earnings Call im Februar 2024 hat Apple verkündet, dass noch in diesem Jahr neue generative KI-Features für das iPhone verfügbar sein werden. Apple investiere „enorm viel Zeit und Mühe“ in Entwicklungen im Bereich der Künstlichen Intelligenz, erklärte Apple CEO Jim Cook:

As we look ahead, we will continue to invest in these and other technologies that will shape the future. That includes artificial intelligence, where we continue to spend a tremendous amount of time and effort, and we’re excited to share the details of our ongoing work in that space later this year.

OpenELM-Modelle sind nicht auf externe Server angewiesen

Anders als die Tech-Konkurrenz, die KI vorwiegend über Cloud-Lösungen anbietet, schlägt Apple einen anderen Weg ein und stellte kürzlich die OpenELM-Reihe (Open Source Efficient Language Models) vor, eine Familie von Open-Source-Sprachmodellen, die direkt auf dem Gerät laufen und nicht auf externe Server angewiesen sind. Die Sprachmodelle sind auf dem Hugging Face Hub verfügbar, einer Community zum Austausch von KI-Code.

In einem Whitepaper legt Apple detailliert die Techniken, Trainingsdaten, Bewertungsmetriken und Konfigurationen der acht OpenELM-Modelle dar. Vier dieser Modelle wurden mit Apples neuer CoreNet-Bibliothek für neuronale Netze vortrainiert, während die anderen vier speziell auf Anweisungen abgestimmt sind. OpenELM, als Familie offener Sprachmodelle, umfasst vier Größen – von 270 Millionen bis drei Milliarden Parameter. Diese Modelle sind kleiner als viele gängige KI-Modelle, was sie ideal für den Einsatz direkt auf Geräten macht. Im Vergleich dazu verfügen die zwei Modelle des kürzlich veröffentlichten Llama 3 LLMs von Meta über acht Milliarden beziehungsweise 70 Milliarden Parameter.

Apple stellt die OpenELM-Modelle der Forschungsgemeinschaft zur Verfügung, um die Entwicklung mit modernen Sprachmodellen voranzutreiben. Durch das Teilen dieser Open-Source-Modelle können Entwickler:innen Risiken, Datenqualität und eventuelle Verzerrungen in den Modellen analysieren. Zudem haben sowohl Entwickler:innen als auch Unternehmen die Möglichkeit, die Modelle entweder in ihrer ursprünglichen Form zu nutzen oder sie nach Bedarf anzupassen.

Anforderungen an Soft- und Hardware

Je größer die Large Language Models sind, desto mehr Daten stehen zur Verfügung. Bisher wurden LLMs vorwiegend in der Cloud erstellt und sind so als Online-Dienst verfügbar. Allerdings gibt es neuerdings Bestrebungen, LLMs so zu gestalten, dass die Datenmenge klein genug ist, um sie auf einem mobilen Gerät auszuführen.

Diese Entwicklung erfordert innovative Software-Lösungen und stellt ebenso Anforderungen an die Hardware, um eine effiziente Verarbeitung sicherzustellen. Chip-Hersteller:innen haben bereits speziell für generative KI-Anwendungen optimierte Chips im Angebot. Es wird erwartet, dass Apple in zukünftigen iPhone-Generationen ebenfalls solche Chips einsetzen wird, um erweiterte KI-Funktionen zu integrieren. Dies bietet den zusätzlichen Vorteil des Datenschutzes, da die Daten der Nutzer:innen nicht auf Server hochgeladen werden müssen, um verarbeitet zu werden. Google hat mit Gemini Nano ein Modell für den Einsatz auf Endgeräten entwickelt. Das Pixel 8 Pro ist das erste Smartphone, auf dem Gemini Nano läuft. 

Trotz der eigenen Modelle, die Apple veröffentlicht hat, hat das Unternehmen Berichten zufolge Google und OpenAI kontaktiert, um deren Modelle auf Apple-Produkte zu übertragen. Das neue Betriebssystem iOS 18 soll voraussichtlich im Sommer 2024 verfügbar sein und könnte einige KI-Funktionen enthalten.

Microsoft VASA-1:

Mit Bild und Audio zum sprechenden KI-Portrait

© Microsoft via Canva

Bevor du gehst...

Trag dich gerne in den Newsletter ein. Dort bekommst du regelmäßig Eventempfehlungen & andere tollen Input, den du als Social Media Manager so brauchst!

Ihre Anmeldung konnte nicht gespeichert werden. Bitte versuchen Sie es erneut.
Ihre Anmeldung war erfolgreich.