Responsive image

on air: 

Natascha Wittmaack
---
---
Nachrichten aus Herford und Umgebung

Menlo Park | Facebook-Konzern veröffentlicht neues KI-Modell

Llama-3 soll Apps und Dienste auf neues Level heben. Schnellere Bildgenerierung, Animationen, clevere Assistenz.

Meta seine Llama-Technologie (Large Language Model Meta AI) als Open-Source-Software verfügbar.

Meta seine Llama-Technologie (Large Language Model Meta AI) als Open-Source-Software verfügbar.

Künstliche Intelligenz

Menlo Park (dpa) - Der Facebook-Konzern Meta veröffentlicht eine neue, leistungsstärkere Version seines KI-Modells. Die Software mit dem Namen Llama-3 soll unter anderem neue Funktionen in Apps wie Instagram und WhatsApp bringen sowie im hauseigenen Assistenten Meta AI laufen.

Llama-3 werde zunächst zwar nur auf Englisch verfügbar sein, sagte Meta-Manager Nick Clegg der Deutschen Presse-Agentur zur Ankündigung des Programms. Allerdings seien mehr als fünf Prozent der Daten, mit denen Llama-3 trainiert worden sei, in anderen Sprachen gewesen.

Seinen KI-Assistenten bringt Meta unter anderem die in die zusammen mit Ray Ban entwickelte vernetzte Brille, die Kamera, Mikrofon und Lautsprecher hat. Man könne damit zum Beispiel beim Skifahren den Assistenten Fragen, wann und wie Kleopatra gestorben sei oder wie das Wetter in Berlin werde, sagte Clegg. Auch werde die Software schneller Bilder aus Text-Vorgaben erzeugen und diese auch als Animation darstellen können.

Meta mache sich derzeit keine Gedanken über Geschäftsmodelle für KI-Software, betonte Clegg, der Politikchef des Konzerns ist. Der Facebook-Konzern wolle erst Technologie entwickeln, die Menschen nützlich oder interessant fänden - «und dann finden wir später heraus, wie man damit Geld verdienen kann».

Anders als zum Beispiel der ChatGPT-Entwickler OpenAI macht Meta seine Llama-Technologie (Large Language Model Meta AI) als Open-Source-Software verfügbar, bei der der Quellcode öffentlich einsehbar ist. Es setzte sich immer mehr die Ansicht durch, dass Open-Source-Modelle sicherer seien, weil viele sie auf den Prüfstand stellen könnten und «man sich nicht darauf verlassen muss, dass ein Unternehmen die Schwachstellen in seiner Software ausbügelt». Zugleich fehle im Moment eine einheitliche Grundlage zur Bewertung von Risiken bei Künstlicher Intelligenz, bemängelte Clegg.

© dpa-infocom, dpa:240418-99-726259/2