Meta opracowuje nowe modele do generowania obrazów, wideo i tekstu
Meta pracuje nad dwoma nowymi modelami sztucznej inteligencji do przetwarzania obrazów i wideo, a także do generowania tekstu. Według The Wall Street Journal, zgodnie z wewnętrznym QA, firma planuje wypuścić modele w pierwszej połowie 2026 roku.
Co wiadomo
Model do obrazów i wideo ma kodową nazwę Mango, model tekstowy - Avocado. Rozwój prowadzony jest przez zespół Meta Superintelligence Lab (MSL) pod kierownictwem Alexandra Wanga, współzałożyciela Scale AI. Podczas spotkania Wang powiedział, że Meta bada nowe "światowe modele", zdolne do zrozumienia informacji wizualnej, rozumowania, planowania i działania bez potrzeby uczenia się na wszystkich możliwych scenariuszach. Model tekstowy planują również optymalizować do programowania.
W tym roku Meta przeprowadziła reorganizację działów AI, w tym zmiany w kierownictwie i angażowanie badaczy z innych firm. Niektórzy z nich już opuścili MSL. W listopadzie główny naukowiec firmy ds. sztucznej inteligencji Yann LeCun ogłosił założenie własnego startupu.
Asystent Meta AI jest zintegrowany w aplikacjach firmy, w tym w wyszukiwarkach Facebooka i Instagrama, i jest dostępny dla miliardów użytkowników. Pierwsze produkty od MSL staną się częścią nowej strategii AI firmy.
Źródło: The Wall Street Journal