Hugging Face обяви пускането на новото си семейство компактни езикови модели SmolLM2, които се отличават с впечатляваща производителност, изисквайки далеч по-малко изчислителни ресурси в сравнение с по-големите им алтернативи.
Новите модели, които са лицензирани под Apache 2.0, се предлагат в три размера – 135 милиона, 360 милиона и 1.7 милиарда параметри – което ги прави подходящи за внедряване на смартфони и други устройства с ограничени изчислителни мощности и памет. Най-забележителното е, че версията с 1.7 милиарда параметри превъзхожда модела Llama 1B на Meta по няколко ключови показателя.
Сравнението на производителността показва, че SmolLM2-1B се справя по-добре от по-големите конкурентни модели на повечето когнитивни тестове, особено в задачите за научно разсъждение и общи познания. Според документацията на Hugging Face, SmolLM2 демонстрира значителни подобрения спрямо своя предшественик, особено при следване на инструкции, знания, разсъждения и математика.
Това развитие идва в критичен момент, когато AI индустрията се бори с изчислителните изисквания за работа на големи езикови модели (LLMs). Докато компании като OpenAI и Anthropic продължават да разширяват границите с все по-масивни модели, нараства осъзнаването на необходимостта от ефективни, леки AI решения, които могат да работят локално на устройства.
СмолLM2 предлага различен подход, като предоставя мощни AI възможности директно на лични устройства. Това може да бъде особено полезно в здравеопазването, финансовите услуги и други индустрии, където поверителността на данните е от първостепенно значение.
Въпреки това, тези по-малки модели все още имат своите ограничения. Според документацията на Hugging Face, те „основно разбират и генерират съдържание на английски“ и може да не винаги произвеждат фактически точна или логически последователна информация.