Само 250 злонамерени документа могат да компрометират голям езиков модел, показва ново изследване
Изследване на компанията Anthropic разкрива тревожна уязвимост в процеса на предварително обучение на големите езикови модели (LLM). Според доклада, публикуван на 9 октомври 2025 г., злонамерени актьори могат да внедрят нежелано поведение в моделите чрез т.нар. „отровни“ данни — и то с изненадващо малко усилия. Само 250 злонамерени документа в обучителния набор са достатъчни, за…
