От днес в ЕС влизат в сила нови правила, които изискват повече прозрачност за езиковите модели на изкуствен интелект като ChatGPT и Gemini. Това е част от новия Закон за изкуствения интелект, приет миналата година.
Новите изисквания задължават разработчиците да обясняват как работят техните системи и какви данни са използвали, за да ги обучат. Ако моделите могат да създадат сериозни рискове за хората, ще трябва да има и подробна информация за мерките за безопасност.
Целта е също да се защитят авторските права – компаниите трябва да казват от къде са взели данните си, дали са събирали информация автоматично от интернет и как защитават правата на създателите.
Някои организации обаче смятат, че правилата не са достатъчно строги и искат по-конкретна информация за източниците на данни.
Гражданите ще могат да съдят компании, ако смятат, че техните права са нарушени. Европейската служба за изкуствения интелект ще следи за спазването на закона, като при сериозни нарушения могат да се налагат глоби до 15 милиона евро или 3% от оборота на компанията.
Google, която създава модела Gemini, заяви, че ще се съобрази с правилата, но предупреди, че прекалените ограничения може да забавят развитието на новите технологии.