НОВИНИ

Измама с изкуствен интелект: Водещ на БНТ и лекар са използвани за фалшива схема

Иво Никодимов
от Иво Никодимов
19:51, 17.01.2024
Чете се за: 06:52 мин.
У нас
Снимка:
Слушай новината

Създаването на фалшиви образи на известни личности с изкуствен интелект вече залива глобалната мрежа. Виртуалните двойници се превръщат в перфектното оръжие на хибридната война и на измамите в интернет.

Известен лекар и водещ на националната телевизия бяха използвани за измамна реклама на нерегистрирано лекарство. Как се създава фалшивия образ и как можем да го разпознаем?

Създаването е все по-лесно, фалшивите образи са все по-перфектни двойници, а разпознаването е все по-трудно. Щетите, обаче вече се изчисляват на милиарди. Предполага се, че само от инвестиционни измами чрез кол центрове, за които са ползвани фалшиви образи на известни лица, контролираните от Гал Барак и Илан Цоря престъпни групи, през последната година са реализирали над 40 милиарда евро чиста печалба. Но, много други измами се правят с фалшиви образи на известни бизнесмени, спортисти, лекари и дори журналисти. Сред хитовете има дори реклами на измамни лекарства.

Възможностите на изкуствения интелект и социалните мрежи се оказват златна мина за измамниците. Така от едно участие в телевизионно предаване - доц. Спас Спасков и водещият на сутрешния блок Симеон Иванов се оказаха лица, които предлагат представяно като "вълшебно", но иначе абсолютно неефективно лекарство.

"Беше пуснат такъв запис от реално предаване, но със сменен текст. Разбира се и начинът на представянето беше фалшив. Бях представен като известен хирург, който дава съвети за ставни заболявания, нещо което не пасва с моята подготовка и това, което съм аз", каза доц. д-р Спас Спасков.

Фалшивата публикация беше докладвана от обществената телевизия и свалена.

"Повтарям - и аз, и д-р Спас Спасков не рекламираме такива продукти", заяви Симеон Иванов, журналист в БНТ.

Случаят с колежката Надя Обретенова, обаче е различен. За създаването на този образ с изкуствен интелект, водещата на "Още от деня" Надя Обретенова с цел експеримент е дала своето съгласие на екип експерти по киберсигурност.

"Но реално това не е тя. Това е копие, което сме тренирали в продължение на две седмици, за да направим досущ нейния образ и да бъде почти неразличим", обясни Красимир Коцев, експерт по киберсигурност.

Експериментът с Надя Обретенова е направен като разговор в реално време във Вайбър, като пред камерата в приложението е бил застанал мъж с перука.

"Абсолютно, като тук има два фактора. От една страна може да се промени гласа на човек, така че когато ви се обадят по телефона, по вайбър, уотс ъп или друга социална мрежа да чуете всъщност друг глас. И да ви поканят на среща в "Гугъл мийт", в "Тиймс" или в друг видеоканал, в който всъщност да видите друго лице, дийп фейк образ на легитимно лице от реалния живот.
БНТ: Тъй като съм голям почитател на Мбапе, аз мога ли да стана Мбапе в разговорите, които водя във Вайбър?
- Абсолютно. И не само това, то всъщност може да има поне още 50 човека, които да направят същото нещо и да се клонират и да придобият неговия образ", каза Красимир Коцев, експерт по киберсигурност.

Все повече хора вярват на фалшивите образи създадени с изкуствен интелект и така той се превръща в перфектното оръжие на хибридната война.

"Така е ние всъщност това нещо го видяхме и по време на войната между Украйна и Русия. Имаше фалшиви видеа и с Володимир Зеленски и с Владимир Путин. Владимир Путин или неговата фалшива версия излезе публично и обяви мир на Украйна. В първите часове много голяма част от обществото се заблуди от това нещо", каза експертът по киберсигурност Красимир Коцев.

"Няма механизъм в момента, който да предотврати това нещо да се случва на такова ниво, за съжаление", смята Борис Гончаров, експерт по киберсигурност.

Има няколко детайла, по които можем да разпознаем фалшивия образ, създаден с изкуствен интелект.

"Първо по самите черти на лицето. Много често при изкуствените модели погледа не гледа напред, направо към нас или към камерата, а всъщност двете очи се местят в малко асинхрон", обясни Красимир Коцев, експерт по киберсигурност.

Образите обаче стават все по-перфектни. Технологичните гиганти вече разработват приложения, които са достъпни безплатно и разпознават фалшивите образи на изкуствения интелект.

Какъв е отговорът на технологичните гиганти?

Ако разчитаме само на технологичните гиганти, ще станем пасивни свидетели на ситуацията в която изкуствения интелект ще се бори с изкуствен интелект. Всъщност жертви на изкуствения интелект само преди три дни станаха флагманите на създаването му Илън Мъск и Марк Зукърбърг. Буквално за секунди из целия свят се разпространиха фалшиви снимки от сватбата на двамата, а образите им са наистина перфектни. Т.е. в ерата на глобалната информация журналистите трябва да имаме все по-критично мислене и чрез контролни въпроси към нашия събеседник да проверяваме дали от другата страна на камерата и микрофона не стои фалшива личност.

Чуйте последните новини, където и да сте!
Последвайте ни във Facebook и Instagram
Следете и канала на БНТ в YouTube
Вече може да ни гледате и в TikTok

Свали приложението BNТ News
google play badge
Свали приложението BNТ News
app store badge
Топ 24
Най-четени
Кевин Дюрант: Везенков е невероятен стрелец
Кевин Дюрант: Везенков е невероятен стрелец
Спартак Плевен с група от само шестима души за гостуването си в Дания
Спартак Плевен с група от само шестима души за гостуването си в Дания