НОВИНИ

Изкуствен интелект от нов тип: OpenAI работели по модел, застрашаващ човечеството

Цветелина Йорданова
от Цветелина Йорданова
20:30, 24.11.2023
6061
Чете се за: 04:25 мин.
По света
Снимка:
Слушай новината

На фона на трусовете в ръководството на OpenAI стана ясно, че създателите на ChatGPT са работели по проект за изкуствен интелект, който сериозно би могъл да застраши човечеството. За това са предупредили в писмо до ръководството на компанията няколко нейни служители.

Новината беше съобщена от Ройтерс, като агенцията се позова на свои източници, но с уточнението, че няма достъп до писмото и нито работещи в OpenAI, нито от ръководството ѝ са коментирали темата.

Преди шефът на ОpenAI Сам Алтман да прекара четири дни в изгнание, както го нарича Ройтерс, служители на компанията изразили тревога, че разработван модел може да представлява заплаха за света. Моделът се казва Q* и - както се твърди - е в състояние да реши прости математически задачи, които вижда за първи път. Това е модел, който не работи на статистически принцип, както ChatGPT, а на принципа на правила и логика.

Способността на изкуствения интелект да решава задачи се смята за ключов етап в развитието му, който би довел до появата на така наречения генеративен изкуствен интелект - това е мощна машина, която може да изпълнява широк диапазон от задачи по начин, характерен за човешкия интелект, но на ниво, което значително го надвишава.

Много експерти смятат, че компаниите, разработващи изкуствен интелект, трябва да забавят развитието на тези технологии, докато бъдат изяснени и предотвратени рисковете за човечеството.

През изминалата година след пускането на пазара на ChatGPT, Сам Алтман многократно е предупреждавал на срещи със световни лидери, както и на изслушване пред комисия на американския Сенат за рисковете от развитието на Изкуствения интелект.

"Най-големият ми страх е, ние, технологичната индустрия да не причиним сериозна беда на света. Това би могло да стане по много различни начини. Ако нещо с технологията се обърка, ще се обърка страшно! И ние искаме да говорим открито за това. Искаме да работим с правителството, за да предотвратим подобен развой", заяви главният изпълнителен директор на OpenAI Сам Алтман.

OpenAI уверява, че ще работи за безопасен изкуствен интелект, който да облагодетелства хората. Докато Европейският съюз изработи свой закон за изкуствения интелект, в САЩ все още се води дискусия как и дали да се въведе регулация.

"Цял хор от гласове призовава за регулиране на изкуствения интелект. Но трябва да има известна яснота какво значи това, кои аспекти трябва да регулираме? Кои аспекти са рискови? Дали е унищожаването на работни места? Дали е всяването на предразсъдъци и дискриминацията? Защото за всеки отделен аспект трябва отделен подход на регулация. Много е важно да не размахваме огромен чук, само защото всичко ни прилича на пирон. Важно е да има нюанси, защото иначе регулацията може да не разреши определения проблем", каза проф. Сара Крепс от Корнълски университет.

Според някои анализатори, причината за кадровите сътресения в компанията се дължат на сериозни разногласия по отношение на това с каква скорост и с какви предпазни мерки да се върви напред в развитието на изкуствения интелект.

Чуйте последните новини, където и да сте!
Последвайте ни във Facebook и Instagram
Следете и канала на БНТ в YouTube
Вече може да ни гледате и в TikTok

Свали приложението BNТ News
google play badge
Свали приложението BNТ News
app store badge
Топ 24
Най-четени
Северна България и морските градове се подготвят за екстремното време през уикенда
Северна България и морските градове се подготвят за екстремното време през уикенда
Първата група израелски заложници е в Египет, Тел Авив пусна палестински затворници
Първата група израелски заложници е в Египет, Тел Авив пусна палестински затворници