Регистрация

Вход



Забравена парола

Смяна на парола

Напишете дума/думи за търсене

Българка в А отбора за защита на планетата от мислещия изкуствен интелект

Според специалисти от 3 до 5 години ни делят от мислещия изкуствен интелект. 
ИЛЮСТРАЦИЯ: 
ВАСИЛ ПЕТКОВ
Според специалисти от 3 до 5 години ни делят от мислещия изкуствен интелект. ИЛЮСТРАЦИЯ: ВАСИЛ ПЕТКОВ
  • Доц. Мариана Тодорова, милиардерът Яан Талин и топфутуролози ще работят конфиденциално, докато ООН не огласи концепцията им за защита на човечеството от очаквания до 5 г. свръхинтелект

  • Надпреварата в момента прилича на тази между САЩ и СССР за по-мощна бомба, но е по-лоша, защото може да унищожи хората, казва колегата Стюарт Ръсел, по чийто учебник учат в 1500 университета

Когато българка в качеството си на специалист, а не на представител на страната или институция попадне в група от елитни авторитети, селектирани от ООН, това безспорно буди любопитство. Но когато във фокуса на вниманието на тези топексперти е как да бъде овладяна стихията с бъдещия мислещ изкуствен интелект, тогава към интригуващия сюжет се добавя и червен сигнал: "Внимание". Съспенсът в случая се подсилва и от факта, че работата на учените ще е конфиденциална до публикуването на окончателния документ на световната организация.

Историята започна, когато Съветът на президентите на Генералната асамблея на ООН покани малка група изявени футуролози и специалисти, сред които е и доц. Мариана Тодорова от БАН. Тя попада в престижната компания неслучайно. Преди 6 години тя стана известна в цял свят с книгата си, в която бе съавтор с прочутия US визионер Теодор Гордън - идеолога на третия етап от проекта "Аполо" на НАСА за кацането на Луната. 

Доц. Мариана Тодорова
Доц. Мариана Тодорова

Тя е представител на България в ЮНЕСКО в междуправителствената среща за изработване на етична рамка за AI и е член на "Форсайт групата" към Европейската агенция за киберсигурност. Но освен това оглавява и българския клон на Millennium Project.

Негов главен изпълнителен директор е световноизвестният футуролог проф. Джером Глен, на когото ЕК възложи да разработи анализ за бъдещия мислещ изкуствен интелект и възможностите му. Въз основа на заключенията на учения Брюксел прие документа "Хоризонт 2025-2027" по отношение на суперинтелекта. Още в резюмето му е посочено, че дори да бъдат постигнати международни споразумения за благоприятни първоначални условия за AGI, ще е необходима глобална система за управление, за да се наблюдават развитието и контролът на тази технология. И тъй като ратифицирането на евентуален международен договор може да отнеме 10, 20 или повече години, препоръката е работата да започне час по-скоро, и най-вероятно това е целта и на ООН. Още повече че според Глен най-критичните проблеми на AGI са свързани с глобалното му управление и затова правителствата трябва да се справят с тези въпроси "правилно от самото начало".

В групата с Мариана Тодорова е и основният докладчик по въпросите на изкуствения интелект пред американския Сенат - проф. Стюарт Ръсел от Университета на Бъркли. Но освен това той работи по програми на ОИСР и Световния икономически форум. Самият той е доста обезпокоен от бурното развитие на суперинтелекта и това е темата на последната му статия за "Нюзуик": "Честно казано, надпреварата за изграждане на все по-големи и по-големи центрове за данни е започнала да прилича на надпреварата между САЩ и Съветския съюз през 60-те години на миналия век за създаване и тестване на все по-големи и по-големи бомби: достигнаха до 50 мегатона, преди да разберат, че всичко това е доста безсмислено, но в процеса пропиляха милиарди долари и изхвърлиха достатъчно радиоактивност в атмосферата, за да убият 100 000 души.

"Състезанието за AGI" между компаниите и между нациите е донякъде сходно, но по-лошо: дори главните изпълнителни директори, които участват в надпреварата, заявиха, че който и да спечели, има значителна вероятност това да доведе до изчезване на хората, защото нямаме представа как да контролираме системи, по-интелигентни от нас."

В групата на ООН е и Йошуа Бенгио, носител на Тюрингова награда, аналог на Нобеловата в областта на математиката. Там е и естонският милиардер Яан Талин, създал Skype, а по-късно и съосновател на DeepMind заедно с Питър Тийл и Илон Мъск - компания, която неотдавна бе продадена на Google за около 500 млн. долара. Самият Талин е визионер с доста точни прозрения за далечното бъдеще, защото още от 2012 г. публично споделя притесненията си от AI. Може би затова, когато в края на 2023 г. и началото на 2024 г. започнаха сътресенията в OpenAI и част от служителите му напуснаха в знак на протест срещу Сам Алтман, Талин подкрепи техния стартъп Anthropic. С него те искаха да създадат безопасен изкуствен интелект, разочаровани от Алтман, когото обвиниха, че в името на комерсиализацията прекрачва всички червени линии. 

Мислещият изкуствен интелект може да има опустошително въздействие върху човечеството, предупреждават специалистите. Според тях преди да се натисне педала на газта е добре да се помисли за гаранции, че суперинтелектът няма да унищожи хората.
ИЛЮСТРАЦИЯ: 
ВАСИЛ ПЕТКОВ
Мислещият изкуствен интелект може да има опустошително въздействие върху човечеството, предупреждават специалистите. Според тях преди да се натисне педала на газта е добре да се помисли за гаранции, че суперинтелектът няма да унищожи хората. ИЛЮСТРАЦИЯ: ВАСИЛ ПЕТКОВ

Талин често посочва, че преживяваме последните дни на една ера, в която "човешкият мозък е бил главният творец на бъдещето". Но оттук нататък това няма да е така.

Както и че не е срещал нито един специалист в лаборатория за AI, смятащ, че рискът от обучение на нов модел, "взривяващ планетата", е по-малък от 1%. Затова Талин е категоричен, че рискът от изчезване на човечеството в резултат на прогреса на суперинтелекта е равностоен с този от

нова пандемия

или ядрен холокост

Затова незабавно трябва да се превърне в глобален приоритет.

В групата, селектирана от ООН е и Лан Шуе от Китайския национален експертен комитет по управление на AI, както и редица други изявени учени. Макар че групата ще работи конфиденциално до излизането на анализа, биографиите на членовете на групата еднозначно показват, че техният фокус ще е разработката на адекватни насоки за моделирането на безопасен за човечеството суперинтелект.

"Идеята е тази група да предложи на ООН дизайна, по който да се създаде агенция, която да разработи насоки и регулации за бъдещия AGI, защото светът не е готов за него - обясни пред "24 часа" футурологът Мариана Тодорова. - С този международен екип до два месеца ще представим нашата визия, която не трябва да е нито прекалено либерална, нито твърде консервативна, както предлага ЕС." От друга страна, доц. Тодорова е категорична, че е необходима забрана на AI да влияе на хората на подсъзнателно ниво или да ги манипулира, тъй като подобни възможности вече се използват в невромаркетинга.

"По тоналността на гласа, по тембъра, по общото звучене или по лицевата изразност (мимики и израз) изкуственият интелект може да определи настроението ни, емоциите ни, да анализира нашето поведение или това на някой политик, бизнесмен, купувач и да прогнозира какво решение ще вземе - обясни тя. - Следи как му въздействат цветове, звуци в дигиталния маркетинг и как потенциален клиент може да бъде подтикнат да купи дадена стока или услуга, как даден политик може да бъде подбутнат към определено решение и т.н. Причината за всичко това е, че AI е изучил физиологичните специфики зад емоциите и решенията и има предварителна информация, която би могло да се използва доста манипулативно."

Особено внимание според доц. Тодорова заслужават и набиращите скорост AI агенти - това са софтуерни програми, които биха могли да вземат самостоятелни решения вместо нас, ако им разрешим. Примерно да отговарят на имейли, да затварят позициите ни с акции или индекси на борсите, след като сме задали конкретни първоначални параметри.

"Те ще действат като наши лични асистенти - отбеляза тя. - Това не означава, че те разбират какво правят, защото всичко е автоматично и подчинено на шаблони, но така могат да възникнат и много грешки. Най-малкото защото комуникациите са свързани с характерология, с определен маниер на общуване, а един автоматизиран имейл в някои случаи може да се изтълкува доста превратно. Затова прогнозирам, че през тази година ще има редица инциденти, конфузни ситуации и много хора ще се оправдават именно с тези AI агенти. От друга страна, OpenAI бе длъжен да обяви нова функционалност, тъй като китайският стартъп DeepSeek се справя не по-зле, но с доста по-старо поколение чипове. Нещо, което постави под въпрос доколко са оправдани колосалните инвестиции на западните компании в тази сфера. Освен това има и геополитически момент, защото Китай демонстрира, че може неочаквано да изземе лидерството в тази надпревара, което повлия и на финансовите пазари." Разбира се, все още има много въпроси дали всичко, което казват от DeepSeek, е така, но фактът, че появата му изтри близо трилион долара от борсите, е достатъчно показателен.

"Причината за всичко това е, че развитието на мислещия или генерален изкуствен интелект (AGI) ще определи следващата суперсила - смята доц. Мариана Тодорова. - Неслучайно американският президент Доналд Тръмп обяви, че ще създаде фонд с 500 млрд. долара с участието на Япония и OpenAI, за да си осигурят ключови предимства в тази надпревара."

За разлика от Америка ЕС предприе друг подход, базиран на рисковете. Примерно в Европа е забранено лицевото разпознаване, а това прави разкриването на престъпления в САЩ, Япония и Китай много по-бързо и лесно. На Стария континент не е разрешено вземането на биометрични данни, а без тях напредъкът в медицината ще е много труден.

Но сблъсъкът на тези две концепции рефлектира и на микрониво.

"Когато изграден експерт използва осъзнато услугите на AI, е едно, но когато едно дете губи увереност във възможностите си, смятайки, че изкуственият интелект по-добре от него ще се справи с домашните му, мисленето и бъдещите професионални занимания, тогава трябва да се замислим дали това не е най-силната екзистенциална криза, с която ще се сблъскаме - отбелязва доц. Тодорова. - Тя ще предизвика не само традиционните измерения на образованието и кариерата, но и търсенето и създаването на смисъл."

Видео

Коментари