От х:

Днес в x:

AI учен: Открихме тайната на безсмъртието. Лошата новина е, че не е за нас

Преди около година един от най-важните специалисти по изкуствен интелект за Google напусна компанията. Причината - тревогата около безконтролното развиване на AI.

Джефри Хинтън е известен като кръстника на дълбокото машинно обучение. Той е компютърен учен и когнитивен психолог, постигнал научен пробив в тази област още в края на 80-те години на миналия век. През 2012 г. заедно с главния учен на OpenAI, Иля Суцкевер, Хинтън постига пробив и в областта на компютърното зрение. Хинтън получава наградата Тюринг за 2018 г., често наричана "Нобелова награда за компютри", но през 2023 година напуска Google.

Хинтън предупреждава, че ние стоим на ръба пред екзистенциална заплаха за цивилизацията ни, при това "без изобщо някой да действа злонамерено".

"През последните 50 години се опитвам да направя компютърни модели, които могат да научават неща малко по начина, по който мозъкът ги учи, за да разбера по-добре как мозъкът учи нещата", разказва Хинтън пред "Гардиън".

Опитвайки се да моделира как работи човешкият мозък, Хинтън се оказва един от лидерите в областта на "невронните мрежи", подход за изграждане на компютърни системи, които могат да се учат от данни и опит.

"Биологичен интелект" като нашия, казва ученият, има предимства. Той работи с ниска мощност, "само 30 вата, дори когато мислите" и освен това "всеки мозък е малко по-различен".

Цифровият интелект е много гладен за енергия, еднакъв е, но има едно предимство. Веднъж научено, знанието може да се сподели мигновено сред останалите копие. При хората това е невъзможно.

"Плащате огромна цена от гледна точка на енергия, но когато един от тях научи нещо, всички го знаят и можете лесно да правите копия. Така че добрата новина е, че открихме тайната на безсмъртието. Лошата новина е, че не е за нас", казва ученият.

"Изграждаме интелигентност с потенциал да надмине човешката. Мислех, че това ще се случи в крайна сметка, но ще имаме достатъчно време: 30 до 50 години. Вече не мисля така. И не знам примери за по-интелигентни неща, контролирани от по-малко интелигентни неща - поне не и откакто Байдън беше избран", допъва шеговито учения.

Всъщност, в историята няма пример за по-развит субект, управляван от такъв с по-ниски възможности.

Изкуственият интелект ще е прочел всяка книга, която някога е била написана. Представете си алгоритъм, обучен в тънкостите за това как да се манипулират хората, и освен това да е запознат с практичния резултат от теорията. Това е вече постижимо.

Критичния момент в развитието на AI ще настъпи през следващите 5 до 20 години, казва той. "Но не бих изключил това да стане след година или две. И все още не бих изключил 100 години - просто моята увереност, че това не се е случвало от известно време, беше разклатена от осъзнаването, че биологичният интелект и цифровият интелект са много различни, а цифровият интелект вероятно е много по-добър".

Освен това все още има надежда, че потенциалът на AI може да се окаже надценен, казва ученият.

"В момента имам огромна несигурност. Възможно е големите езикови модели, технологията, която е в основата на системи като ChatGPT, "след като са погълнали всички документи в мрежата, да не могат да стигнат много по-далеч, освен ако не получат достъп и до всички наши лични данни. Не искам да изключвам такива неща - мисля, че хората, които са уверени в тази ситуация, са луди."

Въпреки това, казва той, правилният начин да мислим за шансовете за апокалипсис е по-сходен до обикновеното хвърляне на монета, отколкото бихме искали.

Това развитие, твърди той, е неизбежна последица от технологията при капитализма.

"Не че Google е лош. Всъщност Google е лидерът в това изследване, основните технически пробиви, които стоят в основата на тази вълна, идват от Google и компанията решава да не ги оповестява директно на обществеността. Google се тревожеше за всички неща, за които ние се тревожим, има добра репутация и не иска да го обърква. И мисля, че това беше справедливо и отговорно решение. Но проблемът е, че в една капиталистическа система, ако вашият конкурент направи това, няма какво да направите, освен да направите същото."

Откакто обяви страховете си публично, Хинтън беше подложен на критики, че не последва някои от колегите си и се отказа по-рано.

По думите му обаче има и надежда. За пример той дава Студената война и разпространението на ядрени оръжия. В крайна сметка обаче ядрена война няма.

Източник: it.dir.bg

Facebook коментари

Коментари в сайта (1)

  • 1
    Уж
    ужас, ужас, ужас
    1 0
    11:30, 18 яну 2024
    Отворихме кутията на Пандора!Обаче това е изпитание за света.Или ще се справим и ще излезем поумняли от това или ще приключим.Просто сме на следващо ниво ....
Трябва да сте регистриран потребител за да можете да коментирате. Правилата - тук.
Последни новини