От х:

Днес в x:

Технологии и демокрация през 2023: между прекрасния нов свят и технопаниката

Отиващата си 2023 г. би могла да остане в историята като годината на изкуствения интелект (ИИ). Както и на технопаниката за бъдещето, в което се съревноваваме именно с ИИ. Все повече демокрации все по-трудно се борят за умовете и сърцата на гражданите, ставащи все по-уязвими за езика на популизма, демагогията и пропагандата, които изкуственият интелект може да издигне до нови висоти.

За броени месеци се създаде впечатление, че ИИ се превърна в новия глобално значим фактор непосредствено след пандемията от COVID и сред все повече конфликти, преминаващи във войни. Усещането, че редът и сигурността в света излизат от контрол подсили това внушение. Но доколко основателно е то?

ChatGPT, макар да не е единственият модел на т.нар. генеративен изкуствен интелект, подпомагащ извършването на интелектуален труд от всякакво естество, се превърна в нарицателно за тази технология (това е и най-търсената дума в Гугъл от българските потребители по технологични теми). И не само. Повечето хора свързват с името на продукта на компанията OpenAI както понятието чатбот, така и изкуствения интелект и приложенията му изобщо. Думите на годината на речниците на Колинс и на Кеймбридж също са свързани с ИИ и с репутацията му да може да подменя - забавно или не съвсем - реалността по убедителен начин.

Все още няма отговор какво е нивото на опасност. Чатботовете наистина могат да помогнат на злонамерените участници да създават достоверно звучаща информация, която не се основава на факти, в масов мащаб, бързо и на ниска цена. Изследователи, съсредоточени върху темата, показаха наскоро, че чатботовете могат да съставят новинарски статии, есета и скриптове, които разпространяват теории на конспирацията, като "изглаждат човешки грешки като лош синтаксис и грешни преводи и се отдалечават все повече от лесно откриваемите изпълнения от типа copy/paste".

Сега един-единствен манипулатор с достъп до ефективен чатбот може да генерира значителен обем от публикации, които "звучат" като да са написани от хора, и да наводни платформите с тях с потенциал да навреди на репутацията на невинни и на цели компании. И ако изфабрикуваните сценарии не са достатъчно голям проблем сам по себе си, модели с изкуствен интелект като MidJourney или Dall-E, Heygen и прочее дават възможност за създаване на фалшиви образи на, да речем, главен изпълнителен директор, лидер на партия, кандидат за публична позиция и т.н., който прави или казва нещо нередно. Т.нар. deep fake провокации с политици и висши официални лица се появиха вече и в България. Но са сравнително лесно разпознаваеми. Засега.

<strong>Морална паника</strong> – широко разпространено чувство на страх и загриженост сред голям брой хора, че някакво зло застрашава благосъстоянието на обществото, съпътствани от преувеличени или ирационални мисли и действия относно естеството на заплахата.

Морална паника – широко разпространено чувство на страх и загриженост сред голям брой хора, че някакво зло застрашава благосъстоянието на обществото, съпътствани от преувеличени или ирационални мисли и действия относно естеството на заплахата.

Не на последно място, злонамерените участници могат да обучат/тренират модели изкуствен интелект от собствена библиотека с изфабрикувана или изопачена информация, която те след това ще мултиплицират във всевъзможни варианти и ще я разпространяват.

Етос, логос и патос

Управлението на риска от дезинформация е сложно, но не невъзможно. Както бизнесите, така и публичните личности и организации, защитаващи права на човека, трябва да предвиждат и планират рязко повишилите нивото си опасности от дезинформация, планове за кибератаки или кризисни събития. Допълнителни средства и усилия трябва да отиват за проактивни действия, наблюдаване как техните марки и съобщения се възприемат онлайн и да са готови бързо да реагират в случай на инцидент.

Кампания, изградена върху стилистиката и оперативния план за действиe на съветската пропаганда, но проведена в южноамериканска държава през 2023 г. и с безграничната продуктивност на модел изкуствен интелект, обучен специално за целта, ще остане в историята като първата подобна в ерата на ChatGPT.

Аржентина бързо се превърна в тестова площадка за "впрягането" на изкуствен интелект в предизборни кампании. И двамата кандидати и техните поддръжници използваха технологията, за да модифицират съществуващи изображения и видеоклипове и да създават други за ситуации, които никога не са съществували.

По-рано през годината Би Би Си съобщи, че уелски политик е изнесъл реч в парламента, генерирана от ChatGPT, с която поздравява Уелс за спечелването на Световната купа по дартс. Завършекът на речта с "да живее дартсът" е прозвучала странно и не е останала в окончателната версия, но като цяло ChatGPT се е справил добре и е изпълнил поставената му задача за секунди, спестявайки времето и усилията (и заплащането) на автор на речи. Консерваторът Том Гифард е казал пред Би Би Си, че е "произвел" и произнесъл речта, "за да покаже колко напреднала става технологията".

Хора, "захранили" езикови модели с голямо количество свои текстове, твърдят, че ChatGPT успява да влезе в "тона им" толкова убедително, че се плашат от това на какво ще бъде способен утре - в следващата или по-следващата версия, която ще се появи след месец или година.

Запитан кои са основните вектори на дебатите, свързани с използването на генеративни модели ИИ като него самия в различни области като политика, маркетинга и създаване на информация, в контекста на демократимно общество, самият ChatGPT "отговаря" така:

Дезинформация и манипулация: Генеративният ИИ може да се използва за създаване на реалистично изглеждащи фалшиви новини, пропаганда или подвеждаща информация. Това може да се използва за манипулиране на общественото мнение, влияние върху избори и разпространение на фалшиви разкази.

Пристрастия и дискриминация: Ако данните, използвани за разработване на модели ИИ при обучението им, съдържат пристрастия, генерираното съдържание може да отразява и поддържа тези пристрастия. Това може да доведе до последици от използването на същите тези модели, които засилват съществуващите обществени предразсъдъци.

Етично използване на ИИ: Злоупотребата с генеративен ИИ в политически кампании, маркетинг или създаване на информация може да наруши етичните стандарти. Например създаване на deep fake видеоклипове или генериране на съдържание, което преминава етичните граници.

Сигурност и манипулиране на избори: Генеративният ИИ може да се използва за създаване на сложни кампании за дезинформация, които потенциално да окажат влияние върху избирателите и да нарушат демократичните процеси.

Прозрачност и отчетност: Сложният характер на модели ИИ като GPT-3 превръща в предизвикателство разбирането за това как се вземат решения и как да се определи кой носи и трябва да поеме отговорността за генерираното съдържание.

Въздействие върху публичния дискурс: Широкото използване на генерирано от ИИ съдържание в политиката и маркетинга може да допринесе за влошаване на обществения дискурс, тъй като сензационното или поляризирано съдържание е по-вероятно да привлече вниманието.

Дори да има какво да се добави към тези предложения (в оригиналния отговор на безплатния за използване ChatGPT 3.5 те са развити малко по-обстойно), чатботът се е справил по начин, който дава достатъчно добра отправна точка, генерирана от машина.

Комуникативно действие и разум

Широкото използване на чатботове и комуникационни инструменти, управлявани от ИИ, може да предизвика значителни последици за начина, по който хората взаимодействат помежду си и по-общо за осъществяването на публичната сфера. А тази сфера е условие за функционирането на демокрацията и отслабването ѝ е симптом или предвестник на уязвимости и криза.

Наличието и най-общо удобството на чатботовете с изкуствен интелект може да доведе до промяна в комуникационните модели, като хората избират да взаимодействат по-често с автоматизирани системи, отколкото с други хора.

Редовните взаимодействия с чатботове на основата на големи езикови модели, които реагират незабавно и без емоционални колебания, но същевременно създават усещането за човешко общуване, могат да доведат до намаляване на търпението и разбирането на околните. Особено по отношение на хора, които имат по-нюансирани и емоционални стилове на комуникация. Всички, ползващи социални мрежи, вече много добре познават как егоцентризъм, безконтролният стремеж към самоизява и стремежът за събиране на повече "лайкове" и споделяне формираха и деформираха начина, по който комуникираме и защо го правим.

Към това може да се добави общуването чрез все повече визуални елементи. Смисълът, предаван с думи се прехвърли върху "инстантни", но и нееднозначни съобщения.

В комбинация с тези масови промени в мисленето на "платформения човек", прекомерното разчитане на чатботове може да доведе до отслабени социални умения, включително усет за невербални знаци и фини нюанси в разговора.

А именно нюансите са засега едно от слабите места на чатботовете. Те са програмирани да бъдат учтиви и полезни, но не проявяват истински емоции и преживявания, липсват спонтанните и ирационални реакции, присъщи на човека. Те грешат, но за разлика от грешките, които човека прави, тези на чатбота се възприемат по-малко критично, "защото не са направени нарочно". Което крие капан - прекаленото разчитане на взаимодействие с ИИ може да засили мнителността в комуникацията с други хора.

Клод, например, може да ходи на срещи вместо вас, да слуша и да си води записки вместо вас, да задава и да отговаря на въпроси, когато е необходимо, за да събере или предостави допълнителна информация, спестявайки времето и усилията на човека, когото замества. Клод е чатбот с ИИ, захранван от голям езиков модел, подобно на ChatGPT. А в тази си роля - асистент с изкуствен интелект - с която сваля от плещите на хората необходимостта да ангажират собственото си съзнание и комуникативни умения, за да участват в представяния и обсъждания. А с това снема и отговорността от тях.


След двете години на безкрайни скучни срещи в Zoom по време на COVID, за мнозина това звучи като сбъдната мечта. Но неизбежно възниква въпросът - а в кой момент ще стане напълно безполезно участието на хората в подобни разговори, ако вместо това всеки "изпрати" своя личен асистент и прехвърли бремето на изброените дейности и действия на него? И защо да се ограничаваме до работните срещи, ако можем да печелим време за други занимания, като делегираме на Клод (Барт, Грок или който и да е друго подобен чатбот, захранван от голям езиков модел) изслушването и участието в разговори по всякакви теми ?

<strong>Технопаника</strong> – паника, която се съсредоточава около обществените страхове, причинени от конкретна съвременна технология или технологична дейност, а не просто от съдържанието, преминаващо през тази технология или среда.

Технопаника – паника, която се съсредоточава около обществените страхове, причинени от конкретна съвременна технология или технологична дейност, а не просто от съдържанието, преминаващо през тази технология или среда.

Вече е известно, че комбинацията от платформа, която поставя метриките на взаимодействията над всичко, не работи в най-добрия интерес на демокрацията. Досега алгоритмите основно усилват разпространението, видимостта, чуваемостта и предлагат свързано съдържание. Новата действителност на генеративния изкуствен интелект създава още по-големи предизвикателства и риск от дезориентация. Кой говори? Кой слуша? Кой се съгласява и с какво?

Плати си или се съгласи (а още по-точно - примири)

През 2023 г. платформи като "Мета" започнаха да експериментират с абонаментни планове. От началото на ноември европейските потребители "имат избор" - или да се съгласят да бъдат проследявани за персонализирана реклама, или да плащат до 252 евро на година. Това е цената да запазят основното си право на защита на данните в "Инстаграм" и "Фейсбук".

  • Групата на Максимилиан Шремс - noib - направи някои елементарни изчисления, според които "поддържането на личния телефон да си остане наистина личен скоро може да струва около 8815 евро на година или 35 хил. евро на година за четиричленно семейство". Причината е броят приложения, които човек използва на телефона си и перспективата всяко от тях да въведе този модел и подобна такса.
  • Подавайки поредната жалба срещу "Мета" до агенция за защита на личните данни, Шремс припомни, че повече от 20% от населението на ЕС вече е изложено на риск от бедност. Което означава, че за мнозина "изборът", през който "Мета" ги поставя, ще се свежда до "да си платя наема или да имам личен живот". Това е нова разделителна линия с пряк ефект върху представителната демокрация и свободата да се дискутира и оспорва. И тя не е възможна без активно гражданско участие и способността за информирано вземана на решения.

Какво да очакваме през 2024

1. Изкуственият интелект ще бъде регулиран на ниво разработване, позволена употреба

По-строгите разпоредби, които се задават, могат да насърчат доверието в системите с изкуствен интелект, като гарантират етично използване, поверителност и отчетност. Но дори в Европейския съюз, където макар и трудно се стигна до общ подход и предстои приемането на първия законодателен акт за ИИ, правилата ще влязат в сила най-рано през 2026 г. Бизнесът започва да се адаптира и се влияе от (и да влияе на) законодателни промени преди да започне прилагането им.

От друга страна свръхрегулирането може да задуши иновациите и да създаде прекомерни тежести за бизнеса и особено за новите играчи. А тези разпоредби няма да важат за всички. И там, където няма ограничения, ще се създадат условия за конкурентно предимство.

2. Нови играчи и продукти

Нововъзникващите стартиращи компании могат да разработят и въведат иновативни приложения с изкуствен интелект, и по този начин да разнообразят пазара и стимулират конкуренцията. В същото време бързото навлизане на пазара може да доведе до проблеми с недоказана надеждност и качество, рискувайки доверието на потребителите.

3. Нови области на употреба

Навлизането и усъвършенстването на изкуствения интелект в здравеопазването, образованието и устойчивите технологии може да доведе до революционни пробиви тези сектори. Етичните опасения и потенциалните пристрастия обаче остават и трябва да бъдат наблюдавани и изследвани внимателно в чувствителни области.

4. Нормализиране на ИИ

Широкото въвеждане може да доведе до повишена ефективност, рентабилност и подобрено изживяване на потребителите. Обаче зависимостта от ИИ може да породи опасения по повод скоростта и посоката на трансформация на индустриите най-вече с оглед на професиите и работните места и етичните последици, свързани с това.

5. Пробив в науката

Става дума за пробиви в области като откриване на лекарства, климатично моделиране или суперкомпютърни изчисления, базирани на квантови системи. И тук - както и навсякъде другаде - остава въпросът за етичните съображения и отговорното внедряване, които ще бъдат решаващи за предотвратяване на непредвидени последствия при приложения с високи залози.

Източник: dnevnik.bg

Facebook коментари

Коментари в сайта

Трябва да сте регистриран потребител за да можете да коментирате. Правилата - тук.
Последни новини