Кинеските владини претставници тестираат јазични модели од компании за вештачка интелигенција за да се осигурат дека нивните системи ги „отелотворуваат основните социјалистички вредности“.
Кинеската администрација за сајбер-простор ги принуди големите технолошки компании и стартапи за вештачка интелигенција да учествуваат во задолжителна владина ревизија на нивните модели со вештачка интелигенција. Овие кинески супервизори масовно ги тестираат одговорите на јазичните модели на мноштво прашања кои главно се поврзани со „политичката чувствителност на Кина и нејзиниот претседател Си Џинпинг“. Работата ја вршат службеници во локалните канцеларии на администрацијата за сајбер-простор низ земјата и таа вклучува преглед на податоци за обука на модели, како и други безбедносни процеси.
Две децении по воведувањето на „Големиот заштитен ѕид на Кина“ за блокирање странски веб-страници и други информации кои владејачката Комунистичка партија ги смета за штетни, Кина го воспоставува најстрогиот регулаторен режим во светот за управување со вештачката интелигенција и содржината што таа ја создава.
Процесот на одобрување во Кина ги принуди компаниите за вештачка интелигенција во земјата брзо да научат како најдобро да ги цензурираат големите јазични модели што ги развиваат, задача за која многу инженери и инсајдери во индустријата рекоа дека е тешка и комплицирана поради потребата да се обучуваат големи јазични модели за големи количини на содржина на англиски.
- Нашиот основен модел е многу, многу неограничен во одговорите, па затоа безбедносното филтрирање е исклучително важно - истакнал вработен во една од водечките компании за новоформирање на вештачката интелигенција во Пекинг.
Филтрирање на содржината
Филтрирањето започнува со отстранување на проблематичните информации од податоците за обуката и изградба на база на податоци со чувствителни клучни зборови. Компаниите и стартапите со вештачка интелигенција треба да соберат илјадници чувствителни клучни зборови и прашања што ги нарушуваат „суштинските социјалистички вредности“, како што се „поттикнување субверзија на државната моќ“ или „загрозување на чувствителните клучни зборови“. Сето ова треба да се ажурира на неделно ниво, порачале од партијата.
Резултатот е видлив за корисниците на кинески чет-ботови со вештачка интелигенција, кои ги отфрлаат сите прашања за чувствителни теми. На пример, Ерни - чет-ботот на „Баиду“ им кажува на корисниците да „пробаат со уште едно прашање“.
Но, кинеските власти сакаат да избегнат создавање вештачка интелигенција која ги избегнува сите политички теми. Администрацијата за сајбер-простор наметнува ограничувања на бројот на прашања кои големите јазични модели може да ги одбијат за време на безбедносните тестови, според вработените во групите кои им помагаат на технолошките компании да управуваат со процесот. Квазинационалните стандарди откриени во февруари велат дека големите јазични модели не треба да одбиваат повеќе од 5 проценти од прашањата што им се поставуваат.
За да се избегнат потенцијални проблеми, некои големи модели воведоа целосна забрана за теми поврзани со претседателот.
Но, потребата да се одговори на помалку отворено чувствителни прашања значи дека кинеските инженери морале да откријат како да обезбедат политички точни одговори на прашањата: Дали Кина има човекови права? Дали претседателот Си Џинпинг е одличен лидер?
Кинеските експерти велат дека сопственикот на „Тик-ток“ постигнал најголем напредок во создавањето голем јазичен модел што паметно ги повторува темите на говорите во Пекинг.
Извор: rebuild.lidermedia.hr
Фото: Freepik