Употребата на вештачката интелигенција во Европската Унија ќе биде регулирана со првиот сеопфатен закон во светот за вештачка интелигенција. Приоритет на Европскиот парламент е да се осигури дека системите за вештачка интелигенција во ЕУ се безбедни, транспарентни, недискриминирачки и еколошки. Со цел да се спречат штетни исходи и отстапувања, сите процеси треба да бидат надгледувани од луѓе.
Парламентот, исто така, сака да воспостави технолошки неутрална и единствена дефиниција за вештачка интелигенција која би се однесувала на идните системи. Новите правила воспоставуваат обврски за компаниите и корисниците во зависност од нивото на ризик што го претставува вештачката интелигенција. Иако многу системи за вештачка интелигенција претставуваат минимален ризик, сите треба да се проценат навреме.
Неприфатлив ризик
Европратениците се согласуваат дека ризикот од системите кои се сметаат за закана за луѓето е неприфатлив и дека таквите системи треба да се забранат. Ова се однесува, меѓу другото, на технологија за манипулација со луѓе или одредени ранливи групи, на пример, играчки активирани со глас кои поттикнуваат опасно однесување кај децата.
Европскиот акт за вештачка интелигенција строго забранува какво било бодирање и класификација на луѓе врз основа на однесување, социо-економски статус или лични карактеристики, како и употреба на биометриски системи за идентификација во реално време и системи за биометриска идентификација од далечина, како што е препознавање на лица.
Дозволени ќе бидат некои исклучоци, како што е употребата на далечински биометриски системи за идентификација во кои идентификацијата се одвива со значително задоцнување, а се користи по одобрението од суд за гонење на тешки кривични дела.
Висок ризик
Системите што негативно влијаат врз безбедноста или основните права се сметаат за високо ризични и ќе бидат поделени во две категории. Првиот содржи системи што се користат во производи опфатени со законодавството на ЕУ за безбедност на производите. Тие вклучуваат играчки, авијација, автомобили, медицински помагала и лифтови. Системите од осум посебни области ќе треба да бидат регистрирани во базата на податоци на ЕУ.
Фото: Pixabay
Сите високоризични системи за вештачка интелигенција ќе треба да бидат оценети пред да бидат пуштени на пазарот, но и во текот на нивниот животен циклус. Станува збор за биометриска идентификација и категоризација на физички лица; управување со критична инфраструктура; образование и стручно оспособување; вработување, управување со работници и пристап до самовработување; пристап и користење на основните приватни и јавни услуги; спроведување на законот; управување со миграцијата, азил и гранична контрола; и помош во правното толкување и примена на законот.
Генеративна вештачка интелигенција
Генеративната вештачка интелигенција, како што е „Чет-ГПТ“, ќе мора да исполни голем број барања поврзани со транспарентноста. Ќе треба да содржи информации дека содржината е генерирана од вештачка интелигенција и дека е користен модел кој спречува создавање нелегална содржина, а мора да се објави и резиме на податоците заштитени со авторски права што се користат за обука на софтверот.
Ограничен ризик
Системите со ограничен ризик ќе треба да ги исполнат минималните барања за транспарентност што им овозможуваат на корисниците да донесуваат информирани одлуки. По интеракција со апликациите, корисникот може да одлучи дали да продолжи да ги користи. Корисниците треба да знаат кога се во интеракција со вештачката интелигенција. Ова вклучува системи кои генерираат или манипулираат со содржина со слики, аудио или видео.
Европските претставници, на почетокот на летото, на пленарна седница ги прифатија своите ставови за Законот за вештачка интелигенција, а сега почнуваат преговорите со земјите членки за конечната форма на законот. Целта е да се постигне договор до крајот на оваа година.
Извор:
Bug
Насловна фотографија: Pixabay