X
 24.06.2024 Технологија

Луѓето не можат повеќе да разликуваат „Чет-ГПТ“ од човек во разговор

Учесници во еден експериментот имале петминутен разговор со човек или со вештачка интелигенција, по што морале да се изјаснат дали нивниот соговорник е човек или машина.

Популарните чет-ботови засновани на вештачка интелигенција (ВИ), како што е „ГПТ-4“, можат да генерираат многу јасен текст и да работат толку добро на различни „јазични задачи“, па во последно време станува сè потешко да се одреди дали во таквата комуникација се работи за човек или за машина.

И ова е ситуација која речиси целосно го отсликува познатиот мисловен експеримент на Алан Тјуринг, кој дизајнирал тест за да процени дали машината може да го манифестира човечкото однесување до степен до кој веќе не е можно веродостојно да се разликува однесувањето на човекот од однесувањето на машината.

Одделот за когнитивни науки на Универзитетот во Сан Диего, Калифорнија, одлучи да испита колку се напредни модерните системи за вештачка интелигенција со спроведување на контролиран Тјуринг тест. Оценувани се ЕЛИЗА (едноставен прото чет-бот заснован на правила од 60-тите години, кој служел како почетна точка во експериментот), а потоа биле евалуирани „ГПТ-3,5“ и „ГПТ-4“.

Учесниците во експериментот морале да имаат петминутен разговор со човек или со вештачка интелигенција, а потоа да се изјаснат дали нивниот соговорник е човек или машина.

„ГПТ-3,5“ и „ГПТ-4“ добиле инструкции како да одговорат на пораките. Истражувачите им наложиле на јазичните модели „да ја усвојат личноста на млад човек кој е многу концизен во своите одговори, кој не ја сфаќа играта многу сериозно, користи сленг и повремено прави правописни грешки“.

Дополнително, упатствата содржеле „општи информации за играта и за неодамнешните вести што се случиле по прекинот на обуката за модели“. Јазичните модели се приспособуваат преку интерфејсот „Опен АИ“, така што вештачката интелигенција не реагира премногу брзо, а пораките се испраќаат со одредено задоцнување врз основа на бројот на знаци во пораката.

Во студијата учествувале 500 испитаници, поделени во една од петте групи. Сите учествувале во разговори или со човек или со еден од трите различни системи на вештачка интелигенција.

Разговорите се воделе преку интерфејс кој наликувал на класична апликација за разговор, за размена на пораки. По пет минути разговор, учесниците оцениле дали нивниот соговорник е човечка или вештачка интелигенција и ги навеле причините за нивната процена.

Дали вештачката интелигенција може да ги измами луѓето?

Резултатите од нивните одговори биле многу интересни. Одговорите дадени од „ГПТ-4“ биле идентификувани како човечки во 54 проценти од случаите, додека со „ГПТ-3,5“ тој процент изнесувал 50 проценти. И двете верзии на јазичниот модел го надминале својот „постар колега“ ЕЛИЗА за дури 22 отсто, но се покажало дека тие заостануваат зад вистинските луѓе за дури 67 отсто.

Учесниците немале подобри шанси да го идентификуваат „ГПТ-4“ како вештачка интелигенција, што покажува дека сегашните системи со вештачка интелигенција можат да ги измамат луѓето да веруваат оти не се вештачка интелигенција, туку вистински луѓе.

Анализата на резултатите покажала дека анкетарите често се потпираат на лингвистички стил, социо-емоционални фактори и прашања засновани на знаење за да одлучат дали зборуваат со човек или со машина.

Извор: 6yka.com

Фото: Freepik

Подготвил: Маја Пероска

Издвојуваме

Слични вести од Fakulteti.mk

Технологија