Вече знаем коя е думата на 2023 г. според Речника на Кеймбридж. И както можем да очакваме, тя е доста актуална. По-особеното в случая обаче е, че дори вече има ново определение за нея, което се отнася за изкуствения интелект, генериращ невярна информация.
Думата на изминаващата година е "халюциниране". С традиционното определение за нея вероятно всеки е наясно - "да виждаме, чуваме, усещаме или помирисваме нещо, което не е реално, но е предизвикано от здравословно състояние или употребена субстанция.
В новото допълнително значение според речника на Кеймбридж обаче "халюциниране" вече може да се отнася и до следното: "Когато изкуствен интелект (компютърна система, която има някои от качествата, които притежава човешкият мозък, като например способността да произвежда език по начин, който изглежда човешки) халюцинира, той произвежда невярна информация."
Изборът на точно тази дума за 2023 г. е свързан с нарастването на интереса към инструменти за генеративен изкуствен интелект, какъвто е ChatGPT например, през изминалите месеци. Подобни програми действително могат да генерират текстове, които звучат правдоподобно, но има добра причина невинаги да им се доверяваме. Оказва се, че често се използват фалшиви, подвеждащи или измислени "факти". Оттам и определението, че "халюцинират".
Източник: iStock
Фактът, че изкуствения интелект може да "халюцинира", ни напомня, че трябва да мислим критично докато го използваме. Той безспорно е полезен и добър в прехвърлянето на огромни количества данни, за да извлече специфична информация и да я консолидира. Но колкото повече оригиналност търсим от него, толкова по-вероятно е да ни заблуди.
Освен това Уендалин Никълс, която е част от екипа на речника на Кеймбридж, изтъква, че щом става дума за създаване на вярна и актуална информация, човешките опит и знание несъмнено са по-важни и търсени.
И това не е просто твърдение, което да успокои хората, които се чувстват застрашени, че могат да изгубят работата си заради изкуствения интелект. Има реални примери, които доказват, че той може да бъде подвеждащ.
Така например адвокатска кантора в САЩ използва ChatGPT за правно проучване, което обаче води до цитирането на фиктивни случаи в съда. Друг пример е промоционалното видео на Google за неговия чатбот Bard, който допусна фактическа грешка относно космическия телескоп James Webb, пише Independent.