Уикипедия:Използване на изкуствен интелект
| Първи стъпки | Правна рамка | Енциклопедично съдържание |
Уикиетикет | Редактиране на страници |
Портал на общността |
Навигация |
Тази страница представлява есе, което може да съдържа съвети и мнения от различни редактори, но не е официално прието правило в Уикипедия. |
Съдържанието накратко:
|

От мен повече няма нужда. Забавлявайте се с ChatGPT.
БОГ 👋
На снимката: улично изкуство от Тел Авив, 2023.Тази страница има за цел да помогне да бъдат разбрани по-добре проблемите, свързани с използването на изкуствен интелект (ИИ) при редактиране в Уикипедия. Тя се опитва също да даде полезни насоки как да бъдат преодолявани тези проблеми.
Основен фокус са специфичните и значително по-сложни проблеми, произтичащи от развитието на генеративния изкуствен интелект и в частност на големите езикови модели (LLM). Може би най-популярният пример за система, базирана на такъв модел, е ChatGPT, поради което той е използван за някои от примерите. Тези примери обаче са еднакво валидни и за всяка друга подобна система, независимо дали генерира текстово, образно или друго съдържание.
Ако разполагате с ограничено време, може директно да се прехвърлите към раздела „Основни насоки“. Въпреки това ви препоръчваме да отделите време и на въведението, което има за цел да предостави важен контекст и обосновка на последващите препоръки.
Въпреки че страницата представлява есе, а не официално прието правило, насоките в нея са базирани на съществуващите правила и принципи.
TL;DR
| „ | Пичове, немам време да ви чета глупостите! Мога или не мога да използвам ИИ в Уикипедия?! | “ |
- Ако нямате опит като редактор в Уикипедия...
- ... препоръчваме ви да не използвате генеративен ИИ или да го използвате крайно ограничено – в раздела „Препоръки за употреба“ може да намерите полезна информация.
- Ако нямате добри познания в областта на генеративния ИИ...
- ... препоръчваме ви да не го използвате или да го използвате крайно ограничено – в раздела „Препоръки за употреба“ може да намерите полезна информация.
- Ако имате опит като редактор и познавате добре ограниченията на генеративния ИИ...
- ... бъдете внимателни и отговорни.
| ПОМНЕТЕ! Независимо кой е авторът, с натискането на бутона „Публикувай“ ВИЕ поемате пълната отговорност за публикуваното. |
Въведение
Благословия или проклятие?

Роботите и ИИ за много хора са източник на вдъхновение...
На снимката: младежи с робот на национална конференция за наука, технологии и иновации в столицата на Бразилия, 2024.
... но и на тревога за бъдещето на човечеството.
На снимката: карикатура „естествено глупав вместо изкуствено интелигентен“ от карнавала в Базел, 2024.Макар корените на ИИ да могат да бъдат открити още в Античността, сериозното развитие в тази област започва през втората половина на ХХ век. До началото на ХХI век обаче успехите са доста ограничени. Последвалият бърз напредък в машинното самообучение е може би първото по-широко навлизане на ИИ в различни области на живота, но дори то остава до голяма степен в миманса за неспециалистите.
Ситуацията се променя коренно с бурното развитие на генеративния ИИ в началото на 20-те години на XXI век. ИИ става не просто ежедневна тема в новини и дискусии – осъзнаването на ИИ като възможна заплаха за човечеството също излиза от страниците на научната фантастика и се превръща в източник на реална тревога. „Масова безработица!“, „всеобщо оглупяване!“ – както е обичайно за подобни периоди на фундаментална трансформация, алармистка паника и реални заплахи се смесват в трудна за разплитане какофония.
Тези проблеми се задълбочават още повече от растящата поляризация в обществата по най-различни теми, както и от лекотата, с която днес манипулации и дезинформация се разпространяват в глобалното информационно пространство. Неудивително, за ИИ също изобилстват крайни мнения: от утопично светло бъдеще с безплатни блага за всички до мрачни картини на технофеодализъм и безкрайни страдания и несправедливост за „масите“.
Още по-важно, поляризацията неизбежно достига до съвсем практичните решения: докато някои търсят за какво още и повече да използват ИИ, други категорично отричат всякаква употреба.
Трезвата реалност – както в Уикипедия, така и другаде – е, че ИИ може да бъде и изключително полезен, и опасно вреден.
Всичко зависи от това как бива използван.
Ценността на Уикипедия

Уикипедия се пише от много хора като вас. И това е нейната огромна ценност. Пазете я!
На снимката: малка група от редакторите в Уикипедия на български език с нейния създател, Джими Уейлс, София, 2009.
ИИ би могъл да се поучи от котките. Всички се тревожат, че ИИ може да ни завладее – но да сте чували някой разтревожен, че котките вече ни владеят?!
На снимката: истината, която крият от вас е, че Уикипедия всъщност се пише от котки.Когато Уикипедия едва започваше да се развива, много хора предричаха, че проектът неизбежно ще се провали, и то гръмко. Как е възможно да постигне успех една енциклопедия, в която всеки може да пише – при това анонимно?!
Това, което тези хора пропускаха, е, че Уикипедия наистина може да се пише от всекиго – но не по всякакъв начин.
Представянето на принципите на Уикипедия далеч надхвърля обхвата на тази страница. Уикипедия:Петте стълба и Уикипедия:Политика и правила са добри въведения. Най-важното за настоящата тема обаче е, че Уикипедия изисква:
- информацията в нея винаги да бъде да може да бъде проверена от читателите чрез благонадеждни източници;
- редактирането да бъде колективен процес, в добросъвестно и добронамерено сътрудничество с множеството други редактори.
Времето действително доказа състоятелността и жизнеспособността на тези основополагащи принципи. Уикипедия не просто оцеля, но се превърна в един от стълбовете на съвременното информационно пространство – удобен и ценен източник на знания за най-широки кръгове от обществото.
Разбира се, енциклопедията продължава да бъде обект на критики – с различна степен на основателност. Съществуващите проблеми обаче често потвърждават още повече устойчивостта на модела на Уикипедия.
Един от честите упреци например е пристрастността. От една страна, подобни упреци най-често идват от хора с полярни виждания, които няма как да се съгласят с нещо различно от тяхното полярно виждане. От друга страна, факт е, че неутралността на Уикипедия е динамичен процес: понякога, особено по „горещи“ теми в определени моменти, е възможно да има известно надделяване на едни над други гледни точки. Но в дългосрочен план и като цяло Уикипедия успява да отрази изключително добре обществения и професионален консенсус.
Този тип проблеми проличават по-силно в по-малките езикови общности – и точно така потвърждават валидността на модела на Уикипедия: колкото повече са „главите“, толкова по-добро е съдържанието. Там, където по едни или други причини редакторите са малко, вероятността качеството да страда – освен количеството – неизбежно е по-голяма.
Ако трябва да знаете наистина само едно нещо за Уикипедия, то е това: енциклопедията е ценна, защото се пише съвместно от много и най-различни хора.
Халюцинации и фалшификации

Халюцинациите позволяват на ИИ да бъде и творец – но те са бич, когато от ИИ се очакват логика и факти
На картинката: генерирано от ИИ изображение по тема „халюцинации“.
Хората обаче също не сме имунизирани срещу „халюцинации“. Далеч преди бума на генеративния ИИ Уикипедия ставаше жертва на мистификации – писани от човеци.
На картинката: пример от една от най-големите фалшификации в Уикипедия, Zhemao hoaxes.
Не подценявайте рисковете. Вие носите отговорност за редакциите. Ако ИИ ви подведе, ВИЕ може да загубите правото да редактирате.
На картинката: съобщение за блокиране от интерфейса на Уикипедия, в случая от адреси на френския доставчик OVH, често използвани за вандализъм.Изследванията на човешкото поведение отдавна са откроили един интересен и не толкова изненадващ феномен. Средностатистически, хората оценяваме компетентността на други хора не толкова по техните реални познания и умения, колкото по увереността, която излъчват.
Особеностите на човешката психология също далеч надхвърлят обхвата на настоящето есе. Но този конкретен феномен е важен за темата за ИИ.
| „ | ChatGPT, напиши статия за Х, която да публикувам в Уикипедия! Статията трябва да отговаря на всички изисквания на Уикипедия! | “ |
Защо наистина е нужно да хабим време и сили за писането на статии – каквито те изискват в големи количества! – когато ChatGPT се справя толкова впечатляващо добре?
Езиковите модели, както подсказва името им, са майстори на езика. Написаната от тях „статия“ звучи толкова увлекателно и толкова авторитетно професионално, колкото поискате от модела. Не само това – моделът най-подробно ще ви обясни какви са изискванията на Уикипедия и какво точно е направил, за да спази всяко едно от тях. Увереността, с която пише тези неща, внушава вън от всякакво съмнение изключително широко и едновременно задълбочено познаване на материята.
Няма как да не сте направили вече връзката. Увереността невинаги има зад себе си реална компетентност.
Ограниченията на генеративния ИИ са поредната тема, която е невъзможно да бъде обхваната от тази страница. Но един проблем изпъква особено силно, особено в контекста на Уикипедия: халюцинациите – неточни или дори напълно измислени твърдения, които езиковите модели могат да генерират с обичайния тон на непоколебима увереност.
Заплахата от халюцинациите е лесно да бъде подценена. Нали моделът е посочил източници – значи твърденията са проверени!
За съжаление, моделите халюцинират и съдържанието на източниците – и дори самото им съществуване въобще! – със същата лекота, с която халюцинират всякакви други твърдения.
Най-лошото е, че ако доверчиво копирате генерираното от един модел в Уикипедия, без лично да извършите щателна проверка, рискувате не само да въведете в заблуждение читателите с неточна или невярна информация – но и да ги подведете, че информацията е достоверна, след като са посочени видимо изглеждащи авторитетни източници.
Фалшификациите на източници са особено разрушителни за доверието в Уикипедия. Затова и санкциите за подобни нарушения почти винаги са сурови. Не допускайте грешката да се предоверите на ИИ или, банално, да проявите мързел.
Защото ВИЕ ще платите цената. ВИЕ носите отговорност за редакциите си.
Обезценяването на Уикипедия
Най-сериозната заплаха за Уикипедия от ИИ обаче не са дори халюцинациите. Помните ли коя е основната ценност на Уикипедия? Точно така: многото и най-различни хора, които я създават.
| „ | Какво ще стане, ако всички тези много и най-различни мислещи хора изведнъж започнат просто да въвеждат безкритично в Уикипедия това, което им е генерирал някой езиков модел? | “ |
Това ограничение на ИИ може би все още е недооценено. Вярно е, че ИИ се обучава върху много и най-различни мнения – и това би могло, на теория, да му помогне да постигне „мъдростта на многото глави“.
Но многото глави не мислят по-добре просто защото общо имат повече мозъчни клетки от всяка поотделно. Те мислят много по-добре, защото взаимодействат и взаимно се обогатяват. Това е динамичен, непрекъснат процес.
Мъдростта не е състояние, тя е непрестанно развитие.
И все пак...

Някои хора са забележителни оратори. Но не всички имат дар словото на езиковите модели. Това е област, в която ИИ може да бъде истински полезен.
На картинката: „Заключителната пледоария“, скица от Оноре Домие, ок. 1860 – 1870.| „ | Не се страхувам от изкуствения интелект. Страхувам се от липсата на естествения. | “ |
Надценяването на ИИ е опасно. Но не по-малко опасен е хюбрисът от надценяването на собствения ни, човешки интелект.
ИИ помията е особено популярна тема, обаче един непредубеден наблюдател би отбелязал, че в своята собствена история ние, човеците, сме успели да създадем не по-малко количество помия. Не са единици примерите за книги, филми или музика, създадени от хора, които блестят с точно толкова оригиналност и творческо вдъхновение, колкото и генерираните от ИИ. А понякога дори с по-малко.
Ако се фокусираме конкретно върху текста, не всеки човек също непременно е умел в красноречието. Има хора, които са забележително умни – и също толкова неспособни да изразят в писмена или устна реч своите мисли. До степен аудиторията въобще да не бъде в състояние да разбере смисъла на иначе умните размисли.
А езиковите модели действително са добри в това: да пишат, да говорят, да се изразяват с думи.
Тези техни умения не бива да бъдат отхвърляни с лека ръка. Факт е, че дори и в тази област моделите имат своите ограничения: някои техни характерни фрази и изразни похвати може да бъдат дори дразнещи – особено когато започнат да се повтарят масово.
Но дори и с тези недостатъци те все пак може да успеят да разпишат едно съдържание в много по-лесно четим вид, отколкото някой човек, на когото това просто не му е силна страна.
Това не е единствената възможна полезна употреба на ИИ. За повече примери вижте раздела „Препоръки за употреба“.
Основни насоки
Прозрачност
Ако използвате по-сериозно генеративен ИИ в редактирането си в Уикипедия, настоятелно ви препоръчваме да го съобщите на останалите редактори. Като минимум изискваме от вас да не го прикривате.
„Сериозна употреба“ включва всичко отвъд ползване на ИИ за съвети или незначителни корекции. Примери за незначителни корекции са поправки на правописни и граматически грешки или подобрения на езиковия стил, които не променят съществено съдържанието. Директното използване на генерирано от ИИ съдържание, включително при съществени пренаписвания на съществуващ текст, обратно, определено попада в категорията „сериозна употреба“ и е желателно да бъде обявено.
Декларирането на употреба на ИИ цели основно да помогне на вас. Дори ако имате богат опит с ИИ, всички сме хора и всеки от нас може понякога да пропусне дори съществени проблеми. Когато повече редактори знаят, че дадено съдържание е създадено от ИИ, има по-голяма вероятност да бъдат открити възможни проблеми, преди още да са достигнали до множество читатели и нанесли сериозна вреда на енциклопедията.
Откритостта е също важна предпоставка за изграждане и поддържане на доверие, без което работата в колектив е трудна или дори невъзможна. Например ако възникнат основателни съмнения, че сте използвали ИИ, но вие го прикривате или още повече – активно отричате, това може да породи съмнения за съзнателна недобросъвестност.
Тези очаквания и изисквания всъщност не са новост за Уикипедия, а просто продължение на съществуващите норми в използването на автоматизирани системи за редактиране.
Оценка на риска
В преценката дали дадена употреба на генеративен ИИ е подходяща за Уикипедия, идентифицирането на възможните рискове е ключово. Следните примери илюстрират това:
- Нискорискова употреба – анализ и съвети по написан от вас текст
- Генеративният ИИ може да бъде много полезен за чисто езикови задачи: подобряване на структурата на изложението, унифициране на стила на текста, оценка на четимостта, корекции на граматиката и правописа.
- Ако не копирате даденото ви от езиковия модел, а го използвате единствено като съвети за подобрения, които сами да направите, рискът да навредите на Уикипедия е сравнително малък или дори незначителен.
- Среднорискова употреба – използване на написан или преработен от ИИ текст с извършена от вас проверка и добавяне на източници
- Заради склонността към халюцинации генерираният от ИИ текст може да съдържа неточни или дори напълно неверни твърдения. Рискът е по-малък при преразказ на съществуващ текст – например от източник, чийто лиценз не позволява директно копиране в Уикипедия.
- Обратно, рискът е доста голям при генериран единствено по кратка заявка („напиши ми статия за...“) текст в области, които са непопулярни и затова езиковият модел не е „видял“ достатъчно релевантна информация при обучението си.
- И в двата случая рискът може да бъде значително намален, ако ръчно извършите добросъвестна проверка на текста, преди да го публикувате в Уикипедия, съпоставяйки генерираното от ИИ с благонадеждни източници. Това е удобна възможност да изпълните и изискването за цитиране на източници, като ги добавите – лично вие, след като сте ги проверили.
- Не забравяйте обаче: отговорността за въведеното в Уикипедия е ваша. „ChatGPT ме подведе“ не е оправдание.
- Изключително рискова употреба – копиране на генериран от ИИ текст и „източници“ без внимателна или никаква проверка
- Рискът от халюцинации е лесно да бъде подценен. Системи като ChatGPT звучат изключително уверено и авторитетно: те прилежно цитират „източници“ по „всички изисквания на Уикипедия“ и дори обясняват подробно какво точно са направили, за да „спазят“ тези изисквания. На практика обаче е сигурно, че в генерираното от тях съдържание има грешки или дори напълно измислени неща.
- Прочетете отново основния принцип: ако се доверите на ИИ и „неволно“ въведете погрешна, а още повече опасно подвеждаща информация в Уикипедия, вие лично ще понесете последствията, включително като ви бъде забранено повече да редактирате, дори чрез нови регистрации. Дали ще признаете, или не употреба на ИИ, няма да има никакво значение – отговорността е ваша и единствено ваша.
- Не разчитайте на снизходителност при подобно безотговорно, мързеливо поведение.
Колегиалност и прагматизъм

Понякога патиците не са това, което (изглеждат да) са. Затова не забравяйте презумпцията за добронамереност.
На снимката: косплей на Елизабет от мангата Gin Tama, MCM Expo, Лондон, 2008.Подобно на патешкия тест, в отношението към употребата на ИИ също е важно да има баланс.
Не забравяйте, че не всичко, което ви изглежда генерирано от ИИ, непременно е такова. Изследванията доказват точно обратното – хората не умеем да разпознаваме такова съдържание. И дори авторитетните автоматизирани инструменти за разпознаване нерядко уверено грешат.
Ето защо, ако се фокусирате върху въпроса „използван ли е ИИ за тези редакции“, рискувате не просто излишно да ескалирате конфликт – особено ако другият редактор не е използвал ИИ – но най-вече да пропуснете истински важното: самите недостатъци на редакциите. Дори при очевидно недобросъвестно редактиране в крайна сметка истинският проблем не е употребата на ИИ – а човешката недобросъвестност зад тази употреба.
Излишната мнителност, парадоксално, може дори да демотивира точно най-ценните за Уикипедия редактори. Би било крайно жалко, ако редакторите започнат съзнателно да проявяват немарливост, за да не бъдат упрекнати, че са използвали ИИ – иначе „не било възможно“ редакциите им да са толкова прецизни. Подобни тревожни тенденции вече се наблюдават в образователните системи.
Не на последно място, предвид противоречията около ИИ, упреците в използването му в някои случаи могат дори да се разглеждат като лични нападки, особено когато няма съществени проблеми със самите редакции.
Полезен би бил общият съвет: фокусирайте се върху това как редакциите да бъдат подобрени – не кой и какъв (човек, ИИ) е техният автор.
Препоръки за употреба
Този раздел дава примери как може да използвате генеративен ИИ при редактирането в Уикипедия по отговорен начин, така че да подобрите своята продуктивност, без да изложите енциклопедията, кредита на доверие, който получавате от общността, и нейните читатели на безразсъден и необоснован риск.
Както вече бе казано, но си струва да бъде повторено и дори потретено, защото е важно да се осмисли и разбере, достоверността на съдържанието в Уикипедия и доверието в проекта, репутацията на Уикипедия, които не са постоянна величина, не се дължи на написания текст, или по-точно на това как точно е написан. А и едва ли някой би се опитал сериозно да твърди, че всеки редактор, всеки, който допринася за Уикипедия, го прави по един точно определен начин. Достойнството на Уикипедия като съвместен, отворен за всеки проект, в който всеки съзидателен принос е ценен и необходим, се основава на очертаването и придържането към ясни правила, принципи, практики, прозрачност и в крайна сметка навици. Последното е толкова по-видимо и валидно, колкото по-опитни са редакторите. И това има значение предвид начина на придобиване на разширени потребителски права и функциониране на проектите на Уикипедия на всички езици.
Системите с генеративен изкуствен интелект, задвижвани от големи езикови модели, могат да подпомогнат изграждането на тези навици, стига да бъдат инструктирани и използвани правилно (обикновено това означава не само знание как, а дисциплина – как да не). Тоест като инструмент, а не като „бърза писта“ (превежданото от английски като пряк път и съкратена процедура понятие shortcut) и авторитет („последна инстанция“). Безкритичната fast food употреба и предоверяването на създаденото по този начин съдържание (output) са демонстрация за склонността ни, която не е непременно проекция на навлизането на ИИ, към приоритизиране на бързината вместо преценката (преди години известен български журналист без особено колебание отговори, че в ерата на цифровите медии и интернет, бъдат ли поставени на везните скоростта и стриктното спазване на журналистически стандарти, бързината е по-важна). По този начин границата между производството на съдържание чрез анализ/синтез/обобщение и изфабрикуване се размива и редакторите се плъзгат по наклонената плоскост на „аутсорсването“ на интелектуалния труд и творческия процес, а едновременно с това и на всички най-важни за Уикипедия принципи, които правят съдържанието ѝ надеждно и превърнаха проекта в институцията, която е (към 2026 г. – четвърт век след началото): проверката, контекстуализирането и решението какво изобщо е уместно да присъства в статията по определена тема.
Тези насоки не изхождат от идеята, че евентуална забрана ще извади ИИ от работния процес; по-скоро приемат обратното – че подпомагането на процесите по индентифициране на информационните нужди, откриване на релевантна информация, извличането на необходимото от нея по осъзнат и възпроизводим начин, оформянето ѝ в подходящ жанр и обем, и всичко останало, което попада в дефиницията за информационна грамотност, става невъзможно без компетентно и критично използване на ИИ.
Взаимодействието с ИИ така или иначе вече е масова практика (което не означава унифицирана и стандартизирана и тъкмо оттам произтичат проблемите). Синтетичното и нискокачествено съдържание е широко разпространено както в уеб (медийни издания, академични списания, блогове, YouTube и т.н.), така и в електронните медии, тъй като ИИ се използва в голям мащаб без стриктно придържане към правила и добри практики, най-често защото такива или не съществуват, или няма контрол над прилагането им. В зависимост от разработваната (за статия в Уикипедия) тема търсенето на съдържание може да се филтрира до такова, създадено преди определена година, например 2020 или 2018, но първо, границата не е точно фиксирана, а и Semantic Scholar например от самото си създаване използва достиженията на компютърната лингвистика (по-специално NLP чрез машинно самообучение), за да произвежда съдържание в голям мащаб. И второ, основно изискване при създаването на енциклопедично съдържание е да се търсят съвременни източници и представят актуалните достижения на науката към даден момент. Така че това времево ограничение не е работещ като универсален и „правилен“ подход модел, с който проблемите с навлизането на синтетично съдържание във всяка област на знанието могат просто така да бъдат елиминирани.
Очакваната (проектирана) практическа полза от запознаването с препоръките в тази помощна страница и по-специално в този раздел е да подпомогне нас, редакторите в Уикипедия, в използването на ИИ:
- да формулираме заявките си по такъв начин, че да изискваме моделите да демонстрират несигурност или най-малкото да бъдат по-нюансирани в изразяването на убеденост (асертивност) в надеждността на отговорите (инференциите) си;
- да провеждаме ефективна размяна на въпроси и отговори, на заявки и справки (което в проявление на антропоморфизма, с който гледаме на чатботовете, наричаме „разговор“), така че да поставим моделите в подходящи рамки (коловоз);
- да изграждаме и преизграждаме (по Тофлър) навиците си за проверка на фактите и подбор на източниците, за да не компрометираме, а напротив, укрепваме основополагащите принципи на Уикипедия.
Това, че в този раздел са очертани и описани някои полезни начини на употреба на генеративен ИИ, не трябва да се приравнява на идеализиране и да се разбира като инструкция за създаването на съдържание в Уикипедия (и всякакво друго) със споменатите по-долу модели и системи. Така или иначе скоростта на развитието на системите и моделите с изкуствен интелект е такава, че всеки опит да бъдат изследвани и предписани добрите практики най-вероятно е закъснял или най-малкото с кратък срок на годност.
В следващите няколко абзаца можете да се запознаете с някои основни понятия, техники, практики и съображения, подходящи и приложими в процесите на работа с енциклопедичното съдържание на Уикипедия. Тук генеративният изкуствен интелект, захранван от големи езикови модели, е представен като помощник (асистент) в изпълнението на технически и когнитивни задачи – разбиране на информационните нужди, първична проверка на подходяща литература, структуриране на план, генериране на търсения, изграждане на понятиен апарат, сравняване на формулировки, проверка на факти, форматиране (и проверката му) на уикитекст, правнотехнически въпроси, свързани с авторското право, заявки към Уикиданни и др.
Основни принципи
Като за начало, три общи (обобщаващи) принципа:
- Относими към частния случай със създаването на съдържание в Уикипедия са всякакви насоки и правила за етична употреба на ИИ в образованието, научните изследвания и журналистиката. Това е така, тъй като създаването на качествено енциклопедично съдържание, макар да може да бъде обособено в отделен, различим жанр, не е толкова по-различно от етапите и методите на изследователския процес, на който (в един идеален свят) се основава всяка от тези дейности.
- Фундамент (задължително условие) на компетентното и етично използване (извличане на и взаимодействие с информация) на големи езикови модели е т.нар. инженеринг или проектиране на заявките (prompt engineering, чийто превод на български език все още не е установен и нормиран). От това как са формулирани заявките (конкретни параметри, но също така „роля“, в която моделът трябва да „влезе“, за да извлича информация от определени източници по определен начин и с определено ниво на трудност на поднасянето ѝ) в най-голяма степен зависят релевантността, достоверността, надеждността и в крайна сметка използваемостта на резултата (отговора, инференцията).
- Взаимодействието с голям езиков модел изисква и отнема време – нерядко повече време, отколкото изпълнението на същата задача по алтернативен начин. Големият обем информация, която моделите „произвеждат“, и високият риск от ненадеждност на част от информацията (изобретяване на мястото на извличане, подмяна и измисляне на понятия, методи, теоретични рамки), пораждат задължение за обстойна проверка, още повече когато запитващият не се чувства (или не би трябвало да се чувства) особено уверено и компетентно в конкретна област и/или по въпросите, от които се интересува и проучва. Големият обем информация не означава повече и още по-малко по-изчерпателна и точна информация. Тук е важно да се направи уточнението, че въпросната задълбочена проверка и самооценка на собствените ограничения в знанията и разбирането на материята нито започва, нито свършва с използването на LLM. Колкото по-незапознат е човек с дадена тема, колкото по-оскъдни са предварителните му знания, колкото по-малко е тествал и доказал за себе си компетентността си, толкова по-важно е да подхожда скромно и дисциплинирано. Последното е полезно като указание и към модела в рамките на промпта.
Още веднъж, защото това е особено важно: трябва да се има предвид, че синтетичното съдържание вече е навсякъде – нито започва, нито свършва с това, което някой неопитен или не особено усърден редактор в Уикипедия е добавил, или това, което всеки един модел генерира за нас, независимо дали съзнателно използваме чатбот, или извършваме търсене в Google (където най-отгоре получаваме т.нар. AI Preview, към което трябва да сме особено скептични и да използваме най-вече за преглед на вградените в генерирания текст и вдясно от него използвани източници; режимът с изкуствен интелект (AI Mode[1]) се справя по-добре, но директното позоваване на генерирания от него текст също е непрепоръчително). Това означава, че всеки източник на информация, независимо от начина на достигане до него, трябва да бъде оценяван критично, съпоставян с други, несвързани с него, по възможност независими източници, и използван чрез надлежно позоваване единствено, единствено ако не оставя никакво съмнение, че съдържанието му е преминало коректорска и редакторска проверка. Спазващите стандартите на етичната журналистика издания с отворен достъп, както на български, така и на други езици, стават все по-малко и функционират при изключително неблагоприятни политически и икономически обстоятелства. Това има отражение и върху нас, редакторите в Уикипедия. Очакването за генерирано от изкуствен интелект и непроверено съдържание, което достига до Уикипедия, трябва да отговаря на тези промени.
Най-важните стъпки за проверка, независимо от използвания модел и/или система, могат да бъдат сведени до следните:
(i) ИИ може да генерира цитати, които изглеждат реални (правилен DOI формат, истински имена на автори), но не съществуват. Винаги кликвайте върху линка или проверявайте номера на страницата.
(ii) Уверете се, че ИИ не е извадил цитата от контекст, за да подкрепи твърдение, което оригиналният автор не е направил.
Следващите няколко принципа попадат в сферата на етичната употреба, без да са изчерпателни, което така или иначе е трудно постижимо, тъй като не всички етични проблеми са се проявили или са достатъчно задълбочено изследвани.
- Смекчаване на ефекта на усилването на пристрастията
Разработчиците и внедрителите на системи и модели, задвижвани с генеративен изкуствен интелект, използват за обучението им преди всичко англоезични източници, каквито преобладават и в уеб. Това е вярно и за двата основни източника, използвани при обучението на моделите – Уикипедия и „Редит“. Това означава, че рискът от представяне на определена гледна точка (прочит на историята) и възпроизвеждане на стереотипи е значителен. Активно търсете и подбирайте културно-контекстуализирани източници и не разчитайте на ИИ, за да определите „консенсусното“ мнение по спорни теми.
- Поверителност на данните
Не качвайте ничии лични данни в публични инструменти, тъй като тези данни могат да бъдат използвани за обучение на модела.
- Не подценявайте въздействието върху околната среда
Имайте предвид, че широкомащабното използване на ИИ консумира значително количество енергия; използвайте го за сложни задачи, а не за тривиални.
Проектиране на заявки (prompt engineering)
Взаимодействието с големите езикови модели би трябвало да наподобява повече диалог (или фуга, на езика на полифонията, ако ще използваме съществуващи понятия отвъд речниковото име значение, като метафори), отколкото търсене в Google или друга търсачка (с уговорката, че като цяло антропоморфизмът – не толкова в речта, колкото в мисленето – не е полезен подход по отношение на езиковите модели). За да бъде извличането и интерпретирането на информация ефективно и прозрачно, са необходими по-дълги размени на запитвания (инструкции, заявки, уточнения) и отговори (инференциите на модела в отговор на тези запитания). Важна за прецизирането на отговорите на модела е и своевременната обратна връзка, подобно на общуването между учител и ученик – насърчителна, когато моделът правилно интерпретира инструкцията и удовлетворява изискванията и очакванията на човека, и коригираща (къде и как бърка или не успява да удовлетвори конкретните изисквания), когато не се справя според нуждите и очакванията.
Въпросният „диалог“ с големи езикови модели демонстрира особено голяма полза в улесняването на разбирането на концепции, правила и методи на учене. Това, което се предполага да е резултатът от програмата Growth например, е постижимо в някаква степен, като алтернативен подход, с езиков модел. И това е така не само заради комфорта, който „общуването“ с изкуствен интелект създава поради това, че не му липсват нито „търпение“, нито „подход“, същевременно няма осъждане и изобщо динамика в „общуването“, която кара по-малко знаещият да се чувства глупаво и неудобно, а защото на практика всички системи с генеративен изкуствен интелект се обучават върху цялото съдържание на Уикипедия, което включва помощните страници и безкрайните дискусии. Така че за нов, начинаещ потребител, но дори за по-опитен, може да е много по-лесно да достигне до добре, ясно формулирани насоки, които отговарят на степента на навлизането му в темата, така че да разбере някои основни положения (принципи, процеси, добри практики) по-добре и по-бързо, отколкото ако разчита на наставничество от страна на опитен редактор.
Задвижваният от голям езиков модел ИИ е особено ефективен за преодоляване на „синдрома на празната страница“ и структуриране на статии, но носи рискове, свързани с авторските права и качеството.
Нерядко в хода на размяна на инструкции, уточнения и обратна връзка с модела, използван за дадена задача, човек дава сам на себе си посока, тласък, ритъм и структура на мисълта, които на финала използва, за да създаде изцяло собствен текст по темата (въпросите), чието проучване първоначално е възложил на модела с идеята да използва генерираното от него съдържание.
- Консенсусът в секторите на висшето образование и научните изследвания е, че изкуственият интелект би трябвало да се използва (и може да е полезен единствено като) асистент (сътрудник) и средство за подобряване (повишаване) на ефективността, не и като заместител на човешката преценка. За редакторите на Уикипедия това означава, че изкуственият интелект представлява достъпен, потенциално полезен при правилно и критично ползване инструмент, във взаимодействието си с който човекът остава основният изследовател и автор, отговорен за цялото съдържание (концепцията human-in-the-loop). Международни организации като ЮНЕСКО и Европейската комисия подчертават, че човешкият надзор е задължителен, а неглижирането му влече със себе си необоснован риск от пристрастност и неточности. Всеки резултат, всяко твърдение за факт подлежи на проверка и критичен прочит – не само дали е достоверен, а дали е формулиран по подходящ начин.
- Проектирането на заявките (prompt engineering) е умението да се въвеждат входни данни и параметри, които да „извикат“ възможно най-добри резултати от модела, т.е. релевантни, надеждни и подходящо формулирани. Съществуват много и най-различни рамки за проектиране на заявки, чиито предназначение, приложение и полезност са изследвани, сравнени, анализирани и описани в научни публикации. Търсене в arXiv по prompt engineering (в кавички, на първо време с филтър за научната област – компютърни науки) е добра отправна точка (пример).[2]
Библиотечните специалисти препоръчват рамката CLEAR[3], която се основава на следните пет принципа:
Краткост: Само най-важното, изказано максимално ясно и точно, без излишни описания отвъд необходимите уточнения, за да се стесни все пак научното или тематичното поле.
Логичност: Последователността е от значение. Добрата заявка включва указание за това кое след кое следва (стъпка по стъпка)
(напр. „Потвърди, че имаш достъп до линка/приложения файл, прочети го, анализирай го и изведи резултати за…/обобщи съдържанието му/предложи релевантна литература (направи литературен преглед)“.
Конкретност: Указание за формата на резултата (например: „Създайте списък с дати и събития“ в xlsx/csv/JSON формат).
Адаптивност: Ако резултатът е неудовлетворителен, по-добрата стратегия е най-напред да бъде направен опит за конкретизирането му и усъвършенстването му, вместо да се започва отначало.
Рефлективност: Критично оценяване на резултата и това доколко с него е удовлетворена заявката.
Заявката е по-ефективна, когато:
(i) Включва примери. Ако искате ИИ да преобразува текст в уикитекст, например в източник, дайте два примера за правилно форматирани позовавания в заявката, преди да го помолите да форматира третия. В някои случаи може да е подходящо да предоставите и примери за това какво не искате, като изтъкнете често срещана грешка или подход, с който не сте съгласни. (Направи това, не прави онова).
(ii) Подобно на изискването към учениците да изписват цялото решение на дадена задача по математика, за да докажат, че не са налучкали отговора и действително са усвоили материята, добре е от модела да бъде поискано обяснение (отчетност) за последователността от стъпки, които е извършил в процеса на генериране на отговор. Това е т. нар. Chain-of-Thought (CoT), който се генерира в хода на изпълнението и може да бъде проследен при използване на модели с reasoning.
(Пример: Прочети приложения текст. Идентифицирай твърденията за факти едно по едно и посочи трите основни аргумента, изложени от автора по отношение на климатичните промени, след което ги обобщи.)
(iii) Дадете на модела указание за това в каква роля очаквате да влезе.
(Пример: Ти си опитен редактор на съдържание в Уикипедия. Познаваш добре и прилагаш всички основни политики, принципи и препоръки за създаване на качествени приноси, спазвайки всички ключови изисквания – проверимост, благонадеждни източници, неутрална гледна точка, без оригинални изследвания, енциклопедичен тон без излишни суперлативи.)
Това указание може да се комбинира с добри и лоши примери, което е полезно и за самия редактор – да потърси и (се учи да) идентифицира такива примери.
Развитието на начинаещия редактор в Уикипедия (и на критично четящия, дори никога да не редактира) започва с преглед и подбор на статии с високо качество и аргументация защо са такива (кои елементи ги правят такива; как в тях са изпълнени всички най-важни принципи и правила за създаване на енциклопедично съдържание, като се започне с прецизното и изчерпателно позоваване на благонадеждни източници, мине се през неутралната гледна точка и енциклопедичен стил, липсата на предупредителни шаблони, наличието на ясна и утвърдена структура и се стигне до спазването на нормите на книжовния български език); ефективна стратегия е да се дадат и лоши примери (статии, чието качество и достоверност са оспорени, които отдавна не са актуализирани, които имат незадоволителна структура, малко цитирани източници, съдържат суперлативи и оригинални изследвания и т.н.).
Не забравяте за ограниченията на контекстния прозорец (и какво означава това).
Контекстният прозорец (context window) е максималният общ брой токени, които LLM може да „види“ и използва в даден момент (вход + текущо генериран изход), т.е. ефективната работна памет на модела в рамките на една сесия/заявка. Той включва системните инструкции, историята на разговора и текущата заявка, или иначе казано, цялото количество текст, което езиковият модел може да прегледа и да използва като референция при генерирането на нов текст, плюс самият нов текст, който генерира.
По-голям контекстен прозорец позволява на модела да разбира и да отговаря на по-сложни и по-дълги заявки, докато по-малък контекстен прозорец може да ограничи способността на модела да обработва по-дълги инструкции или да поддържа кохерентността на отговорите при продължителни разговори.
При достигане на лимита системата/клиентът обикновено съкращава (truncate) най-старите части от историята, за да освободи място за нови токени; след това моделът реално няма достъп до отрязания текст и не може да го използва при инференция. Практически това се проявява като забравяне на по-ранни уточнения, дефиниции, ограничения или договорени термини, защото те вече не са в прозореца.
Токенът е единицата, с която моделът „брои“ и обработва, а контекстният прозорец е капацитетът в токени, в който трябва да се побере цялата релевантна информация за текущия ход на разговора. Токенът не е лингвистична единица (като морфема или дума), а техническа единица за сегментация в конкретна система за обработка и моделиране на текст. При големите езикови модели токените най-често са резултат от алгоритмична токенизация (напр. subword tokenization, която е стандартен подход в съвременния NLP (например BERT, GPT) за обработка на редки думи, разбивайки ги на компоненти), така че един токен може да съвпадне с цяла дума, с част от дума, с пунктуация или дори с интервал. Разбирането на тази концепция е трудно за човек без съответната техническа компетентност, но в документацията на някои от разработчиците на големи езикови модели като Claude на Anthropic[4] има информация, поднесена по относително достъпен начин (в текст и диаграми). Осмислянето ѝ може да бъде улеснено именно чрез „разпитването“ на голям езиков модел, но не гарантира нито точно позоваване, нито точно цитиране, още по-малко изрядно синтезиране и „опростяване“. Към опростяването на сложни концепции винаги трябва да се подхожда с повишено внимание.
Предимството на RAG
Стандартните чатботове (като безплатната версия на ChatGPT) често халюцинират факти и измислят цитати, защото подреждат („предсказват“) последователността от думи, които генерират в отговор на подадената им заявка, въз основа на статистическа вероятност, а не на възпроизвеждане на истинни твърдения, доколкото въпросната истинност е проверима и безспорна и доколкото преразказването ѝ се придържа стриктно към нея и не се отдалечава прекалено много, заменяйки едни значения с други.
Това се случва, тъй като, по Лучано Флориди:
| „ | С разширяването на обхвата на системите за изкуствен интелект, за да обхванат сложни, неструктурирани области и съответните мощни приложения, абсолютната сигурност относно надеждността на резултатите им става недостижима. Нито една система не може да избегне този компромис.[5] | “ |
Смекчаване на този проблем предлагат моделите, които използват Retrieval-Augmented Generation (RAG) – рамка/подход за генериране, при която генеративен езиков модел се допълва с модул за извличане (retrieval) на релевантни документи от външен корпус/памет, като извлечените текстове се подават като контекст и служат като (непараметрично) знание при генериране на отговор (вместо да разчита само на знание, „записано“ в теглата на модела). По същество RAG свързва модела с надеждна библиотека от документи, които вие предоставяте, като го принуждава да отговаря единствено въз основа на тези източници.
Използването на RAG базирани модели като NotebookLM на Google може да подобри качеството, фактичността, актуалността (специално за NotebookLM, предвид начина на работа на модела, прозрачността и проверимостта на отговорите от страна на подаващия заявки) при задачи, които приоритизират точното възпроизвеждане на съществуващо знание, защото всяко твърдение в генерирания резултат е придружено от конкретния външен източник на знание, от който е извлечена информацията. Така човек има контрол върху източниците и проследимост, с уговорката, че RAG може да извлече данни и информация от неподходящ/ненадежден документ, да използва информацията извън контекст или да „синтезира“ заключение, което източниците не правят изрично – точно тип поведение, което политиката „без оригинални изследвания“ ясно изолира като съдържание, което няма място в Уикипедия.
Препоръчителни инструменти за редактори
- Google NotebookLM: Това е инструмент, базиран на RAG, в който качвате или свързвате чрез URL файлове или източници, които сте подбрали сами. Той основава отговорите си на тези документи и предоставя вградени цитати (не просто към съответните документи, а към конкретните места в документа, които според анализа на модела потвърждават твърденията в изходните данни). Това го прави особено подходящ за синтезиране на информацията от множество източници за статия в Уикипедия по начин, позволяващ контрол и проверка в хода на целия процес.
- Perplexity: За стъпката с подбора на източници особено полезна може да бъде системата за търсене и синтез на отговори Perplexity, която комбинира търсене в мрежата в реално време, подбор на източници и обобщаване/генериране на отговори чрез езикови модели, като предоставя цитати (препратки в текста) към източниците. Надеждността на този инструмент зависи от редица обстоятелства – от качеството на заявката (промпта) през избор на подходящ модел за изпълнението ѝ до (и най-вече) компетентността на правещия заявката в конкретната област, така че да идентифицира възможните проблеми (недостъпни, нерелавантни и неактуални източници, изобретени понятия, въобразени, но представени като истинни изводи, и т.н.)
- Stanford STORM: Изследователска система за куриране на знание, основаваща се на изкуствен интелект, а не самостоятелен езиков модел. STORM (от Synthesis of Topic Outlines through Retrieval and Multi‑perspective Question Asking) генерира статии с голям обем и с цитати, които до голяма степен наподобяват статия в Уикипедия. STORM използва езикови модели като компоненти, но основната иновация е в оркестрацията: (1) интернет базирано събиране на референции и генериране на рамка (структура, outline) и (2) писане (генериране на статия по структурата и събраните източници). По същество STORM идентифицира източници и извлича информация от тях, структурира план (outline) чрез многоперспективно задаване на въпроси и след това генерира текст с цитати. Това поставя STORM по-близо до agentic pipeline система, която комбинира извличане (retrieval) + многоперспективно задаване на въпроси + структуриране + генерация. Всички етапи се извършват по проследим, прозрачен начин.
Препоръчителни ресурси
Международни и национални политически рамки
- ЮНЕСКО (2023): Насоки за генеративния изкуствен интелект в образованието и научните изследвания. Чрез тях организацията установява подход, ориентиран към човека, и валидиране на инструментите за изкуствен интелект, съобразено с възрастта.[6]
- Европейска комисия (2024): Етични насоки за използването на изкуствен интелект и данни. Подчертава класификацията на ИИ като „високорискова“ в образователния контекст и необходимостта от прозрачност.[7]
- Съвет на Европа: Изкуствен интелект и образование: критичен поглед през призмата на правата на човека, демокрацията и върховенството на закона. Фокусира се върху защитата на демократичното участие и критичното мислене.[8]
- Хърватска академична и изследователска мрежа (CARNET). Министерство на науката, образованието и младежта (MSEY). 2025. Насоки за етично използване на ИИ в образованието. Чрез установяването на ясни етични стандарти насоките подкрепят целта на Хърватия да модернизира образователната си система, като същевременно поддържа доверието и интегритета в процеса на обучение. Рамкирани са като ключов компонент от хърватския проект BrAIn, чиято цел е да интегрира ИИ в различни сектори.[9]
Законодателство (правно-технически понятия)
Академични и практически ръководства
- EUI (2024): Насоки за отговорно използване на изкуствен интелект за научни изследвания. Препоръчва се за изграждане и подобряване на разбирането на авторството и защитата на данните.[12]
- Проект STORM на „Станфорд“: Документация на системата на Станфордския университет за събиране на знания, базирана на LLM, която проучва дадена тема и генерира пълен доклад с цитати.[13]
- The Prompt Report: A Systematic Survey of Prompting Techniques: Систематично проучване на техниките за подсказване (например Chain-of-Thought, Few-Shot).[14]
- ОИСР (2026): Как ефективно да използваме генеративен ИИ в образованието. Основната цел на документа е да анализира възможностите и рисковете от използването на генеративен изкуствен интелект в образованието, като подчертава значението на целенасоченото и педагогически обосновано прилагане.[15]
Други видове изкуствен интелект
Освен генеративен съществуват още много видове ИИ, от най-примитивни системи до изключително сложни. Много от тези видове имат широко приложение в Уикипедия още от нейното създаване. Настоящата страница не би могла реалистично да покрие спецификите в употребата на всеки един вид ИИ, но общото правило е валидно и тук: като редактор или оператор на бот вие носите пълна отговорност за редакциите, направени от вас или бота ви.
Бъдете внимателни и се отнасяйте отговорно към редактирането.
Източници
- ↑ Search.Google. Ways to search. AI Mode
- ↑ arxiv.org Advanced search
- ↑ University of Galway. LibGuides. AI for Research. Prompt Engineering CLEAR Framework for Prompt Engineering. Adapted from: Bullingam, L., Ylinen, O., Burnet, B. (2024). Prompt Engineering in Libraries. [Video]. Digital Shift Forum. Research Libraries UK.
- ↑ Claude API Docs. Build with Claude. Context windows
- ↑ Floridi, L. 2025. A Conjecture on a Fundamental Trade-Off Between Certainty and Scope in Symbolic and Generative AI Springer
- ↑ UNESCO. 2023. Guidance for generative AI in education and research
- ↑ European Commission. 2022. Ethical guidelines on the use of artificial intelligence and data in teaching and learning for educators
- ↑ Council of Europe. 2024. Regulating the use of Artificial Intelligence Systems in Education Preparatory study on the development of a legal instrument
- ↑ OECD. 2025. Guidelines for Ethical Application of AI in Education
- ↑ EUR-Lex. Регламент (ЕС) 2024/1689 на Европейския парламент и на Съвета от 13 юни 2024 година за установяване на хармонизирани правила относно изкуствения интелект и за изменение на регламенти (ЕО) № 300/2008, (ЕС) № 167/2013, (ЕС) № 168/2013, (ЕС) 2018/858, (ЕС) 2018/1139 и (ЕС) 2019/2144 и директиви 2014/90/ЕС, (ЕС) 2016/797 и (ЕС) 2020/1828 (Акт за изкуствения интелект) (Текст от значение за ЕИП)
- ↑ EUR-Lex. Акт за изкуствения интелект. Член 3.
- ↑ European University Institute (2024): Guidelines for the Responsible Use of Artificial Intelligence for Research.
- ↑ Stanford Open Virtual Assistant Lab. STORM: Synthesis of Topic Outlines through Retrieval and Multi-perspective Question Asking
- ↑ arXiv:2406.06608. DOI: 10.48550/arXiv.2406.06608
- ↑ OECD. 2026. Andreas Schleicher. 2026. How to effectively use Generative AI in education
Външни препратки
- Generative AI and Wikipedia editing: What we learned in 2025. By LiAnna Davis. WikiEdu Blog
- Science Is Drowning in AI Slop. By Ross Andersen. The Atlantic
- The AI productivity paradox. By Casey Newton. The Platformer
- AI-generated slop is quietly conquering the internet. Is it a threat to journalism or a problem that will fix itself? By Marina Adami. Reuters Institute
- The Slop Cycle—How Every Media Revolution Breeds Rubbish and Art. By Deni Ellis Bechard. Scientific American
- More than 20% of videos shown to new YouTube users are ‘AI slop’, study finds. By Aisha Down. The Guardian
Вижте също
| ||||||||||||||