
„Социалните платформи трябва да започнат да казват истината относно мръсната работа, която вършат техните подизпълнители“.
© iStockДжена* трябваше да се махне от стаята.
Не я интересуваше, че между нея и изхода имаше трасе, изпълнено с препятствия под формата на хора, чанти, палта, кабели и зарядни за телефони. Тя се прекатери през всички тях. Бе готова на всичко само и само да избяга от това чувство на паника, което бе започнало да се надига в нея; да се отърве от изгарящото усещане в ушите ѝ и настойчивото повдигане в стомаха ѝ.
Сцената се разиграва по време на втората седмица от обучението ѝ на новата ѝ работа. Реално до този момент Джена не е много наясно в какво всъщност ще се състоят задълженията ѝ. По-заета е да се възторгва от придобивките си покрай тях: безплатната храна в служебния стол и новия ѝ „МакБук“. Заплатата годишно е почти 25 000 британски лири: което хич не е зле, като се има предвид, че Джена е едва на 20 и все още живее с родителите си. А и са ѝ обещали, че ще има още плюсове: от агенцията, която я е наела на работа, са ѝ казали, че при добре свършена работа може да има повишение на заплатата, повишение в ранг и бонуси.
Но през онзи гаден ден реалността блъска Джена в лицето. На екрана пред нея обучаващият ги инструктор показва скрийншотове от клипове, в които хора се самонараняват. Джена никога през живота си не е виждала подобно нещо. Винаги си е мислела, че е доста наясно с онова, което може да бъде видяно в интернет. Но постепенно осъзнава, че не е така – никак даже! Тези клипове са едва началото и Джена започва да схваща, че работата, на която е постъпила, означава да гледа подобни неща – както и доста по-ужасни от тях – всеки Божи ден като основна част от служебните ѝ задължения.
Всяка сутрин, когато взимаш телефона си и небрежно започваш сутрешното си скролване през постовете от ваканцията на най-добрата ти приятелка, последните трендове, завладели нета, и „горещите новини“, групирани, така че да са лесно смилаеми, всъщност има неща, които не виждаш. Изображения и видеоклипове, които някой е качил, а после набързо някой друг е свалил от платформата – понякога този „някой друг“ е компютърен алгоритъм, но друг път са хора като Джена. Работата, за която Джена се обучава – и в крайна сметка работи 5 месеца, е на модератор (регулатор) на онлайн съдържанието за голяма технологична компания.
Модераторите на съдържание са невидима работна сила, трудеща се неуморно онлайн – те тихомълком измитат мръсотията в интернет, като премахват постове в социалните мрежи, които разкриват най-мрачните кътчета от човешката природа. В резултат от тяхната работа потребителите могат да прекарват времето си в социалните медии, без да се сблъскват с образи на насилие, насилие над деца или порнография. Преди обаче да бъдат премахнати, тези постове вече са видени – първо от модераторите. И през онзи ден от обучението си Джена осъзнава, че работата ѝ хич няма да е лесна.
„Предполагам, че се опитваха да ни подготвят, – казва тя за обучението си, – само че аз бях толкова шокирана, че се почувствах тотално неспособна да се справя.“ Когато се срещам с Джена в началото на тази година в едно кафене, тя изглежда самоуверена и спокойна. Но в мига, в който започва да ми разказва за онези скрийншотове, самообладанието ѝ започва да чезне, а гласът ѝ се разтреперва.
В нощта след края на дневното обучение Джена за първи път усеща съмнения относно работата, на която е постъпила. Обсъжда ги с майка си, но тя изтъква, че нещата, видени през онзи ден, може би са от по-лошите примери за това, с което ще се сблъсква, а не типично ежедневие. Поуспокоена, Джена се връща на работа и на следващия ден, и през следващата седмица. Официално се присъединява към армията от модератори на съдържанието, които се трудят от името на различни платформи из целия свят. Задълженията ѝ обаче не включват просто да гледа изображения и видеоклипове с насилие и експлицитно съдържание... но и да взима мълниеносното решение дали светът също трябва да може да ги види.

„Започваш да си мислиш, че, ле-ле, навън се разхождат далеч повече перверзници, отколкото си предполагал“.
© iStockНа ръба
Всеки ден Джена отива на работа в офиса на агенцията, от която е наета. На стената зад бюрата на служителите се прожектира лайв стрийм от офисите на компанията по целия свят. „Чувствах се като част от нещо голямо“ – споделя тя.
Като модератор, Джена седи на бюрото си пред своя „МакБук“ и има пред себе си две процедури, които да следва – едната е в случай на последователност от съобщения, както и една за видеоклипове. Повечето от решенията, които се взимат от модераторите, са базирани на ясни правила. Попадат на видеоклип, в който хора правят секс, знаят, че плаформата има политика, недопускаща такова съдържание, и го премахват. Същото важи и за съдържание с насилие над животни или самонараняване.
Служебните задължения на модераторите се усложняват, когато постовете не могат да бъдат категоризирани категорично като „добри“ или „лоши“. Правилата са различни в зависимост от платформата – сякаш всеки сайт е някаква отделна държава, със собствени закони, наречени „правила на общността“ – определяни не от някое правителство, а от „екипите по политиката на компанията“, които предават своите решения за изпълнение и приложение към модераторите на съдържанието. Модераторите са един вид полицейските служби на платформата, които притежават властта да налагат ултимативното наказание, изразяващо се в онлайн отлъчване. Те могат да премахват постове и дори да блокират потребители. Понякога модераторите работят директно за технологичните компании. Но често техните задължения се аутсорсват към агенции, които са подизпълнители, подобно на местоработата на Джена, и където служителите преглеждат съдържание, за което е било съобщено от други потребители, че е неподходящо, или е било засечено от компютърни алгоритми.
Когато Сара* започва да работи със съдържание от социалните медии, си мисли, че има доста ясна представа що е то „зло“. Като служител в агенция във Великобритания тя преглежда различни платформи в търсене на постове, свързани с тероризъм, насилие на полова основа и насилие срещу деца. Една година след постъпването си на този пост Сара заявява, че е видяла една доста мрачна страна от човешката природа: „Започваш да си мислиш, че, ле-ле, навън се разхождат далеч повече перверзници, отколкото си предполагал – споделя тя. – Мнението ти за различни неща се променя, защото не можеш да ги „отвидиш“. Разбираш, че и най-простичките неща могат да бъдат манипулирани. Да вземем например кърменето. Преди да започна тази работа, не бих имала проблем с кърменето на обществени места – обяснява Сара. – Сега обаче, след като съм видяла определени неща, съм против него.“ Тя посочва за пример клипове, които са заснети тайно и детето е превърнато в сексуален обект в социалните медии, както и клипове, качени от жени, които кърмят, и в замяна получават пари. Челният опит на Сара с това как невинни постове са манипулирани, обяснява една от причините защо до 2014 г. платформи като Instagram не допускат изображения с кърмене. Неотдавна съпругата на британския актьор Дейвид Тенант (Д-р Кой, Хари Потър и огненият бокал) се оплака, че Facebook са свалили снимката ѝ, на която кърми, защото нарушавала правилата на платформата за „изображения със сексуално съдържание“. В специално изявление от Facebook казаха, че снимката е позволена според правилата им и че сигурно премахването ѝ е станало погрешка. Дебатът около кърменето очертава едно от основните предизвикателства, които стоят пред социалните платформи – да се създадат правила, които да преследват вредно съдържание, като в същото време се позволява на добронамерените потребители да се изразяват свободно.
Това са т.нар. „случаи на ръба“, както ги дефинира Сара Т. Робъртс, преподавател в UCLA и автор на книгата Behind the Screen (Зад екрана). Тя от 10 години изучава работата на модераторите на съдържание. Границата между „добро“ и „лошо“ съдържание зависи от платформата. В Instagram някои снимки на голи женски гърди, в които се виждат зърната, се премахват, докато мъжките – не. През 2017 г. в медиите изтекоха вътрешни документи на Facebook**, според които коментари от типа на „Някой да застреля Тръмп“ трябва да бъдат премахвани, защото в качеството му на държавен глава той попада в защитена категория. Но доста експлицитно описание на това „как да скършиш врата на оная к*чка“ се допуска, защото заплахата не се счита за правдоподобна. В YouTube съдържанието с насилие се премахва, освен ако не е в контекста на новини или на документалистика. През юли потребителите на Twitter обвиниха платформата, че е реагирала много бавно, след като британският рапър Уайли постна цяла поредица от антисемитски туитове. Пет дни по-късно профилът на Уайли беше спрян поради нарушаване на политиката на Twitter против „поведение, насаждащо омраза“. „Съжаляваме, че не действахме по-бързо“ – заявиха от Twitter в изявление.

Съжаляваме, това съдържание вече не е достъпно!
© iStockВъпрос на преценка
Една дъждовна сутрин през март миналата година Джена седи пред компютъра си, а списъкът със съдържание, което трябва да прегледа, е на едно и също нещо: жълт трамвай, ограден с червено-бяла лента, и войници от специалните части с оръжие в ръка. Когато има голяма новина, социалните медии реагират, а през онзи ден терорист застрелва и убива трима души и ранява седем други в холандския град Утрехт. Експлицитното съдържание, заснето от онези, които са били на местопрестъплението, залива фийдовете и предизвиква вълна от „случаи на ръба“. Докато шефовете обсъждат кое съдържание е допустимо и кое не, Джена е залята от потоп от ъпдейти: „Деактивирай това, отбележи това, това го запази. Ако хората хвалят [атаката], свали поста. Но ако споделят новината и казват, че не одобряват случилото се, постът може да остане.“
Робъртс обяснява колко нюансирани могат да са тези решения: „Да кажем, че модераторът трябва да прегледа клип, който съдържа насилие и показва как деца са наранявани. Ако прегледаме правилата на дадена платформа, ще видим, че те съдържат всякакъв вид забрани против подобно съдържание. Но ако ви кажа, че този клип е от група хора, които са под обсада в Сирия? Видеоматериал от войната в Сирия е използван в съдилищата за военни престъпления като доказателство – трябва ли въпреки това да бъде свалено подобно съдържание?“
Три дни преди нападението в Нидерландия подобни инструкции са издадени и заради атаката в Нова Зеландия, при която терорист стреля по цивилни в местна джамия, като непосредствено преди престъплението публикува онлайн манифест, пълен с теории на конспирацията. Екипът, определящ правилата на платформата, разпореждат на модераторите, сред които е и Джена, че ако потребители цитират манифеста, но осъждат съдържанието му, техните постове могат да останат. Екипът на Джена обаче решава друго. „Групово решихме, че ще свалим всички постове. Такова съдържание няма нужда да бъде споделяно или да остава видимо. Не е необходимо да даваме на хората идеи“ – казва Джена. Дали съдържание с насилие трябва, или не трябва да бъде онлайн, защото е „интересно и важно“, е една много сива зона, като решенията, правилата и инструментите за навигация из нея непрестанно се менят. Ключовият момент е контекстът. Когато по-рано тази година онлайн се появиха клипове с убийството на Джордж Флойд, YouTube добави възрастово ограничение и предупреждение към тях, но ги остави на платформата си, защото могат да бъдат категоризирани като „новина“.
През 2016 дебатът по отношение на това как се модерира съдържанието в социалните медии придоби нова значимост, когато се появиха предположения, че както избирането на Доналд Тръмп за президент на САЩ, така и референдумът за БРЕКЗИТ са били повлияни от дезинформация онлайн. Тази година YouTube започна да премахва клипове с теории на конспирацията по отношение на корона вируса, докато Facebook съобщава на потребителите си, ако са били изложени на фалшиви новини. Марк Зъкърбърг съобщи също така, че потребителите ще имат правото да променят настройките си във Facebook, за да спират появата на каквито и да било политически реклами на страницата си. Но тези действия предизвикаха появата на нов, труден за разрешаване проблем за платформите – имат ли хората правото да грешат в социалните медии? И дали на определени платформи имат повече право отколкото на други? През 2018 г. Pinterest спря да връща резултати от търсения с ключови думи „ваксини“ или „лекарства за рак“, като започна да показва единствено резултати, идващи от достоверни източници като Световната здравна организация. Тази политика беше определена като „агресивна“, но в същото време и като „стъпка в правилната посока“. Шефката на Отдела за достоверност и безопасност на Pinterest Шарлът Уилнър заяви, че подобна политика на сайта е спомогнала да се заглуши дезинформацията. „Много платформи заявяват, че ще бъдат мястото, на което всеки може да представи гледната си точка. Ние не сме такива. Ние сме място, на което хората идват, за да открият как да си създадат живота, за който

Бърнаут
Няколко месеца след постъпването си като модератор на съдържание Джена започва все по-често да се крие в служебната тоалетна, за да плаче. По няколко пъти на седмица си записва часове при психолога на фирмата. Забелязва, че психическото ѝ състояние се влошава дори извън офиса. „През цялото време се сопвах, кипвах бързо и от нищо и се чувствах разстроена“ – споделя тя и допълва, че се е чувствала подценена и в състояние на бърнаут.
От днешна позиция описва работата си като дълги периоди на скука, прекъсвани рязко от екстремно, експлицитно съдържание. „Голяма част от съдържанието беше как 14-годишни си говорят за видеоигри и домашните си, като се дразнят, че са се „рипортнали“ едни други. Това бяха 75% от нещата, които четях през работното си време“ – казва тя. Но в останалата част има съдържание с реално осакатяване и насилие над животни. Джена винаги гледа тези клипове с изключен звук.
Този вид работа се отразява сериозно на модераторите. Изключително важен момент е, когато през май тази година Facebook се съгласи да изплати 52 млн $ на група от 11 250 настоящи и бивши модератори като компенсация за психическите проблеми, които са им се появили вследствие на работата им. През януари се появиха твърдения, че от модератори, които работят за Facebook в Европа посредством подизпълнител, се е изисквало да подписват декларации, че са наясно, че работата им може да предизвика посттравматичен стрес. От Facebook заявиха, че не са виждали и не са одобрявали подобни декларации, нито са знаели, че техните модератори са принуждавани да ги подписват. В същото време обаче от Facebook допълниха, че изискват от своите партньори да осигуряват постоянна и достатъчна психологическа подкрепа за модераторите.
Джена вече година не работи като модератор, но когато я питам дали онова, което е вършила като такъв, и съдържанието, което е видяла, все още ѝ действа по някакъв начин, тя се поколебава и казва „да“. Само че веднъж напуснала тази работа, тя повече няма право на психологическа помощ от страна на бившия си работодател. Джена продължава да е убедена във важността на онова, което вършат модераторите – но смята, че те трябва да бъдат ценени повече. „Социалните платформи трябва да започнат да казват истината относно мръсната работа, която вършат техните подизпълнители“ – казва тя.
Модерирането на съдържание е игра на котка и мишка. Злонамерените потребители винаги ще се възползват от новите технологии, за да тролват и да разпространяват фалшиви новини или вредно съдържание. Задача е на платформите да не изостават от действията на тези потребители. Но решенията, които платформите взимат, имат последици в истинския живот. Осъзнаването на този факт с все по-голяма сила накара Facebook да създаде собствен „върховен съд“, който представлява нов, по-отговорен модел на модериране на съдържанието, при който да се обсъждат спорните случаи. Само че независимо от правилата, които се приемат, интернет не може да се поддържа „чист“ без модераторите на съдържание, чиято работа до голяма степен остава скрита за широката публика.
Нещата се усложняват допълнително от факта, че много често модераторите са задължени да подписват съгласие да не разкриват информация и да не говорят публично относно работата си. Платформите твърдят, че тази политика пречи на потребителите да узнават начините за заобикаляне на правилата. Но както твърди Тарлтън Гилеспи, изследовател към „Майкрософт“ и автор на книгата Custodians of the Internet (Пазителите на интернет), последиците за психиката на модераторите, както и идеята за интернет, пълен с притеснително съдържание, също разбива представата за свързани общества, където всеки е свободен да бъде себе си. „[На платформите] им се иска работата на модераторите на съдържание да е като тази на някой чистач, който идва тихичко в офиса, почиства хаоса и изгася лампите след себе си – казва той. – Наясно са, че в реалността това не се случва точно така, но това е мечтата им.“
Социалните медии размиват границата между обществено и лично; между широкия свят и приятелите и последователите. Facebook има 2,6 млрд потребители – повече от три пъти над населението на Европа, а в YouTube всяка минута се качват 500 часа съдържание. Преди никога не е имало такъв широк спектър, представящ човешко поведение, който да е достъпен да бъде видян и преценяван. Съпътстващият ефект от съдържанието, което остава онлайн и което бива свалено, може да има опустошителни последици в истинския свят, което прави ролята на модераторите още по-важна за новите дигитални общества, в които живеем. А цената, която тези модератори заплащат за тази си роля? Тепърва започваме да осъзнаваме каква е тя.
*Имената
са променени

Вижте повече
10 неща, които (най-много) вбесяват в социалните мрежи
Всеки ден влизаш в социалните мрежи, скролваш... и оставяш частица от психичното си здраве там.