YT360.PL — Pierwszy w Polsce marketingowy przewodnik po YouTube

YT360

YouTube zabiera się za teorie spiskowe, śmiercionośne szczepionki i płaską ziemię

Coraz głośniej mówi się o tym, że YouTube nie panuje nad contentem, który pojawia się na ich platformie. Głośne historie o „patostreamerach” to tylko wierzchołek góry lodowej. Na szczęście, Google zaczyna się budzić i pod wpływem presji mediów i użytkowników, serwis szuka sposobów na ulepszanie jakości swoich usług. Tym razem, celem platformy YouTube zostały filmy głoszące pseudonaukowe teorie.

Po niedawnej strzelaninie w Parkland, jednym z popularniejszych filmów na amerykańskim YouTube był materiał w którym pojawia się teoria spiskowa mówiąca o tym, że jeden z ocalałych, David Hogg to w rzeczywistości aktor. Zanim wideo zniknęło z platformy, obejrzało je 200 tysięcy osób. To kolejny raz, kiedy YouTube przyczynił się do rozprzestrzeniania nieprawdziwych treści. Problem coraz częściej dostrzegany jest zarówno przez media jak i użytkowników. Do tej pory, po tego typu wydarzeniach, niewiele zmieniało się na platformie i po jakimś czasie, w zakładce „na czasie” znowu pojawiały się nieodpowiednie materiały. Tym razem, w końcu doczekaliśmy się reakcji ze strony YouTube. I to z samej góry.

We wtorek, głos zabrała Susan Wojcicki. CEO firmy zaprezentowała nową funkcję, która ma pomóc w weryfikowaniu nieprawdziwych i podejrzanych informacji. Póki co, największy nacisk będzie kładziony na wszelkiego rodzaju teorie spiskowe. Jeśli odpalamy np. Filmik o „chemitrails” albo materiał poświęcony temu, że lądowanie na księżycu zostało wyreżyserowane, pod materiałem wideo pojawi się plansza oznaczona jako „information cue”. Będą to bannery z odnośnikami do Wikipedii, gdzie użytkownik będzie mógł przeczytać o pewnych zdarzeniach lub zjawiskach w takiej formie, jaką przyjął świat nauki.

Wybór Wikipedii wydaje się być rozsądną decyzją. Gdyby linki przekierowywały nas do innych filmów na YouTube, użytkownicy mogliby zarzucić platformie stronniczość i faworyzowanie określonych treści. Jak mówi Susan Wojcicki:

„Ludzie wciąż mogą oglądać wszystkie te materiały ale zadbamy o to aby pod filmami pojawiły się dodatkowe informacje.”

Cieszę się, że YouTube w końcu zrobił jakiś krok w stronę odpowiedniej kontroli treści na swojej platformie ale nie jestem przekonany, czy akurat takiego rozwiązania potrzebowaliśmy. W Polsce największym problemem nie są teorie spiskowe ale patostreamerzy, którzy podczas relacji na żywo prezentują najróżniejsze, patologiczne zachowania. Nawet jeśli bannery informacyjne miałyby pomóc w weryfikowaniu nieprawdziwych informacji należy pamiętać o tym, że Wikipedia to również serwis redagowany przez użytkowników. Kolejnym problemem mogą być materiały polecane przez algorytm. Co z tego, że pod filmem mamy link do Wikipedii jeśli YouTube ustawi nam w kolejce do oglądania kolejny materiał związany z teorią spiskową. Czas pokaże czy na tym polu uda się uniknąć wpadek.

źródło: Wired