YouTube versucht, sein Verschwörungsproblem mit Wikipedia zu lösen. Einige Kritiker schreien übel.

Anonim

YouTube, das Videonetzwerk, das wegen eines Algorithmus, der von Verschwörungstheoretikern, die ein Publikum suchen, leicht ausgetrickst werden kann, unter Beschuss geraten ist, hat sich zur Validierung an Wikipedia gewandt.

Kritiker sagen jedoch, dass das Vertrauen auf die Crowdsourcing-Enzyklopädie nicht helfen wird. Es ist viel zu einfach, Wikipedia zu spielen, eine Kritik, die die Mitarbeiter von Wikipedia am Mittwoch ablenken wollten.

Das Google-eigene Videonetzwerk sagte am späten Dienstag, es würde Links zu Wikipedia über Ereignisse in Textfeldern zu "weithin akzeptierten Ereignissen wie der Mondlandung (1969)" setzen. Die Entscheidung ist der jüngste Versuch, einer öffentlichen Gegenreaktion entgegenzuwirken, nachdem ihr Trend-Video-Tab eine breite Plattform für Clips bot, die falsche oder irreführende Informationen über brechende nationale Nachrichtenereignisse enthielten, wie das Highschool-Shooting in Parkland, Florida, und das letztjährige Massenshooting Las Vegas.

Aber die Möglichkeit für jeden, einen Wikipedia-Beitrag zu aktualisieren, bei dem diese Änderungen so lange bestehen bleiben, bis ein anderer Benutzer dies bemerkt und ändert, macht die Enzyklopädie zu einer fragwürdigen Quelle für die Tatsachenprüfung, sagen Kritiker.

Jamie Cohen, Assistenzprofessor am Molloy College im Rockville Center, New York, sagte, dass Google die Verantwortung von der Corporation auf die Freiwilligen verlagert, die Wikipedia bearbeiten. "Wenn sie eine wahre Autorität zur Validierung wünschen, sollten sie zur Informationsquelle gehen." Er schlug vor, dass eine vertrauenswürdige Nachrichtenorganisation mehr Sinn machen würde.

Wikipedia, wo alle Beiträge von Benutzern geschrieben werden, ist zur Enzyklopädie des Webs geworden. Jeder kann das bearbeiten, ein Ansatz, den die Non-Profit-Organisation verteidigt, indem sie feststellt, dass "die Forschung zeigt, dass je mehr Menschen dazu beitragen, Artikel genauer und ausgewogener werden".

Während viele der Beiträge von Wikipedia zutreffend sind, hatte die Website Probleme mit der Vergangenheit, wobei Politiker und Prominente als tot gemeldet wurden, die tatsächlich noch am Leben waren und nur falsche Informationen aussortieren.

Hier besteht die erhebliche Gefahr, dass YouTube Wikipedia als Commons nur im Sinne von „Tragödie der Commons“ behandelt - also. Sie sparen selbst Geld, indem sie die Arbeit auf ein Gemeinwohl verlagern und dabei möglicherweise das Gute töten.

- Tom Coates (@tomcoates) 14. März 2018

YouTube erhält jede Minute 400 Stunden neues Video und kontrolliert anhand des Feedbacks der Community, was hochgeladen wird. Videos bleiben solange erhalten, bis sie von Mitgliedern der Community "gekennzeichnet" werden, weil sie sich nicht an die Richtlinien von YouTube halten, z. B. Gewalt, sexuelle Inhalte oder im Fall der jüngsten Erschießungen der Florida High School falsche Informationen.

Das jüngste Aufflackern mit Verschwörungsvideos fand im Februar statt, als Überlebende von Schülern einer Highschool-Schießerei in Florida zu Wort kamen. Ein Video, das die Studenten als "Krisenschauspieler" bezeichnete, die von Demokraten und Waffenkontrollvertretern angeheuert wurden, stieg an die Spitze des Trending-Abschnitts von YouTube auf und zog 200.000 Aufrufe an, bevor sich die Medien einmischten und von YouTube heruntergezogen wurden.

Sollte ein solcher Vorfall erneut vorkommen, "werden wir eine begleitende Einheit mit Informationen aus Wikipedia zeigen, aus denen hervorgeht, dass es sich hier um Informationen zu diesem Ereignis handelt", sagte Susan Wojcicki, CEO von YouTube. Sie kündigte den bevorstehenden Schritt beim South by Southwest Festival in Austin an. Texas.

Ein Beispiel für einen YouTube-Wikipedia-Link

Auf die Frage, wie es zu einer Crowd-Sourced-Plattform werden könnte, die jeder ändern kann, um die Validierung gefälschter Videos auf YouTube anzubieten, antwortete das Unternehmen mit einer Erklärung:

"Wir sind immer auf der Suche nach neuen Wegen, um gegen falsche Informationen auf YouTube vorzugehen", sagte er und stellte fest, dass die Funktionen in den kommenden Monaten eingeführt werden. "Darüber hinaus haben wir zurzeit keine zusätzlichen Informationen, die wir weitergeben können."

YouTube fügte hinzu, dass Wikipedia nur eine der neuen Quellen für Informationen von Drittanbietern sein wird, aber nicht angegeben hat, was die anderen sein würden.

Die Verschwörungsvideos selbst werden durch die YouTube-Empfehlungsmaschine, die versucht, Ihre Interessen anhand Ihres bisherigen Verlaufs zu ermitteln, zu einem eigenen Leben. Wenn Sie also auf einen Link zu einem Verschwörungsvideo von Alex Jones von InfoWars klicken, der die gemeldeten Fakten über die jüngsten Dreharbeiten in Florida sowie andere in Frage gestellt hat, füttert Google Sie dann mit ähnlichen Inhalten.

Kein Wikipedia-Link wird diesen Prozess daran hindern, sich auf sich selbst zu beziehen.

Wikimedia, der Non-Profit-Anbieter von Wikipedia, wurde durch die Ankündigung von YouTube blind. YouTube hat es nicht vorzeitig der Organisation gemeldet. Sie antwortete mit 14 Antwort-Tweets am Mittwoch.

Sprechen wir also eine Minute über Verschwörungstheorien. Wikipedia hat Tausende von Redakteuren, die täglich Inhalte überwachen. Einige von ihnen haben buchstäblich * Jahre * mit der Bekämpfung von Verschwörungen, Pseudowissenschaften, Randtheorien und mehr verbracht.

- Wikimedia (@Wikimedia) 14. März 2018

Es scheint also, dass YouTube der Wikipedia nicht wirklich den Kopf geschlagen hat, dass Horden von Verschwörungstheoretikern nun dazu angeregt werden, ihre Artikel mit Alterative Facts zu überfluten. //t.co/00MM4GPcxe

- Renee DiResta (@noUpside) 14. März 2018

Die @Wikimedia Foundation-Erklärung zur neuen @YouTube-Ankündigung pic.twitter.com/PFDDNtNNjn

- Wikimedia (@Wikimedia) 14. März 2018

Wikimedia wies darauf hin, dass Zitate in ihren Beiträgen auf verlässliche Quellen verweisen müssen, um die Geschichten zu bestätigen, und dass die Nachprüfbarkeit der Zitate ohne Nachdruck in Frage gestellt werden könnte. Die Verwendung von Quellen ohne einen solchen Ruf wird dringend davon abgeraten problematische Inhalte werden oft mit dem berüchtigten [citation needed] -Tag von Wikipedia gekennzeichnet, das den Lesern hilft, es für sich selbst zu erkennen und zu beurteilen. "

Bei früheren Versuchen, die auf YouTube verbreiteten gefälschten Informationen einzudämmen, sagte das Netzwerk, dass es Clips "dekomprimieren" würde, die nicht den Gemeinschaftsstandards entsprachen. Es hat auch gesagt, dass es mehr Menschen für das Übersehen von Videos auf der Plattform einstellen würde, die jede Minute 400 Stunden neues Video erhält.