Über zwei Milliarden monatlich aktive User zählt YouTube. Und über 500 Stunden an Content werden auf der Videoplattform jede Minute hochgeladen Tendenz steigend. Da liegt die Vermutung nahe, dass viele Inhalte quasi ungefiltert aufgenommen werden könnten; und dabei geht es auch um Inhalte, die Fake News, veraltete Informationen oder widersprüchliche Aussagen verbreiten. Für das Verständnis der Videos werfen viele User dann einen Blick in die Kommentare oder googlen nach Erklärungen. Um Viewern künftig noch mehr Kontext direkt zu Videos zu liefern, experimentiert YouTube jetzt mit einer Art Community Notes, wie auch X sie bietet. Diese Notes sollen Usern unmittelbar Informationen zu Videos liefern, wenn diese einer Einordnung bedürfen. Das kann zum Beispiel bei Musikvideos, die als Parodie gedacht sind, der Fall sein. Gerade das Parodiebeispiel weist aber schon auf ein Problem hin, das die Notes mit sich bringen. Es ist nicht das einzige.
“Starting today, we are testing an experimental feature to allow people to add notes to provide relevant, timely, and easy-to-understand context on videos. For example, this could include notes that clarify when a song is meant to be a parody, point out when a new version of a…
— YouTube Liaison (@YouTubeLiaison) June 17, 2024
YouTube setzt auf mehr Transparenz für Videoinhalte: Wer schreibt die Notes?
Die Videoplattform bietet ihren zahlreichen Usern bereits einige Optionen, um Kontexte zu Videos zu erhalten. So gibt es beispielsweise einen Infobereich bei Videos, die besonders anfällig für Fehlinformationen sind (etwa die Mondlandung betreffend). Außerdem müssen Creator jetzt markieren, wenn Videos synthetisch verändert oder erzeugt wurden. Demnach gibt es quasi ein KI-Label für Videoinhalte, wenn diese zum Beispiel mit Runways Gen-3 erstellt und dann hochgeladen wurden.
YouTube:
Neues Transparenz-Tool für KI-generierte Inhalte
© Azamat E – Unsplash
Neuerdings testet YouTube zudem Notes, die bestimmten Videos mehr Kontext verleihen sollen. Auf dem eigenen Blog erklärt das Unternehmen, dass diese vorerst nur für englischsprachige Videos in den USA verfügbar sein werden. Man möchte das Feedback der ersten Tester:innen noch evaluieren. Im Text wird bereits darauf hingewiesen, dass es zu fehlerhaften Notes kommen könnte.
In den kommenden Wochen werden User in den USA diese Notes unter Videos sehen, um diesen relevante Kontexte zu verleihen. Ist ein Musikvideo als Parodie zu verstehen? Gibt es eine aktuellere Version des vorgestellten Produkts? Ist das Event bereits vorbei? All diese Fragen könnten die Notes beantworten und Viewern mehr Kontext verleihen. Das kann Desinformation vorbeugen, bringt aber ein Problem mit sich. So ist es vorstellbar, dass Videos als Parodie markiert und eingeordnet werden, wobei Urheber:innenrechtsverletzungen oder misogyne Inhalte relativiert werden. Diese Aspekte sollten genau beobachtet werden. In diesem Kontext ist es wichtig zu wissen, wer die Notes überhaupt schreibt. Dafür kontaktiert YouTube eine Reihe von Creatorn über das Creator Studio, die einen eigenen Kanal haben, der den Community-Richtlinien treu ist. Wenn diese aber eigene Inhalte mit Notes versehen, könnte das problematisch sein. Daher werden die Beiträge von unabhängigen Third-Party-Unternehmen – die auch die Suchergebnisse und Empfehlungen YouTubes prüfen – evaluiert. Künftig sollen aber auch Notes-Ersteller:innen andere Notes bewerten können.
Wann Notes auftauchen und wie sie bewertet werden
Laut YouTube erscheinen die Notes nur dann unter Videos, wenn sie als hilfreich eingestuft werden. Die Einschätzung der User wird herangezogen und über einen Algorithmus werden dann nur die relevanten Beiträge platziert. Je mehr Notes geschrieben und bewertet werden, desto besser soll der Algorithmus von YouTube werden.
Das neue Kontext-Feature befindet sich vorerst im limitierten US-Test. Wann mit einem offiziellen Roll-out auch in anderen Regionen zu rechnen ist, bleibt unklar. Derweil experimentiert YouTube mit weiteren hilfreichen Features für die User. Mehr Kontext können diese im ersten Test beispielsweise auch dank der Integration der Google Lens-Suche erhalten.