Youtube

DuTube

Renvois unter dem Network Enforcement Act Aujourdon ist eine der größten lebenden Sammlungen menschlicher Kultur, die jemals an einem Ort zusammengetragen wurde: eine Gemeinschaft, in der Menschen aus aller Welt Ideen und Meinungen entwickeln und austauschen können. Bei YouTube muss sichergestellt sein, dass die Nutzer die Regeln, die dem Schutz und der Pflege der gesamten Gemeinschaft dienen, respektieren.

Nos lignes " verbietet bestimmte Kategorien von Material, darunter sexuell eindeutiges Material, pourriel, haineux, Hass, Belästigung und Aufstachelung zu Gewalt. Lorsque ist für den Inhalt der verlinkten Seiten verantwortlich. S' Verstöße gegen unsere EU-Richtlinien werden wir den Zugang weltweit sperren oder einschränken. Der Verstoß gegen die Satzung der NetzDG oder ein anderes lokales Recht und nicht gegen unsere Community-Richtlinien wird von uns als rechtswidrig eingestuft.

Das ist die gleiche Vorgehensweise, die wir auch bei allen anderen rechtlichen Anfragen zur Entfernung von Inhalten verfolgen. In diesem Zusammenhang kann die Entscheidung, ob Inhalte nach lokalem Recht für YouTube-Reviewer relevant sind, eine der schwierigsten rechtlichen Entscheidungen sein. Die Bemühungen von YouTube, eine engagierte globale Online-Community aufzubauen, können ohne die Bemühungen eines funktionsübergreifenden Teams aus Politikspezialisten, Rechtsanwälten, Ingenieuren, Produktmanagern, Datenanalysten, Inhaltsanalysten, Betriebsanalysten, neuen Bedrohungsanalysten und vielen anderen nicht gelingen.

Die Beiträge der globalen Nutzergemeinde, von ONGs, Regierungen und Industriepartnern - einschließlich anderer Technologieunternehmen - spielen eine wichtige Rolle dabei, YouTube zu einer Plattform zu machen, die für Nutzer und Entwickler auf der ganzen Welt funktioniert. YouTube hat durch den Einsatz eines "people + machine"-Frameworks wesentliche Fortschritte bei der Umsetzung unserer Richtlinien gemacht.

Unser Bericht über die Anwendung der YouTube-Community-Richtlinien enthält weitere Informationen. Bei YouTube geht es darum, die "vier Freiheiten" - Meinungsfreiheit, Informationsfreiheit, Chancengleichheit und Zugehörigkeitsfreiheit - auszugleichen und zu bewahren. Die Anwendung unserer Community-Richtlinien und/oder des Gesetzes ist Teil der Balance zwischen diesen Freiheiten und dem Erhalt der YouTube-Community. Es ist nicht einfach, dieses Gleichgewicht zu erreichen, besonders für eine globale Plattform, die in Gesellschaften mit unterschiedlichen Sprachstandards operiert.

Für Anwender in Deutschland bietet YouTube einen leicht erkennbaren, direkt zugänglichen und jederzeit verfügbaren In-Product-Reporting-Flow für Reklamationen nach NetzDG. Das Verfahren für angeschlossene Nutzer zur Einreichung von Beschwerden nach NetzDG ist in den Meldestrom integriert, der unter jedem beliebigen Namen und neben jedem Kommentar zugänglich ist. Der Verfasser klickt einfach auf das Kontrollkästchen "Ich glaube, dieser Inhalt sollte nach dem Netzwerkdurchsetzungsgesetz eingeschränkt werden" und es öffnet sich eine kurze Rechtsform, die es dem Verfasser erlaubt, zusätzliche Angaben zu machen.

Für nicht angeschlossene Nutzer bietet YouTube ein legales NetzDG-Webformular an, das über den YouTube-Footprint (eine Kontaktseite für alle Nutzer in Deutschland) verfügbar ist. Im Übrigen haben wir allen YouTube-Nutzern vor NetzDG Rechtsformen zur Verfügung gestellt (z.B. für Ansprüche im Zusammenhang mit Persönlichkeitsrechten, Urheberrechten, Marken etc. Der Prozess des legalen Opt-Out wurde daher nicht über das NetzDG eingeführt, sondern verknüpft lediglich unsere bestehenden Meldeverfahren - Meldung von Verstößen gegen EU-Richtlinien und rechtliche Hinweise auf angeblich illegale Inhalte - mit Übereinstimmungen.

Lorsque, wenn wir einen Bericht unter NetzDG über den dedizierten Online-Berichtsweg erhalten, erhält der Berichtsersteller eine Bestätigungs-E-Mail und eine Referenznummer, aus der hervorgeht, dass wir den Bericht erhalten haben und prüfen werden. Nach der Prüfung senden wir eine E-Mail an den Antragsteller, in der wir ihn über unsere Entscheidung informieren, den betreffenden Inhalt zu entfernen, weil wir ihn für illegal halten oder gegen unsere Community-Richtlinien verstoßen oder keinen Verstoß darstellen, und wir werden keine Maßnahmen ergreifen.

Unsere Kunden werden darüber hinaus darauf hingewiesen, dass der Inhalt gegen unsere Richtlinien oder das Gesetz verstößt, mit Hinweisen, wie sie Rechtsmittel einlegen können, und zusätzlichen Informationen, um den Uploader über unsere Nutzungsbedingungen oder das Gesetz aufzuklären, damit er in Zukunft keine rechtsverletzenden Inhalte hochlädt.

Außerdem, wenn wir auf einem Video handeln, das auf YouTube-Richtlinien oder lokalen Gesetzen basiert, zeigen wir eine öffentliche Bekanntmachung an, anstatt die Zuschauer darüber zu informieren, dass der Inhalt eingeschränkt wurde. YouTube hat sich weiterentwickelt und die Technologie hat sich weiterentwickelt, und auch die Systeme, die die Plattform speisen, haben sich weiterentwickelt.

Das Prüfsystem von heute nutzt neue technologische Entwicklungen, um Inhalte zu erkennen, die gegen unsere Richtlinien verstoßen könnten. Das Anwendungssystem von YouTube beginnt, sobald ein Benutzer ein Videobild hochlädt. Bei YouTube wird Technologie verwendet, um das erneute Herunterladen bekannter gewalttätiger Inhalte zu verhindern, auch durch die Verwendung von Hashwerten (oder "Fingerabdrücken"). Die digitalen Bilder und Videos sind einzigartige Fingerabdrücke und helfen uns, das erneute Hochladen von exakten Übereinstimmungen mit gelöschten Videos bei Verstößen gegen die Community-Richtlinien zu verhindern.

YouTube verwendet für einige Inhalte, wie Bilder von sexuellem Kindesmissbrauch (CSAI) und Videoaufnahmen von Terroristen, auch eine gemeinsame Hash-Datenbank, um die Menge an Inhalten zu erhöhen, die unsere Maschinen beim Herunterladen erfassen können. Im Jahr 2017 begannen wir mit dem Einsatz von automatisierter Lerntechnologie, um gewalttätige extremistische Inhalte zur Überprüfung durch den Menschen zu melden.

Bei YouTube wird der Körper von Videos, die bereits auf Gewaltextremismus überprüft und gelöscht wurden, verwendet, um maschinelles Lernen zu trainieren, um neue Inhalte zu kennzeichnen, die auch gegen die Richtlinien der Gemeinschaft verstoßen könnten. Die Nutzung maschineller Lerntechnologien, die durch menschliche Entscheidungen entstehen, bedeutet, dass sich die Strafverfolgungssysteme im Laufe der Zeit anpassen und intelligenter werden. Wenn die Ergebnisse positiv sind, haben wir damit begonnen, die maschinelle Lerntechnologie auch in anderen schwierigen Bereichen wie Kindersicherheit und Hassreden zu trainieren.

Abhängig von einem klar definierten Ziel, das in irgendeinem Zusammenhang gewalttätig ist, sind diese Systeme jedoch am effektivsten. Mit einem Signalisierungssystem, das es Einzelpersonen ermöglicht, uns zu benachrichtigen, wenn Inhalte gegen unsere Community-Richtlinien verstoßen. Es ist ein freiwilliges Selbstregulierungssystem, das unabhängig von rechtlichen Verpflichtungen besteht.

Wir haben ein Programm namens "Trusted Flagger" entwickelt, um die Einreichung von Qualitätsflaggen zu fördern. Die Vertreter vertrauenswürdiger Reporter sind Nichtregierungsorganisationen, Behörden und Einzelpersonen, die in der Regel über ein hohes Maß an Genauigkeit und Sachkenntnis auf diesem Gebiet verfügen und damit einen wertvollen Beitrag zum Aufbau des gesamten Systems leisten. Die Informationen zum Trusted Flagger-Programm finden Sie im YouTube Community Guidelines Implementation Report.

In diesem Zusammenhang haben wir, wie bereits erwähnt, zusätzliche Reporting-Tools für Einzelpersonen geschaffen, um Inhalte zu melden, die gegen die Satzung der NetzDG verstoßen würden: ein Webformular, das über den YouTube-Footprint oder durch Anklicken der NetzDG-Checkbox, die in den Fluss der deutschen Flaggen eingebettet ist. Dieser Bericht ermöglicht es den Nutzern, das falsche Element zu identifizieren und einen Grund für die Klage zu liefern.

Diese Informationen sind notwendig, damit wir eine angemessene Überprüfung durchführen können, damit wir geeignete Maßnahmen ergreifen können. Die Tatsache, dass ein intuitiver und leicht zugänglicher Workflow von Berichten neben dem Inhalt zur Verfügung steht, führt zu einer hohen Anzahl von Klicks und Berichten. Andere Nutzer reichen einen Bericht ein, ohne Angaben darüber zu machen, warum sie den Inhalt für ihre Zwecke fürchten.

Celao ist besonders dann problematisch, wenn die Inhalte nicht offensichtlich rechtswidrig sind. Die Richtlinien der globalen YouTube-Community sind klare, hochrangige Regeln, die hier verfügbar sind. Diese Richtlinien haben sich im Laufe der Zeit mit der Entwicklung von YouTube und dem veränderten Nutzerverhalten weiterentwickelt. Die Nutzer verpflichten sich, diese Richtlinien einzuhalten, bevor sie einen YouTube-Kanal öffnen. Unsere Richtlinien für NetzDG verbieten jedoch Nacktheit oder sexuelle Inhalte, schädliche oder gefährliche Inhalte, Hassinhalte, gewalttätige oder grafische Inhalte, Belästigung oder Cybermobbing, Bedrohungen und Gefährdung von Kindern.

Der YouTube-Standard enthält außerdem eine Reihe von detaillierteren und lebendigeren Durchsetzungsrichtlinien, die interne Leitlinien für die Anwendung öffentlicher Gemeinschaftsrichtlinien enthalten. Diese Richtlinien sind umfassend und dynamisch, um sicherzustellen, dass die Richtlinien auf sich ändernde Trends und neue umstrittene Online-Inhaltsmodelle Anwendung finden. Zum Beispiel verbieten die Leitlinien der Gemeinschaft Inhalte, die den Terrorismus fördern.

Wenn eine terroristische Vereinigung einen neuen Zweig gründet, können interne Durchsetzungsrichtlinien mit Informationen über diese bestimmte Gruppe aktualisiert werden, so dass die Prüfer über die notwendigen Anleitungen verfügen, um Inhalte zu entfernen, die für diese Gruppe werben. Auf YouTube werden solche Aktualisierungen nicht immer der Öffentlichkeit zugänglich gemacht, da es für skrupellose Benutzer einfacher wäre, der Erkennung zu entgehen.

Die Prüfungsgeräte sind in der Lage, den umgebenden Kontext zu sehen, während sie den gemeldeten Inhalt überprüfen, einschließlich der Videobeschreibung, anderer Inhalte, die in den Kanal hochgeladen wurden, und Metadaten (Titel, Balisen oder Bildunterschriften). Diese Indizes sind wichtig für die Beurteilung der Absicht des Downloads. Außerdem erfasst unser Review-Tool den Zeitstempel, zu dem ein Signal gesendet wurde, und unsere Webformulare fordern die Einsender auf, den Zeitstempel einzufügen.

Cela o ist in der Lage, sich auf potenziell problematische Momente in einem bestimmten Bereich eines Bildes zu konzentrieren. Nous avons av de riktlinjerna för utbildnings-, dokumentar-, wissenschaftliga och/eller (EDSA) materialien. Diese Filme sind wichtig, um die Welt zu verstehen und die Geschichte zu dokumentieren, sei es durch die Dokumentation von Kriegen und Revolutionen oder durch künstlerische Ausdrucksformen, die Nacktheit beinhalten können.

Für das Verständnis der EDSA-Ausnahmen bei der Überprüfung von gemeldeten Videoaufnahmen sind die YouTube-Anwendungsrichtlinien daher sehr wichtig. Toutefois ist eine der schwierigsten Entscheidungen für YouTube-Reviewer, wenn es darum geht, herauszufinden, welche Art von Richtlinien für die Anwendung von EDSA-Ausnahmen gelten. YouTube löscht ein Video, das gegen EU-Richtlinien verstößt, und informiert den Uploader über die getroffenen Maßnahmen und die Gründe dafür.

Unsere Nutzer können seit langem gegen eine Entscheidung Berufung einlegen, wenn sie glauben, dass ihr Inhalt nicht gegen unsere Gemeinschaftsrichtlinien verstößt. Lorsque: Wenn wir feststellen, dass der Inhalt tatsächlich irrtümlich gelöscht wurde, korrigieren wir die Situation, indem wir den betreffenden Inhalt wiederherstellen. Generell werden unsere Review-Teams Inhalte global entfernen, wenn sie gegen unsere Community-Richtlinien verstoßen oder den Zugang lokal beschränken, wenn sie gegen lokale Gesetze verstoßen.

Im Falle dieser Fälle kann unser Review-Team eine Altersbeschränkung für das Videomaterial verhängen, wenn wir über den Inhalt informiert werden. Die Vidéos mit Altersbeschränkung sind für Benutzer, die ausgeloggt sind, unter 18 Jahre alt sind oder den eingeschränkten Modus aktiviert haben, nicht sichtbar. In diesem Fall teilen wir dem Uploader per E-Mail mit, dass sein Einsatz zeitlich begrenzt ist und er gegen diese Entscheidung Berufung einlegen kann.

Für den Fall, dass unsere Review-Teams feststellen, dass ein bestimmtes Thema an der Grenze unserer Richtlinien liegt, können bestimmte Funktionen deaktiviert werden. Auf YouTube bleiben diese Bilder verfügbar, werden aber hinter einer Warnmeldung angezeigt, und einige Funktionen werden deaktiviert, einschließlich Teilen, Kommentieren, Vorschlagen von Bildern und Geschmacksrichtungen. Die Vidéos sind auch nicht monetarisierbar.

In diesem Fall teilen wir dem Uploader per E-Mail mit, dass sein Einsatz nur eingeschränkt möglich ist und dass er gegen diese Entscheidung Einspruch erheben kann. Lorsque ist nicht mehr öffentlich und kann gegen diese Entscheidung Berufung einlegen. Bei Verstößen oder wiederholtem Missbrauch können wir den Nutzer bestrafen, indem wir bestimmte Funktionen deaktivieren oder seinen Verpflichtungen kündigen.

Nachdem drei Regelverstöße zu einer Kündigung des Accounts führen, können wir den Account auch zunächst wegen flagranter Verstöße wie z.B. Verstöße gegen den Datenschutz kündigen. Lorsque wird eine rechtliche Prüfung auf der Grundlage der im Antrag enthaltenen Informationen, einschließlich der vom Antragsteller erhobenen Einwände, durchführen.

Außerdem sehen sie den Kontext um den gemeldeten Inhalt (z.B. Metadaten, Titel, etc.). Si gel, wenn wir Inhalte als solche kennzeichnen, sperren wir diese lokal. Netzwerk DG Anfragen. In diesem Fall bewerten wir die Inhalte zunächst anhand unserer Community-Richtlinien, wenn wir eine Anfrage von NetzDG erhalten.

Der Inhalt verstößt nicht gegen diese Richtlinien, wird unser Review-Team die Inhalte nach den 22 Gesetzen des Allgemeinen Strafgesetzbuches (StGB) NetzDG (§1 III NetzDG) beurteilen. Ainsi, um den Antragstellern zu helfen, Inhalte zu melden, die sie nach dem NetzDG für rechtswidrig halten, haben wir in unserem NetzDG-Meldestrom sieben Inhaltskategorien geschaffen, die den 22 relevanten Gesetzen des Strafgesetzbuches entsprechen.

Diese Kategorien sind: Certains können in mehr als eine Kategorie fallen. Zum Beispiel kann die Verbreitung von Propagandamaterial verfassungswidriger Organisationen (§ 86 Strafgesetzbuch) oder die Verwendung von Symbolen verfassungswidriger Organisationen (§ 86a Strafgesetzbuch) auf Hassreden hinweisen und auch ein Signal für terroristische oder verfassungswidrige Inhalte sein.

Im Falle der Verletzung des öffentlichen Friedens durch die Androhung von Straftaten (§ 126 Strafgesetzbuch), die für terroristische oder verfassungswidrige Inhalte charakteristisch sein können, aber auch als schädliche oder gefährliche Handlungen eingestuft werden können. In diesem Fall ist die Rechtmäßigkeit des Inhalts sehr schwer zu beurteilen und sollte in der Regel von den zuständigen Gerichten entschieden werden.

Lorsqu ist, wenn es um Verleumdungen und Beleidigungen geht, ist nur die Minderheit der Fälle eindeutig ersichtlich. Das Tribunal berät manchmal jahrelang über die Rechtmäßigkeit der Inhalte und kommt dennoch zu unterschiedlichen Schlussfolgerungen. Beispielsweise hat das Bundesverfassungsgericht Entscheidungen des Bundesgerichtshofs aufgehoben und immer wieder bewiesen, dass komplexe Abwägungskriterien festgelegt werden müssen und dass die Rechtmäßigkeit je nach Sachverhalt des Einzelfalls immer umständlich ist.

Contrairement: Im Gegensatz zu Gerichtsverfahren verfügt das soziale Netzwerk nicht immer über alle notwendigen Informationen. Diese Überlegungen werden auch durch die aktuelle Praxis unterstützt: Die Nomenklatur der NetzDG wird häufig nicht von der betroffenen Person, sondern von Dritten erhoben, die davon ausgehen, dass sich die betroffene Person diffamiert fühlt.

Die soziale Vernetzung weiß nicht, ob dies tatsächlich der Fall ist oder ob der Betroffene tatsächlich eine Strafanzeige bei den zuständigen Strafverfolgungsbehörden eingereicht hat - weil die Verfolgung dieser Straftaten eine Antragsdelikt erfordert - weil wir nicht in der Lage sind, die Identität des Klägers / Beschwerdeführers zu überprüfen.

Wir haben uns einen soliden Rahmen für die Qualitätsprüfung geschaffen, um sicherzustellen, dass unsere Mitarbeiter weltweit stets die richtigen Entscheidungen zu den berichteten Inhalten treffen und regelmäßig Feedback über ihre Leistungen erhalten. Unsere Review-Teams bestehen aus Tausenden von Menschen, die die Flaggen 24 Stunden am Tag, sieben Tage die Woche und 365 Tage im Jahr in Zeitzonen auf der ganzen Welt sorgfältig auswerten.

Ces are besteht aus mehreren deutschsprachigen Sprachen, von denen einige deutschsprachige Juristen sind. Sie nehmen bei Bedarf an der rechtlichen Analyse der uns gemeldeten Inhalte teil, und die Einrichtungen können zusätzliche Rechtsberatung durch externe Anwälte vor Ort in Anspruch nehmen. Die Nomenklatur der NetzDG ist abhängig von der Anzahl der Anfragen, der Anzahl der Content-Reviewer, die den Betrieb von YouTube unterstützen, und der Anzahl der Rechtsanwälte.

Afin d' Enforex-Prüfer haben unterschiedliche berufliche Hintergründe, sprechen verschiedene Sprachen und sind unterschiedlich alt. Die soliden Wellness- und psychologischen Unterstützungsprogramme werden den NetzDG-Inhaltsredakteuren angeboten, z.B. regelmäßige und bedarfsgerechte Beratungen in deutscher Sprache durch einen deutschsprachigen Psychologen. Wir bieten auch Wellnesseinrichtungen, darunter Werkstatträume und Privaträume für individuelle Beratungsgespräche.

Mehr zum Thema