Youtube 댓글에서 검열이 작동하는 방식

Youtube 댓글에서 검열이 작동하는 방식

YouTube는 문화적 영역과 마케팅 도구 사이의 중간에 동영상을 공유 할 수있는 거대한 플랫폼입니다 . 네트워크에있는 전체 사용자의 거의 절반, 즉 전 세계 인구의 거의 30 % 만 모을 정도로 거대한 개체입니다.

처음에는 게시하거나 게시 할 수있는 항목에 대한 기준을 부과 할 때 정책이 더 느슨했지만, 사실 YouTube는 특정 민감한 주제를 피하기 위해 한동안 자체 규칙을 강화하고 있습니다 . 더 이상 진행하지 않고 몇 주 전에 '민감한 사건'에 대한 수익 화 정책을 다시 업데이트하여 현재 건강 위기에 대한 언급을 블랙리스트에 포함 시켰습니다.

하지만 YouTube는 부적절한 댓글을 어떻게 정의 할 수 있습니까? 잠재적으로 '위험한'단어와 구를 누가 또는 무엇으로 정의합니까? 첫 번째 단계 는 YouTube 댓글에서 검열이 작동하는 방식 을 이해하기 위해 플랫폼이 사용하는 메커니즘을 이해 하는 것 입니다.

검열

YouTube에서 검열은 어떻게 이루어 지나요?

YouTube의 활성 사용자가 20 억 명이 넘기 때문에 이러한 모든 프로필의 활동에 대한 제어를 자동화하는 방법이 필요합니다. 이 메커니즘은 사이트에있는 모든 사람의 콘텐츠와 활동을 추적, 프로파일 링 및 분류 하는 AI에 의해 제어되는 고도로 정교한 컴퓨터 시스템 의 형태를 취합니다 .

이 인상적인 시스템은 기계 학습을 사용하여 단어 뿐만 아니라 부적절 할 수있는 표현도 감지 합니다.

우리는 '금지 된'단어 목록을 기반으로 특정 주석을 단순히 차단하는 엄격한 의미의 알고리즘에 대해 이야기하는 것이 아닙니다. 그것은 훨씬 더 나아갑니다. 오히려 우리는 이전 에 채널 소유자 나 다른 사용자가 검토수백만 개의 댓글 샘플 을 가져 오는 머신 러닝 기반의 계산 모델에 대해 이야기하고 있습니다.

당연히 금지 된 단어 목록이 있고 알고리즘에 의해 제어되지만, 그다지 중요하지 않은 것은 YouTube가 특정 부적절한 행동을 신고하기 위해 커뮤니티에 제공하는 모든 도구와 리소스입니다. 사용자로부터 오는이 모든 입력 은 플랫폼의 데이터 분석 시스템공급 하여 커뮤니티 내 활동을 훨씬 더 효과적이고 정확한 방식으로 제어합니다.

즉, 빅 브라더는 키워드 검색, 기계 학습 및 YouTube 커뮤니티의 책임있는 행동을 자동화하는 알고리즘의 조합입니다. 검열의 대상이 될 수있는 모든 용어와 표현은 플랫폼의 '보안 규정'섹션에 포함되어 있습니다.

이 전체 규칙 집합은 특히 유해 하고 위험하며 포르노, 증오, 저작권 등의 콘텐츠 를 피하려고 합니다 .

검열

숫자로 보는 검열

위에 설명 된 도구가 얼마나 효과적인지 알기 위해 2019 년 마지막 분기 (기록상 마지막 항목)에만 삭제 된 댓글 수를 살펴보면됩니다. 삭제 된 댓글은 총 5 억 1,500 만 건 입니다.

또한 YouTube 자체 시스템에 의해 삭제 된 댓글과 YouTube 사용자 (사용자가 아닌)가 직접 삭제하거나 차단 한 댓글의 비율을 확인할 수 있습니다 . 또 다른 흥미로운 데이터는 특정 주제에 따라 삭제 된 댓글의 비율입니다.