¿YouTube se posiciona en contra de la IA?

Por Milagros Eckardt.
El pasado 15 de julio, la plataforma estadounidense más famosa de contenido audiovisual, YouTube, realizó modificaciones en sus políticas de monetización. Así, los creadores de contenido tendrán que cumplir más requisitos para entrar al Programa de Socios de YouTube (YPP), además de respetar los lineamientos de la comunidad, las condiciones de servicio, los derechos de autor y las políticas de ajuste de autorización de derechos.
El «contenido repetitivo» pasó a denominarse «contenido ilegítimo», y se incluye todo video redundante o de reproducción masiva que genere congestión o incomodidad en el algoritmo. Con esto, se premia a los youtubers que destaquen por su autenticidad y originalidad, que se centren en aportar valor, entretenimiento y conocimiento a la comunidad, y que no busquen solo lucrar o tener muchas vistas.
Por un lado, estará prohibido el uso masivo de la IA, como personajes ficticios, voces robóticas sin emoción que se limitan a relatar un texto, imágenes de fondo estáticas creadas con la misma herramienta, automatización y más. Además, YouTube tiene un apartado de impersonation, donde detalla todas las acciones prohibidas relacionadas con la suplantación de identidad y explica cómo denunciarla.
Por otro lado, cada video debe ser original, atractivo e interesante para el público, y se debe distinguir con claridad su contenido. Los revisores saben que las personas siguen un patrón para crear una marca personal, como videos con la misma introducción y final, videos de contenido similar en los que se habla de las características de un tema en específico o clips cortos sobre objetos similares editados. Estos casos siguen siendo monetizables porque se mantiene la esencia del autor; sin embargo, la plataforma detalló un listado de ejemplos donde se incumpliría dicho lineamiento:
- Contenido de lecturas de otros materiales que crearon otras personas, como texto de sitios web o feeds de noticias, sin aportes del creador.
- Canciones idénticas a las originales, en las que solo se modificó el tono o la velocidad.
- Contenido repetitivo similar con poca narración o comentarios.
- Presentaciones de diapositivas con imágenes o texto en movimiento que tienen poco valor educativo.
Se ha generado mucha confusión con el contenido reutilizado en redes sociales. En principio, se dijo que los canales de reacciones serían desmonetizados. No obstante, YouTube aclaró que no se han realizado cambios en dicho apartado, que incluye videos con reacciones, clips o compilaciones. Los revisores harán un trabajo más exhaustivo en este tema al observar no solo los videos, sino las descripciones del canal y los títulos.
Se seguirán monetizando los clips o videos de reacciones con contenido de opinión, escenas de películas con cambios en el guion o la voz en off, material editado de otros creadores que cuenten una nueva historia, relatos deportivos, utilización de otras fuentes mientras estén citadas o se le den créditos al autor original, etc. Solo se deberá tener cuidado con los videos que sean escenas simples de un programa o serie, compilaciones de contenido audiovisual de otras plataformas sin mostrar la cara, promoción de contenido ajeno, videos descargados sin edición importante o reacciones no verbales sin voz de fondo.
La problemática de los canales de personajes de IA
Este año, se sumó la tendencia de subir videos sobre relatos como el estoicismo, la historia de un país o próceres y otros temas, donde el relator era una IA con acento neutro y sin sentimiento. Se le agregó el acompañamiento de imágenes también generadas artificialmente y con subtítulos automáticos.
No solo se encontraron errores e incongruencias en las tres herramientas utilizadas, sino que YouTube descubrió que estos «creadores» de contenido compartían un modus operandi: alargar la duración del relato para poner la mayor cantidad de anuncios posible y así aumentar sus ganancias. En otras palabras, automatizaban el proceso de creación para no tener que hacer demasiado esfuerzo.
Esto generaba una especie de desbalance entre los usuarios de la plataforma y fue la razón principal por la cual se tomó esta medida a favor de la humanización de la edición y creación.
Inclusión de la traducción automática: una gran contradicción
Ahora bien, más allá de la buena intención de tomar medidas contra la automatización, YouTube se está contradiciendo y está generando descontento e incomodidad entre los consumidores.
Mediante las plataformas Reddit, TikTok e Instagram, muchas personas expresaron su enojo por las últimas actualizaciones. Los videos pasaron a tener doblaje automático que se activa sin tu consentimiento. Al principio, no era tan malo, ya que podías hacerlo desaparecer en el menú. Sin embargo, los usuarios se percataron de que la calidad del audio es horrible, no hay emoción o entonación en los relatos, y la mala traducción genera confusión y falta de comprensión.
Todo empeoró cuando agregaron la traducción automática de los títulos de los videos y, en este caso, no es posible desactivarlo.
Si tenés tu computadora o tu dispositivo configurados en tu segundo idioma, probablemente la pases terrible, ya que la plataforma decide traducir todo sin tu permiso y puede que pierdas la oportunidad de seguir practicando y aprendiendo. Por ejemplo, si estás viendo a un youtuber latino o decidís escrolear en el inicio, todo te aparecerá en inglés.
En definitiva, las limitaciones al uso de la IA se están aplicando a conveniencia. Buscan eficiencia, rapidez y efectividad para llegar a más público y aumentar las vistas. Sin embargo, están tratando de resolver una problemática inexistente. Los traductores humanos han facilitado la comunicación y el entretenimiento con éxito desde que se tiene memoria.
Y deciden sacrificar la calidad por la cantidad por puro capricho de aplicar las nuevas tecnologías en sectores innecesarios.
–