¿Qué es y cómo responden las plataformas de IMS?
No existe una definición o estándar, ni por la academia o una asociación de publicidad digital, sobre de qué es exactamente la seguridad de marca o Brand Safety. El concepto es 100% contextual ya que depende qué considere cada anunciante un escenario de riesgo.
Para derribar ciertos mitos y afirmaciones erróneas, citamos la definición de Bethan Crockett, Digital Risk director en GroupM WPP. Brand Safety se refiere a la implementación de un aviso publicitario en formatos de display, video y nativos que no estén adyacentes a contenido online que sea ilegal (en contra de la ley), ilegítimo (temas controversiales y poco aceptados por el público) o inadecuado para la imagen de la marca.
Más de 2/3 de los profesionales de marketing encuestados en Estados Unidos afirmaron que sus marcas estuvieron expuestas a incidentes de Brand Safety al menos una vez.
Según un estudio de GumGum y Digiday (publicado por eMarketer), más de 2/3 de los profesionales de marketing encuestados afirmaron que sus marcas estuvieron expuestas a incidentes de Brand Safety al menos una vez. Además, manifestaron que los tópicos asociados que atentaron contra la seguridad de las marcas más frecuentes fueron: noticias sobre tragedias (39%), contenido político controvertido causante de divisiones entre la opinión pública (39%) y noticias falsas (39%). Por otro lado, un tercio de los entrevistados afirmaron que sus anuncios aparecieron cerca de sus competidores y que algunos de ellos, lo consideran un tema relacionado a Brand Safety.
A continuación, compartimos un resumen con los highlights del citado documento, a fin de delimitar un consenso acerca de Brand Safety:
Una estrategia de Brand Safety dependerá de los objetivos de cada marca y del contexto en el cual se corre la pauta.
Cada anunciante deberá diseñar una estrategia de acción, en caso de la marca aparezca en contextos inseguros.
Para ello, una marca debería identificar tópicos sensibles o aquellos que atentarían contra los valores de la marca (violencia, pornografía, etc.)
Las listas negras, realizadas por plataformas de contenido generado por el usuario, no son la solución final a problemas de contenido inseguro.
La plataforma MOAT compartió un listado de 12 categorías de contenido peligroso a tener en cuenta (en inglés, “dirty dozen”): contenido adulto, armas, crimen, muertes o accidentes, piratería online, discurso que incite al odio, conflicto militar, pornografía (obscenidad), drogas, SPAM o sitio peligroso, terrorismo y tabaco.
Ahora, limitar la aparición del aviso en estas 12 categorías riesgosas tampoco es una solución 100% segura, ya que muchas de las noticias nocivas o proclives a la desinformación (o fake news), pueden estar en categorías de información general, celebridades, salud, economía, etc. Para estar seguros, siempre se deberá recurrir a plataformas cerradas (con contenido curado por el Publisher) o a la verificación de cualitativa de ojos humanos, porque por más que se utilicen algoritmos contextuales, siempre se puede filtrar un contenido/ palabra/ imagen no deseada por una marca.
La respuesta de las principales aplicaciones y plataformas para los riesgos de Brand Safety
Snapchat
- Brand Safety asegurada al presentar avisos que ocupan el 100% de la pantalla y curados por expertos (no algoritmos).
- Para la sección Discover cuenta con verificación de monitores externos para las categorías riesgosas, se puede monitorear por Integral Ad Science (IAS), MOAT y DoubleVerify para Brand Safety.
- Además, cuenta con protocolo OBS (Open Brand Safety) que, integrado por MOAT y la Universidad de Nueva York, hace una medición cualitativa de las publicaciones para identificar noticias falsas y contenido nocivo.
Warner
- El inventario de videos producidos profesionalmente garantiza que las marcas nunca estén posicionadas alrededor de contenidos cuestionables generados por los usuarios.
- Categorización manual del contenido como explícito si incluye alguno de los siguientes elementos: lenguaje vulgar, violencia e imágenes perturbadoras, desnudos y contenidos sexualmente sugestivos y representación de actividades nocivas o peligrosas. El anunciante puede excluir su pauta de estos contenidos explícitos.
- Verificación MOAT para Viewability y Fraude.
- Si bien la plataforma es User Generated Content (UGC), el aviso de video se reproduce en al 100% de la pantalla, por ende, no puede estar contiguo a ningún tweet.
- Twitter no permite promocionar contenido de incitación al odio, software ilegal, tabaco, armas, industria farmacéutica, alcohol, sexo, guerra, etc. Además, tiene algunas limitaciones locales, por ejemplo, en Chile no permite anuncios de comidas rápidas.
- Este año, se lanzó una nueva política llamada “Política sobre la Glorificación de la Violencia”. Esta reglamentación busca que no se pueda amenazar con violencia contra un individuo o un grupo de personas.
- El propio entorno de LinkedIn garantiza un comportamiento profesional por parte de los usuarios, con bajas probabilidades de publicación de contenido inapropiado.
- El contenido del formato Sponsored InMail está 100% controlado, evitando que lleguen mensajes inapropiados a los usuarios.
EA
- Solo juegan los usuarios registrados.
- Juegos licenciados por EA, contenido oficial y curado.
- Los anuncios ocupan el 100% de la pantalla.
Twitch
- Verificación de los comerciales realizados durante los programas de Influencers por el equipo interno de Twitch, siguiendo los lineamientos de la política de la plataforma.
- En febrero del 2018 actualizó sus las políticas para bloquear cuentas indefinidamente si infringen contenido relacionado con marcas. Además, amplia el límite al acoso entre los usuarios de Twitch, aunque sea por otra plataforma.
King
- Solo juegan los usuarios registrados.
- Juegos licenciados con contenido oficial y curado.
- Los anuncios ocupan el 100% de la pantalla.