BitcoinWorld
La Revolución de IA de Google: Cómo los Modelos Gemini Están Atacando Quirúrgicamente 8.3 Mil Millones de Anuncios Maliciosos
En un cambio histórico para la gobernanza de la publicidad digital, Google anunció el 30 de abril de 2025 que sus sistemas de IA bloquearon la asombrosa cifra de 8.3 mil millones de anuncios a nivel mundial, una cifra récord que subraya tanto la escala del contenido engañoso como las tácticas en evolución para combatirlo. Este aumento del 63% interanual desde los 5.1 mil millones de anuncios bloqueados en 2024 revela un giro estratégico crítico: la compañía ahora está enfocando su inmenso poder computacional en detener anuncios maliciosos individuales en lugar de prohibir sumariamente las cuentas detrás de ellos. Los datos, extraídos del exhaustivo Informe de Seguridad de Anuncios 2025 de Google, señalan una nueva era de aplicación granular impulsada por IA que promete remodelar todo el ecosistema de publicidad en línea.
La estadística más reveladora del informe no es el volumen absoluto de anuncios bloqueados, sino la tendencia contrastante en las suspensiones de cuentas. A pesar del aumento masivo en anuncios bloqueados, Google suspendió muchas menos cuentas de anunciantes que en años anteriores. Esta disparidad no es un descuido sino una recalibración deliberada de estrategia. Los ejecutivos de la compañía, incluyendo a Keerat Sharma, VP y Gerente General de Privacidad y Seguridad de Anuncios, explicaron este enfoque durante una sesión informativa virtual. "Hemos cambiado hacia una aplicación más dirigida, impulsada por IA a un nivel mucho más granular, a nivel creativo", dijo Sharma a los periodistas, contrastándolo con el "instrumento mucho más contundente" de las suspensiones de anunciantes. Este método basado en precisión ha reducido reportadamente las suspensiones incorrectas en un 80% interanual, minimizando el daño colateral a negocios legítimos.
El motor detrás de esta capacidad es la familia de modelos Gemini de IA de Google. Estos sistemas avanzados analizan anuncios con una escala y matiz sin precedentes, detectando patrones que violan políticas a través de campañas masivas. Google afirma que sus defensas impulsadas por IA detectaron más del 99% de tales anuncios antes de que cualquier usuario pudiera verlos. La tecnología no solo reacciona; predice. Al identificar patrones de amenazas emergentes y tácticas de estafa asistidas por IA generativa, los sistemas bloquean contenido dañino más temprano en el proceso publicitario. Esto representa un cambio fundamental de eliminaciones reactivas a prevención proactiva.
El informe de 2025 proporciona datos geográficos detallados que destacan tanto desafíos universales como especificidades regionales. En Estados Unidos, las acciones de aplicación de Google fueron particularmente vigorosas:
En India, el mercado más grande de Google por número de usuarios, la compañía bloqueó 483.7 millones de anuncios, casi el doble de la cifra del año anterior. Sin embargo, las suspensiones de cuentas en India cayeron significativamente a 1.7 millones desde 2.9 millones. Las violaciones más comunes en este mercado se centraron en marcas registradas, regulaciones de servicios financieros y problemas de derechos de autor, reflejando diferentes paisajes publicitarios regionales y preocupaciones regulatorias.
Quizás lo más alarmante fueron los datos sobre actividad fraudulenta. Google identificó y bloqueó 602 millones de anuncios específicamente vinculados a estafas, mientras suspendió 4 millones de cuentas de anunciantes asociadas con prácticas engañosas. Esto destaca la amenaza persistente de fraude financiero dentro de los canales de publicidad digital, un problema que las herramientas de IA generativa han facilitado para que los actores maliciosos ejecuten a escala.
Este cambio de aplicación no es un proyecto aislado sino parte de la iniciativa más amplia de Google para integrar profundamente sus modelos Gemini de IA en todos los productos principales. En publicidad, la IA ahora automatiza múltiples funciones:
Esta estrategia de defensa en capas comienza antes de que se cree siquiera un anuncio. El programa de verificación de anunciantes de Google requiere que las empresas confirmen su identidad antes de ejecutar campañas, creando una barrera significativa de entrada para actores maliciosos. Sharma señaló que estas medidas preventivas han contribuido directamente a la disminución en los números de suspensión, ya que menos cuentas fraudulentas alcanzan la etapa de requerir terminación.
La carrera armamentista tecnológica es evidente en los hallazgos del informe. El aumento en anuncios bloqueados refleja parcialmente la creciente sofisticación de adversarios que ahora usan IA generativa para producir contenido engañoso de manera más eficiente. Los sistemas de Google deben por lo tanto evolucionar continuamente, analizando no solo el contenido del anuncio sino patrones de comportamiento, estructuras de campaña y relaciones de red para distinguir marketing legítimo de actividad maliciosa coordinada.
Los observadores de la industria señalan que el enfoque de Google representa una maduración de la filosofía de moderación de contenido. Los modelos anteriores que dependían en gran medida de suspensiones de cuentas a menudo castigaban a anunciantes legítimos por violaciones únicas o errores algorítmicos. El nuevo método granular permite respuestas más proporcionales: advertir o restringir campañas publicitarias específicas sin destruir cuentas comerciales completas. Esto es particularmente importante para pequeñas y medianas empresas que dependen de la publicidad digital para sobrevivir.
Sin embargo, este cambio también plantea preguntas importantes sobre transparencia y responsabilidad. Cuando los sistemas de IA toman millones de micro-decisiones sobre anuncios individuales, comprender la lógica detrás de bloqueos específicos se vuelve más complejo. Google mantiene que sus sistemas incluyen capas de revisión humana para casos disputados, pero la escala de automatización necesariamente reduce la supervisión humana directa en acciones de aplicación iniciales.
El informe también sugiere direcciones futuras. A medida que los modelos Gemini se vuelven más sofisticados, pueden ir más allá de la simple detección de violaciones de políticas hacia evaluaciones de calidad más matizadas, potencialmente calificando anuncios por implicaciones engañosas, manipulación emocional o diseño de patrones oscuros, incluso cuando tales tácticas cumplen técnicamente con las políticas existentes.
El informe de Google llega en medio de una creciente presión regulatoria global sobre las principales plataformas tecnológicas. La Ley de Servicios Digitales de la Unión Europea, varias propuestas del congreso estadounidense y regulaciones en mercados como India y Brasil enfatizan la responsabilidad de las plataformas por contenido dañino. El informe detallado de Google y el énfasis en soluciones impulsadas por IA pueden verse tanto como una respuesta a este escrutinio como un argumento a favor de la autorregulación tecnológicamente sofisticada.
El enfoque de la compañía en "anuncios maliciosos sobre actores maliciosos" también puede reflejar realidades legales y operativas. Suspender cuentas a menudo desencadena procesos de apelación y litigios potenciales, mientras que bloquear anuncios individuales es típicamente menos polémico. Este enfoque permite a Google mantener ecosistemas publicitarios más limpios mientras minimiza la exposición legal y las cargas administrativas.
Sin embargo, los críticos argumentan que los actores maliciosos persistentes simplemente crean nuevas cuentas, haciendo del bloqueo granular de anuncios un juego interminable sin disuasión significativa. Google responde que sus defensas en capas, incluyendo verificación inicial y monitoreo continuo, hacen que la creación de cuentas sea cada vez más difícil para entidades maliciosas, abordando así la raíz del problema en lugar de solo sus síntomas.
El Informe de Seguridad de Anuncios 2025 de Google documenta un momento transformador en la gobernanza de publicidad digital. El bloqueo de 8.3 mil millones de anuncios a través de la aplicación de precisión impulsada por IA representa tanto un logro tecnológico como un cambio filosófico. Al atacar anuncios maliciosos en lugar de prohibir automáticamente a actores maliciosos, Google busca crear un ambiente publicitario más limpio y confiable mientras reduce el daño colateral a negocios legítimos. A medida que las herramientas de IA generativa empoderan tanto a defensores como a adversarios en esta batalla continua, los modelos Gemini de la compañía probablemente jugarán un papel cada vez más central en determinar qué anuncios ven los usuarios y qué contenido dañino nunca encuentran. Los números sin duda continuarán fluctuando a medida que las defensas evolucionen y las amenazas se adapten, pero la dirección es clara: la moderación publicitaria se está volviendo menos sobre juicios humanos y más sobre reconocimiento de patrones algorítmicos a escala sin precedentes.
Q1: ¿Por qué Google bloqueó más anuncios pero suspendió menos cuentas en 2025?
Google cambió su estrategia de aplicación de suspender ampliamente cuentas de anunciantes a usar sistemas de IA que bloquean quirúrgicamente anuncios individuales que violan políticas. Este enfoque granular ataca anuncios maliciosos específicos mientras reduce las suspensiones incorrectas de negocios legítimos en un 80%.
Q2: ¿Qué papel juegan los modelos Gemini de IA en la aplicación de anuncios de Google?
Los modelos Gemini de IA de Google analizan anuncios a escala masiva, detectando patrones de violación a través de grandes campañas. Estos sistemas identificaron y bloquearon más del 99% de anuncios que violan políticas antes de la exposición del usuario en 2025, permitiendo intervención más temprana contra amenazas emergentes.
Q3: ¿Cuántos anuncios relacionados con estafas bloqueó Google en 2025?
La compañía bloqueó 602 millones de anuncios específicamente vinculados a esquemas fraudulentos y estafas durante 2025, mientras suspendió 4 millones de cuentas de anunciantes asociadas con prácticas engañosas.
Q4: ¿Cuáles fueron las principales violaciones publicitarias en diferentes regiones?
En Estados Unidos, las violaciones principales incluyeron abuso de red publicitaria, tergiversación y contenido sexual. En India, los principales problemas se centraron en marcas registradas, regulaciones de servicios financieros y preocupaciones de derechos de autor, reflejando diferencias de mercado regional.
Q5: ¿Cómo previene Google que actores maliciosos creen cuentas en primer lugar?
La compañía emplea defensas en capas incluyendo programas de verificación de anunciantes que requieren confirmación de identidad antes de que las cuentas puedan ejecutar anuncios. Estas medidas preventivas han reducido el número de cuentas fraudulentas que alcanzan la etapa de suspensión.
Esta publicación La Revolución de IA de Google: Cómo los Modelos Gemini Están Atacando Quirúrgicamente 8.3 Mil Millones de Anuncios Maliciosos apareció primero en BitcoinWorld.


