Software y
aplicaciones especializadas en repetir tares , bajo el rótulo de bots, ocupan
más de 50 por ciento del tráfico global de internet. Cuánto le cuesta a las
empresas de publicidad y cómo solucionarlo.
Los bots están
al día de hoy ingresando en muchos rubros. Los chatbots tienen cada vez más lugar
en la tecnología médica y financiera, por ejemplo. También existen robots
algorítmicos para los servicos mobile y la atención al cliente (Facebook apostó
a estos últimos recientemente). En pocas palabras, los bots son software
diseñado para realizar automáticamente alguna tarea específica y sencilla (como
hacer click aquí o allá, aceptar o declinar, etcétera).
Actualmente, de
acuerdo a un reciente reporte de la consultora
Imperva Incapsula, estos bots ya componen oficialmente la población más
grande de Internet, relegando a los humanos a la minoría del tráfico de la red
de redes.
Investigando más
de 16 mil millones de visitas a más de 100.000 sitios web elegidos
aleatoriamente, los investigadores encontraron que actualmente el tráfico de
Internet está ocupado en un 51,8 por ciento por bots de diferentes clases y el
restante 48,2 por ciento son personas de carne y hueso.
Los buenos y los
malos
No todos los
bots son creados iguales. Algunos son software transparente de empresas y es
sencillo monitorearlos. Este es el caso de los bots de motores de búsqueda como
Google y Google Alerts, Yahoo o Bing. Lo mismo vale para los bots de monitoreo
y análisis de “feed” de noticias como es el caso de Wordpress o Facebook,
Android y Twitter respectivamente.
Pero existen
otro tipo de bots que se usan para fines maliciosos. En el informe se citan
algunos como Nitol, Cyclone o Mirai. Estos softwares de automatización se usan
para robar información o lanzar ataques DDoS (de negación de servicio, para
tumbar una página web por ejemplo) y utilizan los recursos y datos de la
máquina infectada. También se usan para crear sitios web similares a otros
famosos y robar el dinero de la publicidad digital o para socavar información y
datos de los navegantes de la web.
En el año 2012, la
distribución de bots tóxicos era de 20 a
31 por ciento versus la cantidad de bots legítimos. Pero, con nuevos datos
actualizados, el reporte informa que esa relación ahora se invirtió: la nueva
mayoría son los bots malos, que superan a razón de 28,9 contra 22,9 a los
chatbots inofensivos.
¿Quiénes son los
robots malvados que ahora son la mayoría en la web? casi uno de cada cuatro de estos software son
bots de imitación. Los “impersonators” son el 24 por ciento de los bots malos
existentes y su función es asumir una identidad falsa para molestar a las
soluciones de seguridad. Se usan con frecuencia para ataques DDoS. El 2 por
ciento de la población de software malicioso son bots de hacking. Comúnmente
buscan debilidades y “exploits” en muchos sitios web para colocar malware,
spyware, robo de información u otra forma de intromisión digital.
La población
minoritaria la componen en un 1 por ciento los bots más peligrosos, los
“scrapers” que se usan con el fin de robar datos sensibles y extraer
información de bases de datos y sitios web.
El 0,3 por ciento restante lo forman los bots más conocidos: los
“spammers”. Estos robots se ocupan de publicar enlaces a sitios web en el lugar
de los comentarios de sitios de noticias, las redes sociales, etcétera.
Un dolor de
cabeza para la publicidad
Más allá de los
problemas inherentes, como la seguridad y la privacidad, este crecimiento tan
pronunciado del tráfico de internet a cargo de bots y, en particular, de bots
maliciosos es un gran problema para el negocio de la publicidad digital. El
modelo de negocios del marketing online se funda en la premisa básica que
quienes consumen los avisos publicitarios y generan tráfico son personas detrás
de un monitor y no algoritmos automáticos.
De acuerdo a lo
informado por la Asociación Nacional de Publicitarios de los Estados Unidos
y la compañía especializada en fraude
digital White Ops, se estima que los bots le cuestan a las empresas de
publicidad unos 7 mil millones de dólares anuales en concepto de revenue. El
lugar más endeble es el de la publicidad programática, que funciona en base a
diferentes algoritmos muy sofisticados que invierten dinero en los sitios que
tienen más tráfico. Pero al ser un método automático, es imposible saber si ese
tráfico se debe a que hay posibles compradores del otro lado navegando o es
tráfico inútil para quien paga la publicidad ya que los bots no consumen luego
de estar expuestos a la publicidad.
Las estimaciones
del estudio de Incapsula son que para los sitios web medianos (de mil a diez
mil visitas por día) al menos un 24 por ciento de tráfico son bots maliciosos.
Y en los sitios grandes (de diez mil a cien mil visitas diarias) no menos de un
21 por ciento es tráfico malicioso.
Fuente: http://www.infotechnology.com/negocios/En-Internet-navegan-mas-robots-que-personas--20170207-0002.html