Un nuevo informe de Cloudflare revela que Perplexity AI habría estado utilizando rastreadores ocultos para evadir bloqueos y directivas de exclusión en sitios web.
La investigación comenzó tras recibir quejas de clientes que afirmaban que, incluso después de bloquear al bot de Perplexity, este seguía accediendo a su contenido.
Cloudflare concluyó que Perplexity modifica su user agent y cambia de redes (ASN) para ocultar su actividad, además de ignorar los archivos robots.txt, lo que constituye una mala práctica en el ecosistema web.
De acuerdo con el reporte:
Compañías como OpenAI sí respetan las reglas: sus rastreadores declaran abiertamente su identidad, obedecen las directivas de robots.txt y se detienen cuando se les bloquea.
Cloudflare probó sus bots y confirmó que cumplen con estas normas.
En cambio, la táctica de Perplexity fue catalogada como “patrón de comportamiento” y no como un incidente aislado.
Ante estos hallazgos, Cloudflare tomó medidas:
Cloudflare también colabora con expertos y organismos internacionales como el IETF para estandarizar nuevas extensiones de robots.txt, con el fin de fijar principios claros para bots responsables.
La decisión de Cloudflare podría limitar la capacidad de Perplexity de acceder a contenidos web protegidos, especialmente en sitios que dependen de sus servicios de seguridad.
Esto supone un golpe reputacional para la empresa, en un momento en que la transparencia y el respeto por las reglas web son temas centrales en la regulación de la inteligencia artificial generativa.
Si eres un amante de los videojuegos, estás de suerte. Hasta el 20 de noviembre…
La computación cuántica acaba de dar un salto gigante. John M. Martinis, recién galardonado con…
La biografía más vendida del cofundador de Apple, Steve Jobs; escrita por uno de los…
Hubo un tiempo en el que la “seguridad en el hogar” significaba confiar en un…
Elon Musk vuelve a romper todos los esquemas. Los accionistas de Tesla acaban de aprobar…
Los fans de Grand Theft Auto tendrán que esperar un poco más para volver a…