Actualmente, Google, Yahoo y otras empresas de búsqueda respetan voluntariamente los deseos de las páginas Web que se expresan a través del archivo de texto conocido como “robots.txt”, que es el que el software de indexación del motor de búsqueda utiliza para buscar un sitio.
Pero como los motores de búsqueda están ampliando su oferta de servicios e incluyen noticias y libros escaneados, las empresas de noticias y editoriales han empezado a quejarse.
Dicen que Google está colgando sus titulares, noticias y fotos sin permiso. Google, por su parte, asegura que cumple con las leyes de copyright, aunque se enfrente a una denuncia por parte de Agence France-Press en estos momentos, y haya tenido que pagar a Associated Press para que la llevase a juicio.
Para evitar esto, las editoriales, empresas de revistas y periódicos han propuesto un sistema de control, llamado Automated Content Access Protocol, con el que se pueda bloquear la indexación de páginas web individuales. Con el uso de este protocolo, los sitios podrán limitar el tiempo que los motores de búsqueda retienen las copias en sus índices o decir al crawler que no siga ninguno de los vínculos que aparece dentro de la página web.
Google ha dicho que tendrá que evaluar este sistema para asegurarse de que reúne las necesidades de los millones de páginas web que existen, y no solo las de este influyente grupo.
Más información aquí.
El internet de las cosas (IoT) trae muchas ventajas, pero también comporta nuevos riesgos. El…
Ofrece hasta 1 millón de dólares de compensación económica en caso de incidente, con la…
Este cambio refleja los avances que se producen a nivel de infraestructura TI y el…
El evento espera reunir a 17.000 directivos, que podrán escuchar a medio centenar expertos en…
Como resultado de esta operación, ampliará sus servicios en el "bronze layer" del ciclo de…
Durante el segundo trimestre de su año fiscal 2025 acumuló 1.660 millones de dólares, la…