Saltar al contenido

En un momento en el que la tendencia es la automatización de tareas y en el que el volumen de información llega a ser ingobernable por un ser humano, los robots, más que enemigos, pueden ser nuestros grandes aliados.

Pues bien, ¿te imaginas tener un robot que constantemente está analizando páginas webs? Suena bien, ¿verdad? Los rastreadores, arañas web, robots… o más conocidos como crawlers son pequeños programas informáticos que de forma automática rastrean y leen páginas web y se llevan la información a un servidor. Son motores de búsqueda que nos sirven para saber qué hay nuevo en internet.

Buscadores como Google, Bing o Yahoo los utilizan para indexar contenidos y mostrarlos en los resultados de búsqueda que hacen los usuarios. Pero también se pueden utilizar para comparar precios, generar leads, periodismo de investigación o buscar empleo.

En este último uso vamos a centrar nuestro próximo Talking Points, “Este robot no te quitará el trabajo, te ayudará a encontrar uno mejor”. Hakim El Bekkali, .NET Core Developer de BABEL, nos contará qué son los crawlers y cuáles son los más conocidos. Y después nos enseñará a crear nuestro propio rastreador, que nos ayudará a buscar y comparar ofertas de empleo en la red.

El jueves 17 de septiembre, de 18.00 a 19.00 h (CET), y en formato online, nos vemos en un nuevo Talking Points. Entradas límitadas, reserva la tuya haciendo clic en este enlace.

Merce López
Merce López

Responsable de medios de comunicación en Babel.

logo linkedin compartir en Linkedin Contacto

Otros artículos destacados