web-enzyme-v2-logo-white
logo-enzyme-2-blog

Web Crawling aplicado a la implantación de la GDPR

data security

La GDPR es la nueva regulación sobre la protección y privacidad de datos personales a nivel europeo que pone de manifiesto que los datos pertenecen a los usuarios y no a las empresas que los captan y los gestionan.

El 25 de mayo de 2018 se cumple el plazo de aplicación de la normativa en todos los países miembros de la Comunidad Europea y su incumplimiento implica sanciones desde 10M€ para infracciones leves hasta 20 M€ o el 4% de la facturación anual mundial para infracciones graves.

Si tenemos en cuenta la complejidad de la implantación de la GDPR en aquellas empresas u organismos con una estructura de captación de datos muy diversificada, es evidente el nivel de complejidad para llevar a cabo dicha implantación.

En Enzyme Advising Group hemos desarrollado un Web Crawler para un proyecto empresarial a nivel local que permite, mediante Data Discovery Services, nuestro servicio de agregación contenido web, rastrear aquellas webs del propio organismo en las que existen formularios de entrada de datos para los usuarios.

 

Desarrollo de un Web Crawler para identificar formularios

La magnitud del análisis es ingente ya que existen multitud de sites en más de 10M webs donde buscar formularios que están descentralizados y en un entorno totalmente heterogéneo.

data webPara poder ofrecer una solución ágil y segura que facilite el trabajo de revisión de todos los formularios de las diferentes webs, se ha desarrollado en Java un Web Crawler para que rastree de forma automática todas las webs del cliente y así poder identificar si existen formularios que sean susceptibles de incumplir la nueva directiva europea de la GDPR.

Con el objetivo de poder hacer el seguimiento de la efectividad del Web Crawler se realiza un contraste aleatorio de algunos resultados para poder ajustar su fiabilidad.

Mediante el Web Crawler se generan informes aplicando filtros selectivos que permitan realizar acciones concretas.  Un Web Crawler actúa como una araña que recorre miles de sites.

 

Ventajas e impacto de un Web Crawler para la implantación de la GDPR

Para abordar un proyecto de esta envergadura, bien por las dimensiones del cliente, bien por la cantidad de dispersión que éste pueda tener en la red en diferentes sites o webs repartidas con formularios de entrada de datos de clientes, es necesario pensar en una solución global, automatizada que permita filtrar por diferentes criterios.

Con un proyecto de Web Crawler aplicado a la GDPR se puede llevar a cabo una labor que podría ser de una magnitud importante, de una manera ágil y automatizada. En nuestro caso los resultado hablan por si solos:

  • Análisis de 469 sites
  • Análisis 10 millones de enlaces
  • Análisis de 17 mil páginas
  • Análisis de 293 formularios

 

Si consideramos las cuantías especificadas por la Unión Europea en caso de incumplimiento de la nueva directiva y aunque quizá, en un principio no se aplique con todo el rigor, es obvio que la dirección a la que debemos apuntar es a la de no dejar nada en el tintero susceptible de pasar por el tamiz de la GDPR.

De ahí, la necesidad de poder contar con tecnologías como las basadas en el Information as a Service que brindan la posibilidad de encontrar en un mar infinito lo que estamos buscando. Son muchos los portales que aplican este tipo de tecnología para convertirse en agregadores de información que permiten que los clientes puedan realizar comparativas de un mismo servicio o producto ofrecido por diversas empresas.

Si requieres de más información de GDPR descargate nuestro eBook gratuito aquí y descubrirás un caso de uso en el que se aplica a chatbots.

 GDPR descarga ebook

  

Posts relacionados
¡Comparte con tus contactos!
   

Comenta este artículo...

New call-to-action

Suscríbete y no te pierdas ninguna novedad

¡Comparte con tus contactos!

   
contacto