Seguros CCPP seguros de empresa seguros personales

RIESGOS DE LA INTELIGENCIA ARTIFICIAL Y SEGUROS

Seamos o no conscientes de ello, la realidad es que estamos inmersos en los inicios de la la era de la Inteligencia Artificial (IA). A medida que se producen veloces y numerosos avances en esta espectacular tecnología, y se extiende su uso en nuestra sociedad, comenzamos a darnos cuenta de sus riesgos y potenciales peligros.

En un momento de creciente preocupación hacia un sector en tan rápido desarrollo y difícil control como es el de la Inteligencia Artificial, sus principales creadores son precisamente quienes nos alertan sobre la preocupante aventura que supone esta tecnología. En una carta abierta, firmada por los líderes de OpenAI, Google DeepMind, Anthropic y más de 350 ejecutivos, investigadores e ingenieros expertos en IA, se afirma textualmente que: “Mitigar el riesgo de extinción para la humanidad de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

Si bien es cierto que estas declaraciones pueden parecer demasiado tremendistas, en la actualidad ya conocemos que la IA presenta inseguridad y amenazas significativas en los ámbitos de la privacidad y la protección de datos personales que exigen medidas de carácter urgente.

¿Cuáles son los principales riesgos de la Inteligencia Artificial?

Cada vez más personas, negocios, empresas y Comunidades de Propietarios utilizan herramientas de Inteligencia Artificial para distintos ámbitos en su día a día. No es de extrañar, ya que nos hace la vida más fácil al ahorrarnos tiempo y esfuerzo en la ejecución de determinadas tareas y conlleva grandes beneficios en materia de innovación, productividad e, incluso, rentabilidad. Pero es necesario conocer los nuevos riesgos que acarrea su empleo, para poder gestionarlos de manera eficaz y eficiente al aplicar la IA en las tareas cotidianas.

En primer lugar, los sistemas de IA son vulnerables a los ciberataques. Dada la gran cantidad de datos confidenciales que manejan, son objetivos muy atractivos para los ciberdelincuentes. Las violaciones de seguridad pueden dar lugar a la exposición o al acceso no autorizado a información personal, profesional o empresarial. Del mismo modo, los hackers (podemos ya denominarlos organizaciones empresariales muy lucrativas) aprovechan el poder de la IA para desarrollar ciberataques más avanzados, eludir las medidas de seguridad y explotar las vulnerabilidades de los sistemas.

Por otro lado, la IA se utiliza en un gran número de aplicaciones que usamos en nuestro día a día, como por ejemplo en las redes sociales, el uso de navegadores o los servicios de streaming. La falta de transparencia en sus algoritmos plantea un desafío significativo. Algunos usuarios confían en que sus datos se utilizarán de manera ética y dentro de los límites establecidos, otros sencillamente no perciben el peligro porque éste no viene asociado a una agresión física. Sin embargo, la falta de control sobre la posterior utilización de todo el reguero de información que vamos dejando en nuestra actividad diaria, puede conducirnos a la pérdida de privacidad y la exposición a ignotos riesgos, principalmente económicos y de reputación.

Desinformación y manipulación.

La información falsa generada por Inteligencia Artificial representa un riesgo adicional muy preocupante. Los deepfakes son un claro ejemplo de cómo la IA puede utilizarse para crear contenido manipulado y engañoso. Se trata de la superposición de la imagen y voz de una persona sobre otra, creando videos falsos que resultan sorprendentemente auténticos. Estos contenidos suelen presentar a personas reales diciendo cosas que nunca dijeron o participando en situaciones que nunca ocurrieron.

Además, pueden difundirse rápidamente a través de RRSS y aplicaciones de mensajería, lo que hace que la desinformación sea más accesible que nunca. En resumidas cuentas, la Inteligencia Artificial tiene la capacidad de suprimir los principios de verdad y transparencia como ninguna tecnología lo había hecho antes.

¿Se pueden prevenir los riesgos de la IA?

Sin duda, cada uno de nosotros debe tomar sus propias precauciones y exigir a las empresas e instituciones una vigilancia extrema. Ante su imparable avance, urge empezar a regular las tecnologías de IA y actualizar las herramientas de prevención y protección disponibles. La Unión Europea (UE) ultima la primera ley del mundo que regulará la Inteligencia Artificial, con el objetivo de controlar y garantizar mejores condiciones de desarrollo y uso de esta tecnología innovadora. Sin embargo, es bien sabido que los gobiernos son los más interesados en las herramientas de control.

La prioridad del Parlamento es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos. Además, deberán ser supervisados por personas, en lugar de por la automatización, para evitar posibles sesgos.

Por su parte, las compañías aseguradoras serán una pieza clave para afrontar los riesgos de la Inteligencia Artificial. Para ello, deberán asumir un doble rol en el contexto de la IA:

  • Garantizar que el despliegue interno que están haciendo de esta nueva tecnología es completamente seguro.
  • Acompañar y ayudar a los clientes en su propio despliegue de la IA para protegerlos, previendo y evitando cualquier comportamiento indeseado y garantizando una solución y cobertura en caso de posibles daños.

¿Son asegurables los riesgos de la Inteligencia Artificial?

Un reciente estudio de Mapfre alerta de que la oferta de seguros que cubre los riesgos asociados al uso de la Inteligencia Artificial es prácticamente «inexistente». Sin embargo, también confirma que los vehículos autónomos son los primeros ejemplos en los que empiezan a aparecer seguros específicos para la IA y que, en muy poco tiempo, se extenderán al aseguramiento de cualquier sistema que esté gestionado por algoritmos de IA.

En los entornos profesionales y empresariales los seguros de ciberriesgo es la solución más eficaz para minimizar el impacto económico ante un siniestro tecnológico. Y es que los modelos generativos de IA, como ChatGPT, ponen en grave peligro la ciberseguridad de negocios, hogares y CCPP. Esto es debido a que los hackers ya están utilizando chatbots para crear automáticamente el software necesario para lanzar y ejecutar un mayor número de nuevos y poderosos ciberataques. Del mismo modo, la IA generativa hace más accesible la piratería informática a los aficionados que antes carecían de las habilidades necesarias para traspasar las barreras de seguridad de redes y dispositivos.

Debemos tener presente que, para protegernos ante las amenazas de la IA, tendremos que apostar por la ciberseguridad ante los riesgos de la ciberdelincuencia. Si tienes alguna pregunta o necesitas más información, no dudes en ponerte en contacto con nosotros. En la Correduría de Seguros José Silva hacemos fácil lo complejo.

© José Silva Correduría de Seguros 2023.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

SHARE