IA en el sector asegurador
No todo cabe en un algoritmo
Tal y como vimos en la anterior edición de esta revista, la aplicación de la inteligencia artificial en la valoración de daños en vehículos siniestrados representa un impulso en la evolución tecnológica del sector de los seguros. En este artículo profundizaremos en las ventajas y en los riesgos que su aplicación puede suponer. Es necesario garantizar un uso ético, inclusivo y sostenible de las nuevas tecnologías.
El uso de la inteligencia artificial en la valoración de daños en vehículos siniestrados supone un importante avance al combinar rapidez, eficiencia, ahorro y objetividad en un solo proceso. Gracias a su capacidad para analizar imágenes y datos de forma automática, la IA puede acelerar el peritaje, optimizar los recursos y reducir costes operativos, todo mientras asegura valoraciones justas. Sin embargo, su implementación también plantea retos y desventajas que no pueden pasarse por alto.
La IA puede ser una buena aliada
↘ La rapidez es su mayor virtud, procesando grandes volúmenes de datos y realizando análisis complejos en un tiempo reducido. Esto permite una respuesta rápida a las solicitudes de los clientes y una atención priorizada a los casos más críticos, lo que contribuye a mejorar la experiencia del cliente reduciendo tiempos de espera y proporcionando un servicio más ágil.
↘ La eficiencia es otra de sus evidentes ventajas, que radica en su capacidad para automatizar tareas rutinarias y reducir errores humanos, lo que permite optimizar recursos. Al minimizar los procesos manuales, la IA puede mejorar la productividad y la precisión de los resultados, permitiendo una asignación más eficiente de recursos.
↘ El ahorro en los costes operativos de la compañía al automatizar procesos de peritaje y tasación, lo que reduce la necesidad de involucrar a varias personas. Este ahorro derivado del uso de la IA en seguros puede contribuir a una reducción del ratio combinado para las compañías de seguros, que tantos quebraderos de cabeza genera en el ramo de autos últimamente.
↘ La objetividad de las valoraciones evidencia la capacidad de la IA para ofrecer evaluaciones imparciales y basadas en datos, sin verse influenciada por prejuicios personales o sesgos humanos. Esto garantiza una mayor consistencia en las peritaciones y decisiones tomadas, lo que conduce a una mayor equidad y transparencia en el proceso de propuestas de indemnización y la determinación de coberturas.
↘ Otra de las presumibles ventajas es la reducción del fraude, detectando patrones y anomalías que pueden indicar actividades fraudulentas. Mediante el análisis y la identificación de comportamientos sospechosos, la IA puede alertar al asegurador sobre posibles casos de fraude, como reclamaciones falsas o exageradas. Esto permite a las aseguradoras proteger los intereses de los asegurados legítimos, además de traducirse en primas más competitivas.
La correcta identificación del vehículo y su despiece es un aspecto crítico en la valoración de daños de
automóviles y representa un posible inconveniente al utilizar inteligencia artificial, pudiendo encontrar dificultades para identificar componentes específicos del vehículo o para reconocer daños ocultos que no son apreciables en una inspección visual. Esto podría resultar en una valoración inexacta de los daños y, por lo tanto, en la asignación incorrecta del importe de reparación o en la determinación de la viabilidad de la reparación versus la declaración de pérdida total. El aumento del fraude también representa un posible riesgo. A medida que estas tecnologías sean adoptadas en la industria de seguros, los estafadores intentarán aprovecharse de las brechas o limitaciones en los sistemas de IA para cometer actividades fraudulentas de manera más sofisticada y difícil de detectar. Además, podría pasar por alto ciertos matices o indicios de fraude que solo la intuición humana percibe. Es importante mantener un equilibrio entre la eficiencia operativa que ofrece la IA y la supervisión humana necesaria para garantizar una detección efectiva del fraude.
Por otro lado, los algoritmos pueden ser entrenados con conjuntos de datos que contienen sesgos inherentes, como el sesgo racial, de género o socioeconómico. Si estos sesgos no se abordan adecuadamente durante el proceso de entrenamiento de la IA, existe el riesgo de que los algoritmos reproduzcan y amplifiquen estos sesgos en sus decisiones, lo que podría resultar en una discriminación injusta hacia ciertos grupos de personas.
La falta de interpretación humana es un riesgo potencial en situaciones en las que se requieren comprensión emocional, juicio subjetivo o evaluación contextual que van más allá de los datos objetivos. A diferencia de los humanos, que pueden comprender el contexto, la intención y las sutilezas de una situación, los sistemas de IA operan principalmente en base a patrones y correlaciones en los datos. Esto significa que pueden tener dificultades para interpretar matices complejos o situaciones ambiguas que requieren un juicio subjetivo o una comprensión intuitiva. Por ejemplo, en la valoración de daños de vehículos, la IA puede ser eficaz para identificar y cuantificar los daños físicos visibles en base a imágenes, pero puede no ser capaz de considerar factores contextuales como las circunstancias específicas del accidente.
La IA supone un importante avance al combinar rapidez, eficiencia, ahorro y objetividad en un solo proceso.
En este sentido, mientras que un perito puede evaluar no solo los daños del vehículo, sino también el importe de reparación propuesto por el taller, discutir y negociar los términos del servicio, y considerar factores adicionales como la calidad del trabajo y el tiempo de reparación, un sistema de IA puede carecer de esta capacidad de negociación y adaptación. La experiencia y habilidades de negociación de un perito son esenciales para llegar a acuerdos equitativos que satisfagan tanto a la aseguradora como al taller, así como para resolver disputas o discrepancias que puedan surgir durante el proceso de reparación.
Más allá de la máquina. El factor humano
Una de las preocupaciones éticas más prominentes en el campo de la inteligencia artificial es la cuestión de la empatía y la comprensión emocional. En la novela de Philip K. Dick, ¿Sueñan los androides con
ovejas eléctricas?, que posteriormente adaptaría a la gran pantalla Ridley Scott con la película Blade Runner, se presenta el test Voight-Kampff, una prueba diseñada para determinar si un individuo es humano o androide. Aunque en nuestra realidad no estamos lidiando con androides, la cuestión fundamental de cómo la IA percibe y responde a las emociones humanas sigue siendo relevante.
La creatividad, la intuición y la complejidad inherentes a la mente humana son difíciles de cuantificar y codificar en algoritmos.
Imaginemos un escenario en el que un asegurado sufre un accidente de tráfico. ¿Puede la IA, con su capacidad para analizar datos y reconocer patrones, comprender verdaderamente la angustia del individuo? ¿Puede ofrecer el mismo nivel de empatía y apoyo que un ser humano? Estas son preguntas que nos obligan a reflexionar sobre la intersección entre la tecnología y la humanidad.
Además de la cuestión de la empatía, también es fundamental abordar la transparencia y la responsabilidad en el desarrollo y uso de esta tecnología. Los algoritmos de IA pueden ser opacos, lo que dificulta la comprensión de cómo se toman las decisiones y qué datos se utilizan para hacerlas. Esto plantea preocupaciones sobre la equidad y la imparcialidad.
La privacidad y la seguridad de los datos también son riesgos relevantes en el uso de la inteligencia artificial, especialmente cuando se integran datos personales y confidenciales en el corpus utilizado para entrenar los modelos de IA. Esto puede llevar a preocupaciones sobre el uso indebido de la información personal o la posibilidad de que los datos se vean comprometidos o robados por terceros.
Por último, uno de los dilemas más preocupantes en la sociedad actual es que, a medida que esta tecnología se vuelve más avanzada y sofisticada, existe la posibilidad de que ciertas tareas y funciones realizadas tradicionalmente por personas sean automatizadas por completo. Esta incertidumbre laboral puede generar preocupaciones sociales y económicas, además de la necesidad de reconversión profesional para los trabajadores afectados.
Un perito no sólo evalúa los daños del vehículo y propone el importe de reparación, también negocia los términos del servicio.
Un nuevo horizonte
«El verdadero peligro no es que las computadoras comiencen a pensar como los humanos, sino que los humanos comiencen a pensar como las computadoras». Esta cita de Sydney Harris advierte sobre el riesgo de que los humanos reduzcan su pensamiento a procesos lógicos y racionales simplificados, en lugar de valorar la creatividad, la intuición y la complejidad inherentes a la mente humana. Sugiere no perder nuestra humanidad, nuestra capacidad de comprensión emocional, el juicio crítico y la imaginación.
Aspectos como la intuición basada en la experiencia, la capacidad humana de comprender el contexto, la
adaptación a situaciones complejas y la toma de decisiones éticas en base a valores y principios son difíciles de cuantificar y codificar en algoritmos.
Por todo ello, es fundamental encontrar un equilibrio entre la IA y la intervención humana necesaria para
abordar aspectos subjetivos, contextuales y éticos de cada situación. Integrar con éxito la IA en la industria de seguros requiere una colaboración armoniosa entre personas y máquinas. En un mundo donde la tecnología y la humanidad convergen, la inteligencia artificial se erige como una potente herramienta que las personas podrán aprovechar para hacer sus trabajos más eficientes.
Al fin y al cabo, no todo cabe en un algoritmo.