‘Chat GPT: El #corredortech clarifica la charla de la incertidumbre’ fue el tema elegido por Fecor para retomar sus encuentros del Cuaderno Temático. En esta VII edición apostaron por la disrupción e hicieron una presentación en la que el Chat GPT fue el protagonista. Demostrando in situ cómo actúa y cómo puede ayudar a los corredores de seguros añadiendo más eficiencia en su asesoramiento al cliente.
ARTÍCULO PUBLICADO EN LA REVISTA PYMESEGUROS Nº 127
Tras la presentación de la jornada por parte de Cristina Gutiérrez, directora gerente de Fecor, tomó la palabra Jesús Jimeno, abogado de Fecor, para hacer la presentación del séptimo Cuaderno Temático, elaborado por él y el propio Chat GPT.
En el evento quedó claro que, en el ámbito de los corredores de seguros, el Chat GPT ha surgido como “una solución innovadora que ofrece una amplia gama de beneficios”. Sin embargo, hay que tener en cuenta que la IA proporciona “respuestas asépticas y basadas en información lógica, careciendo de sentimientos y emociones. La IA puede aprender de múltiples experiencias de corredores de seguros, pero el mundo del seguro no es una ciencia exacta. Cada caso es único, y los corredores tienen capacidad de adaptarse y utilizar experiencias anteriores como base para resolver casos nuevos. La IA puede seguir este proceso, pero carece de la flexibilidad para adaptar la experiencia adquirida a situaciones futuras”.
En definitiva, la IA “es una herramienta extraordinaria que permite a los corredores de seguros disponer de más tiempo para fortalecer lo que los hace indispensables en la distribución de productos de las aseguradoras”.
En el contexto de la industria de seguros, el Chat GPT puede ser utilizado para mejorar la experiencia del cliente al proporcionar una forma fácil y rápida de obtener información y asistencia. Por ejemplo, los usuarios pueden utilizar el chatbot para obtener cotizaciones de seguros, obtener información sobre políticas y coberturas disponibles, y recibir asistencia en la gestión de reclamaciones. El Chat GPT también puede ayudar en la selección de la mejor opción de seguro para el cliente, proporcionando información personalizada y recomendaciones basadas en sus necesidades y preferencias.
Según el estudio, “el uso de Chat GPT por parte de los corredores de seguros proporciona muchos beneficios. En general, permite ahorrar tiempo y aumentar la eficiencia de los procesos internos de la empresa, así como mejorar la comunicación y relación con proveedores y clientes. Analiza la información proporcionada por el cliente y asigna las tareas a los diferentes miembros de la correduría de seguros. Además, les puede ayudar en la gestión interna de la empresa porque la IA puede procesar grandes cantidades de datos y automatizar tareas rutinarias, como la clasificación y etiquetado de documentos, la organización de agendas y la gestión de tareas pendientes. Asimismo, puede ayudarles en la toma de decisiones al proporcionar información precisa y actualizada sobre las tendencias del mercado y la evolución de los precios. Puede recopilar información de diferentes proveedores y comparar las opciones disponibles. Chat GPT proporciona una visión general de los precios y características de los diferentes productos, lo que ayuda a los corredores a tomar decisiones informadas. La IA sugiere la opción más adecuada en función de las necesidades del cliente y proporciona información detallada sobre las coberturas, los precios y las condiciones de las pólizas”.
En la tramitación de siniestros, Chat GPT puede asistir en la gestión del proceso, desde la recepción de la notificación hasta la propuesta de acuerdos. La IA puede analizar la información proporcionada por el cliente y generar un informe detallado sobre el siniestro. Además, proporciona información sobre las opciones de cobertura disponibles y guía al cliente en el proceso de presentación de la reclamación.
La IA puede ser utilizada para la identificación de patrones y tendencias en los datos de los clientes, lo que puede ayudar a los corredores de seguros a tomar decisiones más informadas y estratégicas en cuanto a la oferta de productos y servicios a sus clientes.
Higinio Iglesias, vicepresidente I de Fecor y consejero delegado de E2K Global, lo tiene claro: “La inteligencia artificial potenciará la capacidad de asesoramiento de los corredores de seguros al brindarles acceso instantáneo a una mayor cantidad de información. La posibilidad de analizar grandes volúmenes de datos de manera rápida y precisa permitirá al corredor una interpretación y recomendación profesional basada en datos sólidos, ofreciendo un servicio de asesoramiento altamente efectivo y personalizado a sus clientes”.
Sin embargo, hay que tener en cuenta de que “el uso de tecnologías como Chat GPT en el ámbito de los seguros está sujeto a diversas normas relacionadas con la protección de datos personales y la privacidad”.
Por eso, entre otras cosas, es necesario considerar la exactitud y veracidad de la información proporcionada por el Chat GPT. Existe el riesgo de que el sistema ofrezca datos inexactos o desactualizados, “lo cual podría tener implicaciones legales si los clientes toman decisiones basadas en esa información errónea”. Para mitigar este riesgo, resulta fundamental asegurar que el Chat GPT esté programado correctamente y cuente con acceso a fuentes de información confiables, como la legislación vigente en materia de seguros, las pólizas y los procedimientos de reclamación.
Por otra parte, si el sistema ofrece recomendaciones o consejos en relación con seguros, surge la pregunta de quién asume la responsabilidad en caso de errores o negligencia. Es importante que “las corredurías establezcan claramente las limitaciones del Chat GPT y comuniquen a los clientes que el asesoramiento final siempre será responsabilidad del corredor de seguros. Además, es crucial contar con una supervisión continua del funcionamiento del sistema, para detectar posibles fallos y corregirlos a tiempo”.
El uso del Chat GPT implica el tratamiento de datos personales de los clientes, lo que conlleva el deber de cumplir con las normativas de protección de datos establecidas en España, como la Ley Orgánica de Protección de Datos y Garantía de los Derechos Digitales (LOPDGDD) y el Reglamento General de Protección de Datos (RGPD). Las corredurías deben garantizar la confidencialidad, integridad y disponibilidad de los datos, implementando medidas técnicas y organizativas adecuadas. Además, es necesario obtener el consentimiento informado de los clientes para el procesamiento de sus datos personales por parte del Chat GPT.
Para evaluar los riesgos asociados al tratamiento de datos personales en el Chat GPT, se deben identificar las amenazas y riesgos potenciales a los que está expuesto el sistema. Esto incluye, entre otros, la posible divulgación no autorizada de los datos personales de los usuarios, la pérdida o destrucción de los datos, la falta de disponibilidad del sistema o el acceso no autorizado a los datos personales. Por eso, mientras se desarrollan los distintos usos de Chat GPT conviene limitar el uso de esta herramienta y no introducir en la misma datos personales de terceros.
El uso del Chat GPT en las corredurías de seguros también plantea riesgos jurídicos en el ámbito penal. Aunque el sistema está diseñado para brindar asesoramiento y apoyo a los clientes, existen situaciones en las que el uso inadecuado o malintencionado del Chat GPT podría dar lugar a la comisión de delitos. Algunos ejemplos de estos riesgos y medidas de prevención son:
a) Estafas y fraude: Podría ser utilizado por terceros malintencionados para obtener información confidencial de los clientes o para llevar a cabo estafas y fraudes en el ámbito de los seguros. Para prevenir este riesgo, es esencial implementar medidas de seguridad adecuadas, como el uso de autenticación de usuarios, encriptación de datos y controles de acceso. Además, es fundamental proporcionar a los clientes información clara sobre los riesgos asociados y las medidas de protección disponibles.
b) Delitos informáticos: Podría ser utilizado como herramienta para cometer delitos informáticos, como el acceso no autorizado a sistemas, la manipulación de datos o la distribución de malware.
c) Difamación y calumnias: Podría generar respuestas difamatorias o calumniosas sobre personas o empresas, lo que podría dar lugar a demandas legales por daños y perjuicios.
d) Violación de derechos de autor: Existe la posibilidad de que el contenido generado por el Chat GPT esté sujeto a derechos de autor de terceros, especialmente cuando se utilizan datos o información protegida.
El uso del Chat GPT en las corredurías de seguros también plantea riesgos jurídicos en el ámbito laboral porque puede afectar los derechos de los trabajadores de las corredurías. Algunos ejemplos son:
a) Desplazamiento laboral: La introducción del Chat GPT puede llevar a una reducción de la necesidad de mano de obra humana en ciertas tareas. Para prevenir estos riesgos, es necesario llevar a cabo un análisis cuidadoso del impacto del Chat GPT en los puestos de trabajo existentes y buscar soluciones alternativas, como la reasignación de personal a funciones que requieran habilidades complementarias a las del Chat GPT.
b) Derechos de los trabajadores: Es necesario establecer políticas claras que regulen la jornada laboral, los descansos y el tiempo libre, asegurar una remuneración adecuada y justa, y fomentar la participación de los empleados en la toma de decisiones.
c) Formación y capacitación: La implementación del Chat GPT en las corredurías de seguros requiere una adecuada formación y capacitación tanto para los empleados como para los responsables de su uso.
d) Supervisión y control: La implementación del Chat GPT en las corredurías de seguros requiere un adecuado sistema de supervisión y control para garantizar su correcto uso y mitigar posibles riesgos.
La importancia del control humano sobre la máquina
Aunque Chat GPT es capaz de realizar tareas de manera autónoma, es importante que un ser humano supervise y revise las respuestas proporcionadas por la plataforma para asegurarse de que sean precisas y adecuadas para el contexto.
Para ayudar a los corredores de seguros a adquirir las habilidades para manejar correctamente el Chat GPT, existen diversos recursos de capacitación disponibles.
En primer lugar, se ofrecen cursos online y tutoriales que brindan capacitación sobre su uso. Estos recursos permiten a los corredores de seguros comprender mejor cómo utilizar la plataforma y aprovechar al máximo sus capacidades. Además, ayudan a identificar los posibles riesgos y limitaciones asociados con su uso, y a desarrollar estrategias para minimizarlos.
Asimismo, muchos proveedores de servicios de Chatbot ofrecen servicios de consultoría y asesoramiento personalizado para ayudar a los corredores de seguros a implementarlo de manera efectiva y cumplir con las regulaciones de protección de datos.
Jesús Jimeno tras la presentación del estudio, se unió a la mesa redonda moderada por Juan Ramón Galván, responsable de Fomento de la Cultura Aseguradora de Fecor; en la que participaron también Victoria León, socia propietaria de Confisegur de Gestió Rovira i Associats (CCC); e Higinio Iglesias, vicepresidente I de Fecor y consejero delegado de E2K Global.
Iglesias comentó que “posiblemente estamos en un cambio de era. El chat GPT nos dará eficiencia en el asesoramiento al cliente. Además, permite el cribado de información para la venta cruzada”. Sin embargo, cree que “el programa de gestión se está infrautilizando. Es necesario formarnos para adaptarnos a esta herramienta. Hay que tener capacitación para utilizar estos recursos tecnológicos y poder sacar el máximo rendimiento de ellos. Se necesita una formación transversal y ser preciso en las preguntas para mantener una comunicación fluida con la máquina”.
Para su utilización, según León, “hay que implicar a todo el personal. Se necesita de personas que tengan visión y estrategia para ver dónde implementar esta herramienta y para qué”. En el caso de CCC, se utiliza, entre otras cosas, para generar contenidos en redes sociales, en blog y en preguntas frecuentes o como traductor del castellano al inglés. Victoria León está convencida de que “el asesoramiento personal seguirá existiendo porque, entre otras cosas, GPT no puede interpretar las emociones de las personas. Nosotros podemos empatizar con el cliente. La IA es una herramienta más que nos ayuda a dar un servicio personalizado”.
Sin embargo, Higinio Iglesias llama la atención sobre el hecho de que hay máquinas que ya “son capaces de detectar de qué humor está el cliente y localizar palabras claves que indican que un asegurado quiere abandonarnos y, entonces, lo deriva a una persona determinada para que pueda atenderle y retenerle”.
Jimeno llamó la atención sobre el hecho de tener mucho cuidado para no introducir datos que puedan ir en contra de la ley de protección de datos. Además, señaló que “ahora que no hay regulación para saber quién es el culpable si hay un error (la IA o el corredor), tenemos que tener más cuidado con la moralidad y la ética. Es necesario monitorizar la herramienta para evitar que se vuelva hostil con el cliente”.
Asimismo, Iglesias hizo hincapié en que “no puedes compartir con GPT el activo empresarial porque sería como dejarlo en abierto”.
Juan Antonio Marín, clausuró el evento, dando a conocer una reciente iniciativa llamada Proeles, que tiene como objeto que los corredores menores de 42 años asociados, a través de reuniones y sesiones de trabajo, mejoren su eficacia, impulsen la colaboración, fortalezcan su red de contactos y aumenten su visibilidad.
Algunas de las medidas que se pueden implementar para afrontar los riesgos del uso del Chat GPT son:
• Pseudonimización y anonimización de los datos personales. Implica la eliminación o alteración de los datos personales que no sean necesarios para el propósito del tratamiento. Por ejemplo, si se utiliza el Chat GPT para recopilar información de los usuarios para mejorar la calidad del servicio, se podría pseudonimizar o anonimizar los datos personales de los usuarios para proteger su privacidad.
• Implementación de medidas de seguridad adecuadas que garanticen la integridad, confidencialidad y disponibilidad de los datos personales. Algunas medidas pueden incluir el cifrado de los datos, la implementación de políticas de acceso y control de acceso a los datos, la realización de copias de seguridad de los datos, y la implementación de medidas técnicas y organizativas para garantizar la seguridad de los datos personales.
• Realización de evaluaciones de impacto para identificar los posibles riesgos que puedan surgir como resultado del tratamiento de datos personales con el Chat GPT. Estas evaluaciones deben llevarse a cabo antes de comenzar cualquier actividad de tratamiento de datos personales y deben incluir medidas para mitigar cualquier riesgo identificado.
En cuanto a la evaluación de los riesgos, es importante realizar una identificación exhaustiva de las amenazas y riesgos potenciales a los que está expuesta la actividad de tratamiento. En el caso del Chat GPT, algunos de los riesgos potenciales pueden incluir:
• Uso indebido de los datos personales de los usuarios, incluyendo su utilización para fines no autorizados o la venta de los mismos a terceros sin consentimiento.
• Fugas de información o accesos no autorizados a los datos personales almacenados en el Chat GPT.
• Sesgos en los algoritmos de IA utilizados en el Chat GPT, que puedan llevar a una toma de decisiones discriminatoria o injusta.
• Utilización del Chat GPT para fines ilegales o ilícitos, como el acoso o la difamación de terceros.
www.pymeseguros.com