Las empresas, especialmente en la industria de seguros, se enfrentan a desafíos crecientes para procesar grandes volúmenes de datos no estructurados que provienen de diversos formatos, como PDFs, hojas de cálculo, imágenes, videos y archivos de audio. Documentos de reclamación, videos de accidentes, transcripciones de chats o documentos de pólizas contienen información vital durante el ciclo de procesamiento de reclamaciones.
Los métodos tradicionales de preprocesamiento de datos, aunque funcionales, pueden tener limitaciones en precisión y consistencia, afectando la extracción de metadatos y la eficacia del uso de datos para obtener información impulsada por inteligencia artificial, como la detección de fraudes o el análisis de riesgos. Para abordar estos problemas, se ha presentado un sistema de colaboración entre múltiples agentes: un conjunto de agentes especializados en clasificación, conversión, extracción de metadatos y tareas específicas del dominio. Estos agentes automatizan la ingesta y transformación de datos no estructurados y multimodales, mejorando la precisión y permitiendo análisis de extremo a extremo.
Para equipos que manejan un volumen pequeño y homogéneo de documentos, una configuración de un solo agente puede ser suficiente para automatizaciones básicas. Sin embargo, cuando los datos abarcan diversos dominios y formatos, una arquitectura de múltiples agentes ofrece ventajas significativas. Estos agentes especializados permiten una extracción más precisa y una mejor depuración, cada uno ajustado a un tipo de dato específico.
A medida que aumenta la variedad de información, este diseño modular permite una escalabilidad más eficiente, facilitando la incorporación de nuevos agentes o la mejora de prompts y lógica empresarial sin interrumpir el flujo general. El feedback de expertos puede ser incorporado a agentes específicos, apoyando la mejora continua.
Este enfoque puede ser respaldado por Amazon Bedrock, un servicio que facilita la creación y escalabilidad de aplicaciones de inteligencia artificial generativa. Bedrock permite la creación de agentes inteligentes conscientes del dominio, los cuales pueden obtener contexto de bases de conocimiento y coordinar tareas en múltiples pasos. Estos agentes proporcionan la flexibilidad necesaria para procesar datos no estructurados a gran escala y evolucionar con los flujos de trabajo de la empresa.
El sistema funciona como un centro de preprocesamiento de datos no estructurados, con funciones como clasificación de datos entrantes, extracción de metadatos y conversión de documentos a formatos uniformes, incluyendo validación humana para campos inciertos. Los resultados y metadatos enriquecidos alimentan un lago de datos, sentando las bases para la detección de fraudes y análisis avanzado.
El flujo de trabajo presenta un agente supervisor en el centro, con agentes de clasificación y conversión que se ramifican, e incluye un paso de intervención humana y Amazon S3 como destino final del lago de datos. La modularidad permite que cada agente maneje funciones específicas, promoviendo una gestión más robusta. Con estos avances, se espera reducir significativamente el tiempo de validación humana y mejorar la precisión de metadatos, optimizando el procesamiento de datos. La integración continua de experticia asegura que la calidad de los datos mejore con el tiempo.
En conclusión, transformar datos no estructurados en salidas ricas en metadatos permite a las empresas acelerar procesos críticos como la detección de fraudes y optimizar perfiles de clientes. A medida que el sistema de colaboración evoluciona, se espera que reduzca la necesidad de intervención humana y ofrezca una automatización más completa, consolidando su rol en el futuro del procesamiento de reclamaciones en el sector asegurador.