Cómo pueden las empresas utilizar la búsqueda impulsada por la LLM para crear valor
por Ege Gurdeniz, Ilana Golbin Blumenfeld, Jacob T. Wilson

A medida que los grandes modelos lingüísticos (LLM) siguen avanzando a un ritmo vertiginoso, muchos líderes empresariales siguen lidiando con la forma de poner esta tecnología a funcionar. Por un lado, buscan áreas en las que estas herramientas de IA generativa puedan demostrar rápidamente su valor. Por otro lado, quieren sentar las bases para una transformación a mayor escala y a largo plazo.
La IA se está convirtiendo en una parte natural de todo lo que hacemos e intrínseco a todas las facetas de los negocios, se integra a la perfección en varios procesos para mejorar la eficiencia y la innovación. Un área prometedora que puede tener un impacto inmediato y ayudar a sentar las bases: la búsqueda y la recuperación impulsadas por la LLM. Es un enfoque que puede cambiar de manera fundamental la forma en que las empresas interactúan con sus propios datos para obtener información, generar nuevas ideas e informar mejor para la toma de decisiones.
Los navegadores web ya han adoptado esta función y la utilizan para mejorar la búsqueda con resúmenes y descripciones generales generados por la IA. Pronto, la búsqueda a través de los enlaces podría sustituirse por interfaces de conversación que permitirán a los usuarios refinar las consultas y profundizar su comprensión mediante preguntas de seguimiento. Y no se limitan al texto: el audio, el vídeo y las imágenes forman parte de este nuevo paradigma de búsqueda y recuperación. Esta experiencia multimodal es solo una de las razones por las que los usuarios siguen optando por aplicaciones más avanzadas de búsqueda con IA.
Ahora, piense en cómo esas potentes capacidades podrían traducirse en su empresa: herramientas basadas en el chat que permiten a los empleados consultar fácilmente los documentos de políticas, realizar rápidas preguntas y respuestas con los datos de ventas más recientes de la organización o mantener conversaciones significativas con todo tipo de conocimientos institucionales. Y hay oportunidades aún mayores. Estas capacidades de búsqueda y recuperación de IA de generación avanzada pueden ayudar a generar documentos, generar informes, generar códigos, sistemas de recomendación y mucho más.
En este artículo, exploraremos las últimas técnicas que impulsan la búsqueda y la recuperación basadas en la IA de la generación y compartiremos casos de uso innovadores del mundo real que están dando frutos en la actualidad. A continuación, analizaremos los riesgos y los desafíos asociados a estos casos de uso y compartiremos seis tácticas que las empresas pueden utilizar para aprovechar esta capacidad de forma eficaz y responsable.
La búsqueda basada en la LLM se ha vuelto más potente
En los últimos años, los LLM han evolucionado rápidamente, pero también lo han hecho los entornos de software más amplios de los que forman parte. En concreto, muchos LLM se han mejorado con una innovación llamada «generación aumentada de recuperación» (RAG), en la que el contenido se publica a partir de una base de datos conocida, lo que ayuda a que la recuperación sea más fiable y a reducir los costes de ajuste (o reciclaje) del LLM. El uso del RAG y otras innovaciones técnicas recientes son una respuesta directa a los desafíos anteriores, especialmente con alucinaciones u otras respuestas erróneas que los sistemas puedan haber devuelto. El ecosistema RAG está mejorando rápidamente la precisión de la recuperación y la generación de contenido a partir del contenido recuperado. Estas mejoras permiten a las empresas aprovechar sus propios conjuntos de datos únicos, transformando los procesos empresariales y las formas de trabajar al vincular una consulta a un conjunto de documentos conocidos.
Los sistemas RAG también se utilizan con» aprendizaje reforzado con comentarios humanos » (RLHF), que se refiere a combinar los conocimientos recuperados con los comentarios humanos para refinar el comportamiento del modelo y generar respuestas más precisas y relevantes desde el punto de vista del contexto. Esto permite a los usuarios guiar el sistema para que prefiera ciertos contenidos del índice de búsqueda o vectorial en función de los comentarios de los usuarios individuales y priorizar el contenido que consideran más relevante para su caso de uso. Esto se aplica a varios dominios. Por ejemplo, un portal de recursos humanos que utilice RAG con RLHF podría permitir al sistema priorizar y mostrar información sobre políticas de recursos humanos que se ajuste a las necesidades específicas o a las consultas recurrentes del empleado. Con el tiempo, el sistema aprendería y se adaptaría para preferir los documentos y directrices a los que el empleado hace referencia con frecuencia o que encuentre particularmente útiles, creando así un proceso de recuperación de información más personalizado y eficiente.
Estas mejoras abren un nuevo potencial tanto para los humanos como para los agentes respaldados por la LLM, que están diseñados para realizar microtareas y trabajar en conjunto para lograr un objetivo mayor con la participación humana para ayudar a impulsar el proceso. Y ahora, un número creciente de empresas tienen como objetivo abordar los puntos débiles del flujo de trabajo de los datos, desde las propias estructuras de las bases de datos hasta la forma de mejorar las canalizaciones de datos.
Obtener mejor información más rápido es siempre una prioridad empresarial. En los motores de búsqueda públicos, los resúmenes generados por la IA han cambiado el punto de partida de los usuarios: en lugar de hacer clic en los enlaces e intentar orientarse, pueden escanear una respuesta recopilada de los principales resultados de la búsqueda. Probablemente no vaya a ser perfecto, pero ayuda a orientar su investigación. Esta es la experiencia que las empresas buscan integrar en sus propios sistemas. Mostrar respuestas a consultas relevantes, que van desde preguntas internas, como las relacionadas con la política empresarial, hasta sistemas de agencia externos destinados a interactuar con los clientes.
Ya estamos viendo ejemplos reales de esto en todos los sectores. Por ejemplo, una empresa ha mejorado la forma en que responde a los problemas de los clientes y la eficiencia y eficacia de sus operaciones de centro de llamadas. Al utilizar RAG para «integrar» el LLM en sus bases de conocimiento internas, una combinación de agentes de servicio al cliente basados en IA humana y de generación en generación se centra rápidamente en la información relevante para el cliente y proporciona resultados más personalizados relacionados con información real y creíble específica de la empresa. La RLHF refina aún más este proceso.
O mire la TI, donde se utilizan enfoques similares para mejorar el ciclo de vida del desarrollo del software (SDLC). Con el acceso a los requisitos empresariales, la documentación de los productos y los repositorios de códigos, los sistemas de LLM y de agentes automatizan y mejoran la calidad de la selección de los atrasos, la generación de casos de prueba, la generación de código y otrosáreas clave del SDLC. Si bien puede que no parezcan casos de uso directamente relacionados con la idea de búsqueda y recuperación, en esencia cumplen con los mismos requisitos básicos: procesar una consulta para entender su intención principal, mapear con la información existente relevante y recuperar el contenido conocido que pueda servir a la consulta de forma eficaz.
Desafíos y riesgos
Las soluciones de LLM de Agentic y otros sistemas de búsqueda compatibles con Genai no están exentos de posibles fallos; ninguna solución tecnológica lo está. Si bien la RAG y otras innovaciones permiten el acceso a datos mejores y más relevantes, no eliminan el riesgo de alucinaciones, por ejemplo. Los sistemas de IA de generación pueden, y lo hacen, seguir revelando información deficiente. Tomemos, por ejemplo, si un sistema está diseñado para recuperar las políticas relevantes para una consulta. ¿Qué pasa si hay varias versiones del mismo tipo de política en el repositorio? ¿O qué pasa si hay directrices contradictorias en varias políticas diferentes?
Las empresas tienen que poder explicar cómo pueden salir a la luz respuestas erróneas y crear conciencia tanto entre los usuarios como entre los desarrolladores.
Este proyecto debería incluirse en un marco de IA responsable que proporcione un enfoque empresarial para identificar, mitigar y supervisar los diversos riesgos asociados con el uso de la IA es necesario para solucionar estos problemas. Por ejemplo, es necesario desarrollar una comprensión compartida de lo que se cree que es una fuente de datos autorizada; los propios modelos no tienen conocimiento para saberlo, se les debe dar instrucciones o puede difundirse información errónea. El viejo adagio de que la basura entra y sale basura sigue aplicándose en este dominio de la IA de la generación. Así que tomarse el tiempo inicial del proceso para disponer de datos bien seleccionados le beneficiará a largo plazo en términos de precisión y coherencia.
Otro riesgo de los sistemas de IA de generación ha sido la filtración de datos y otros temas de privacidad, y las implementaciones de tipo RAG tampoco las rectifican del todo. Durante el último año y medio, uno de los principales esfuerzos de los usuarios empresariales fue tener una instancia segura de modelos de IA de generación implementada en sus instalaciones, sin que ninguno de sus datos (solicitudes, documentos, etc.) regresara al proveedor o a la comunidad de código abierto. Sin embargo, estos despliegues locales no impiden que se divulguen en toda la organización: una persona de ventas podría tener acceso a datos confidenciales de recursos humanos si se expone al mismo modelo. Por este motivo, seguimos abogando por prácticas de gobierno que exijan firewalls en los que se tengan en cuenta y se protejan los datos confidenciales.
Luego están los riesgos como sesgo y transparencia, que persisten porque estos problemas provienen de varias fuentes: el modelo de IA de la generación subyacente, el uso previsto de la aplicación y las expectativas de los usuarios. Si bien los propios vendedores se han esforzado por mejorar las capacidades de monitorización asincrónica para identificar de forma responsable la posible información perjudicial que se está produciendo, las propias empresas siguen necesitando prácticas que permitan un uso eficaz de la búsqueda y la recuperación. Ser consciente de lo que puede parecer una recuperación sesgada e incorporar instrucciones adicionales para mitigarla en el contexto de un uso específico, especialmente cuando se incorpora información confidencial, incluida la información sobre personas o comunidades, es una capacidad empresarial que debe desarrollarse como parte de un marco de IA responsable más amplio.
Y si bien el uso empresarial interno puede tener desafíos de ciberseguridad limitados en relación con las aplicaciones con consumidores externos, las empresas aún tienen que permanecer vigilantes con respecto a los posibles vectores de ataque, como los datos y el envenenamiento rápido, que pueden hacer descarrilar la eficacia de las soluciones con el tiempo para una amplia gama de usuarios. Aún es necesario monitorizar cada caso de uso y aplicación para entender cómo se usa o se hace mal uso y dónde puede disminuir el rendimiento.
Seis tácticas para aprovechar esta capacidad de forma eficaz y responsable
Si bien los desafíos persisten y pueden seguir evolucionando con el tiempo, no cabe duda de que el cambio a la búsqueda y la recuperación con LLM y la generación de IA continuará. Para hacerlo de forma eficaz, las organizaciones deberían considerar la posibilidad de seguir varios pasos:
1. Defina claramente los casos de uso.
Colabore entre los equipos empresariales que definen los requisitos y los equipos técnicos o proveedores responsables de crear e implementar para alinear una solución con resultados claramente medibles que permitan la evaluación en el futuro
2. Establezca procesos de admisión que tengan en cuenta tanto el riesgo como el valor.
Tenga en cuenta no solo el ROI del caso de uso, sino también la sensibilidad de los datos que se utilizan, los posibles daños a la aplicación en general y los usuarios previstos al priorizar en qué casos de uso invertir. Incorporar un enfoque por niveles de riesgo para evaluar los casos de uso
3. Invierta en prácticas relacionadas con la recopilación, las pruebas y la validación de datos para disponer de una verdad básica efectiva.
Reconozca que el uso eficaz de los LLM, especialmente los que se utilizan en las tareas de búsqueda y recuperación, todavía necesita una base de datos sólida sobre la que trabajar. Por lo tanto, los esfuerzos de transformación de los datos deben continuar, y es clave centrarse tanto en la calidad de los datos que alimentan los modelos como en los flujos de trabajo generales para obtener, etiquetar, almacenar, acceder y procesar los datos
4. Incorpore prácticas de examen estandarizadas.
La evaluación ad hoc solo llegará hasta cierto punto; se alineará con un proceso de desarrollo de modelos estándar respaldado por guías y prácticas de prueba predefinidas para permitir sistemas de calidad, resilientes y bien probados
5. Establecer capacidades de monitorización.
Aprecia que las cosas cambien: los datos cambian, la forma en que los usuarios interactúan con los sistemas cambiará, la tecnología cambiará y lo que puede necesitar de los sistemas cambia con el tiempo. Reconozca que estos sistemas deben supervisarse para garantizar un rendimiento continuo y que hay que determinar las métricas para que haya algo (y alguna forma) de supervisar.
6. Lanzar campañas de formación, sensibilización y comunicación.
Dotar a sus empleados de los conocimientos necesarios para crear, implementar y aprovechar de manera eficaz y responsable las herramientas de IA de generación es tan importante como la infraestructura técnica y los controles de gestión de riesgos que hay que establecer. Identifique las necesidades de aprendizaje y sensibilización relacionadas con la IA de la generación en toda su organización y lance programas educativos y de comunicación personalizados
Es probable que la búsqueda siga siendo una aplicación dominante para los grandes modelos lingüísticos y el GenAI multimodal durante algún tiempo. Pero estos sistemas siguen necesitando datos, herramientas y una gobernanza eficaces para funcionar de forma eficaz y a gran escala. La IA responsable y las prácticas de gobierno asociadas deberían sustentar todo el despliegue de la IA. Con un panorama tecnológico que cambia tan rápido como lo hace, considere los casos de uso en función del impacto y el riesgo, e invierta en las funciones subyacentes que le permitan escalar de manera responsable en multitud de áreas.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.