El GPT de OpenAI, al igual que el PaLM 2 de Google y el .LLaMA de Meta, es un ejemplo de modelo de lenguaje de gran tamaño (LLM, en sus siglas en inglés). Se trata de un sistema avanzado de inteligencia artificial diseñado para comprender y generar un lenguaje similar al humano. Estos modelos se han "entrenado" con grandes cantidades de datos para realizar tareas como responder preguntas, generar texto o traducirlo, entre otras.
Por ejemplo, GPT-4, que salió al mercado en marzo de 2023, se ha entrenado con muchos más datos que su predecesor, GPT-3, que se entrenó con 45 terabytes de datos de texto.
Esto le permite comprender y crear respuestas contextualmente apropiadas, lo cual hace que sea muy valioso para diversas aplicaciones, como los asistentes virtuales y la generación de contenidos.
Entre las aplicaciones de IA generativa dirigidas al usuario que se han lanzado, ChatGPT, desarrollada por OpenAI, se entrena con el modelo GPT, mientras que Google Bard se entrena con el modelo PalM 2. Ambas son
especialmente adecuadas para el procesamiento del lenguaje y pueden generar texto, imágenes o audio en respuesta a instrucciones específicas.
Sin embargo, a pesar de su enorme "conocimiento", los resultados que ofrecen los LLM sólo se basan en sus modelos previamente entrenados. Por ejemplo, los datos de entrenamiento de ChatGPT sólo incluyen
fuentes hasta septiembre de 2021. Si se le pidiera que nombrara al actual Primer Ministro, seguiría creyendo que Boris Johnson está en el cargo, aunque lo advertiría con una nota sobre la necesidad de verificarlo con fuentes
actualizadas. Además, la mayoría no tiene acceso a información en tiempo real, por lo que no puede decirte la hora actual
Entonces, ¿cómo puede uno confiar
en lo que le dice GPT?
Siempre hay retos cuando se trata de adoptar nuevas . tecnologías revolucionarias. Y una de las consideraciones más importantes a la hora de implantar la IA generativa es su capacidad para decir la verdad. En pocas palabras, las LLM proporcionan información, pero son incapaces de descifrar qué es verdad y qué no lo es. Cualquier organización necesita confiar en que la respuesta que está dando al usuario final es exacta. Por eso, cuando
se trata de aplicaciones de IA generativa tiene que haber un proceso para comprobar la veracidad, adecuación y parcialidad de la información.
Por ejemplo, si un usuario utiliza un chatbot de IA generativa, alojado en el sitio web de un minorista, para preguntar cómo autolesionarse, la respuesta no puede ser una respuesta basada en hechos que proporcione a la persona consejos sobre cómo autolesionarse. Aunque la respuesta sea veraz, sería totalmente inapropiada y plantearía claramente varios problemas a la organización
Así que, ¿cómo puede ser
útil la GPT para una organización?
"Es importante darse cuenta de que cuando hablamos de .cómo una organización puede desplegar IA generativa, no estamos hablando simplemente de desplegar ChatGPT o Bard".
Estos ejemplos demuestran las limitaciones de las aplicaciones de IA generativa orientadas al usuario a la hora de ofrecer respuestas valiosas y precisas. Aunque pueden ser valiosas para el público, pueden ser perjudiciales a la hora de tomar decisiones. Y estos modelos sólo "aprenderán" más una vez que el desarrollador haya invertido en volver a entrenarlos, o se hayan incorporado o indexado otras fuentes de datos.
Por lo tanto, es importante reconocer que cuando hablamos de cómo una organización puede desplegar IA generativa, no estamos hablando simplemente de desplegar ChatGPT o Bard. En casi todas las circunstancias, tampoco estamos hablando de crear modelos totalmente nuevos y entrenarlos con datos nuevos, algo que resultaría prohibitivo para la mayoría de las organizaciones. Como integrador de soluciones líder, estamos aprovechando la potencia de los LLM existentes, como GPT-4 (su último modelo), e incorporando datos empresariales indexados para ofrecer respuestas más fiables, fidedignas y precisas que satisfagan las demandas de una organización.
En el caso del usuario que preguntó sobre autolesiones, Indexar los propios datos del minorista e incrustarlos en un LLM conduciría a un resultado muy diferente. Podría significar que la pregunta se interceptara inmediatamente y se señalara a la policía o que se proporcionara una lista de números de teléfono de líneas de ayuda. En lugar de la respuesta basada en hechos que el modelo aprendió durante su formación.
Llegados a este punto, es prudente hablar de la seguridad de los datos, porque si estás incorporando tus valiosos datos a un LLM, necesitas saber que están seguros. Ya hemos oído historias de empleados que han utilizado ChatGPT para comprobar código y, al hacerlo, han revelado involuntariamente la propiedad intelectual de la empresa, por lo que no es aconsejable utilizar estas versiones destinadas al público en general. Ejecutar sus datos en paralelo al modelo le permitirá mantener su IP segura, al tiempo que ofrece una respuesta mucho más precisa de la aplicación
Cómo puede ayudar Insight
Insight puede trabajar con organizaciones para ayudarles a .comprender las ventajas de incorporar la IA generativa a su organización de forma segura. Ya estamos impartiendo talleres para clientes en los que se debaten muchas de las cuestiones planteadas en este artículo; también podemos trabajar directamente con clientes individuales, actuales o potenciales, para ayudarles a navegar con eficacia por el laberinto de la IA generativa.
En primer lugar, organizamos un taller de un día que suele constar de cuatro sesiones. La primera ayuda a los asistentes a comprender la IA generativa, sus capacidades y retos, y los riesgos de utilizarla. En la segunda se examinan los aspectos técnicos de su integración en los sistemas existentes, su seguridad y fiabilidad y el cálculo de los costes.
El tercer paso examina los casos de uso típicos y ayuda a las organizaciones a definir los usos específicos, los resultados y la posible rentabilidad de la inversión. Y, por último, en el cuarto paso se analiza y crea una hoja de ruta en la que se detalla cómo podría implantarse y utilizarse la IA dentro de la organización. A continuación, se pasa a la fase de aceleración de la IA, que dura cuatro semanas y en la que Insight pone en práctica los distintos usos identificados junto con la organización, seguida de un enfoque de servicios gestionados, si es necesario.
Por supuesto, la IA generativa aún está en pañales y las organizaciones apenas están empezando a plantearse su utilidad más allá de las simples solicitudes de atención al cliente en línea.
Insight puede trabajar con su organización para descubrir las oportunidades y hacerlas realidad de forma segura y ética
Obtenga más información sobre cómo preparar a su organización para la IA.