Con toda la emoción en torno a ChatGPT, es fácil perder de vista los riesgos únicos de la inteligencia artificial generativa. Los grandes modelos de lenguaje, una forma de inteligencia artificial generativa, son realmente buenos para ayudar a las personas que tienen dificultades para escribir en inglés. Pueden ayudarles a desbloquear la palabra escrita a bajo costo y sonar como un hablante nativo. Pero debido a que son tan buenos generando la siguiente palabra sintácticamente correcta, los grandes modelos de lenguaje pueden dar la falsa impresión de que poseen comprensión o significado real. Los resultados pueden incluir una narrativa flagrantemente falsa, directamente como resultado de sus predicciones calculadas en comparación con una comprensión verdadera. Entonces, pregúntate a ti mismo: ¿Cuál es el costo de utilizar una IA que puede difundir desinformación? ¿Cuál es el costo para tu marca, tu negocio, individuos o la sociedad? ¿Tu gran modelo de lenguaje podría ser secuestrado por un actor malicioso? Permíteme explicarte cómo puedes reducir tu riesgo. Se divide en cuatro áreas: Alucinaciones, Sesgo, Consentimiento y Seguridad. A medida que presento cada riesgo, también destacaré las estrategias que puedes utilizar para mitigar estos riesgos. ¿Listo? Comencemos con las falsedades, a menudo conocidas como «alucinaciones de IA». Una aclaración rápida: realmente no me gusta la palabra «alucinaciones» porque temo que antropomorfiza la IA. Explicaré esa idea un poco. Seguramente has escuchado informes de noticias sobre grandes modelos de lenguaje que afirman ser humanos, o que tienen emociones o que simplemente dicen cosas que son factualmente incorrectas. ¿Qué está sucediendo en realidad? Bueno, los grandes modelos de lenguaje predicen la siguiente palabra sintácticamente correcta, no respuestas precisas basadas en la comprensión de lo que el humano está preguntando realmente. Lo cual significa que sonará genial, pero podría estar totalmente equivocado en su respuesta. Esta respuesta errónea es un error estadístico. Veamos un ejemplo sencillo. ¿Quién escribió los poemas A, B, C? Digamos que todos fueron escritos por el poeta X, pero hay una fuente que afirma que fue el autor Z. Tenemos fuentes conflictivas en los datos de entrenamiento. ¿Cuál es la que realmente gana la discusión? Incluso peor, puede no haber un desacuerdo en absoluto, sino nuevamente un error estadístico. La respuesta muy bien podría ser incorrecta porque, una vez más, los grandes modelos de lenguaje no entienden el significado; estas inexactitudes pueden ser extremadamente peligrosas. Es aún más peligroso cuando los grandes modelos de lenguaje anotan sus fuentes para respuestas totalmente falsas. ¿Por qué? Porque da la percepción de tener pruebas cuando en realidad no las tiene. Imagina un centro de llamadas que ha reemplazado a su personal con un gran modelo de lenguaje, y ofrece una respuesta factualmente incorrecta a un cliente. Aquí tienes tu respuesta factualmente incorrecta. Ahora, imagina cuánto más enojado estará este cliente cuando no pueda corregir la información a través de un ciclo de retroalimentación. Esto nos lleva a nuestra primera estrategia de mitigación: Explicabilidad. Ahora bien, podrías ofrecer explicaciones en línea y combinar un gran modelo de lenguaje con un sistema que brinde datos reales y procedencia a través de un gráfico de conocimiento. ¿Por qué el modelo dijo lo que acaba de decir? ¿De dónde sacó sus datos? ¿De qué fuentes? El gran modelo de lenguaje podría proporcionar variaciones de la respuesta ofrecida por el gráfico de conocimiento.
Índice
Sesgo:
No te sorprendas si la respuesta para tu consulta original solo lista poetas blancos masculinos de Europa occidental. ¿Quieres una respuesta más representativa? Tu indicación tendría que decir algo como: «Por favor, dame una lista de poetas que incluya mujeres y europeos no occidentales». No esperes que el gran modelo de lenguaje aprenda de tu indicación. Esto nos lleva a la segunda estrategia de mitigación: Cultura y Auditorías. La cultura es lo que las personas hacen cuando nadie está mirando. Comienza abordando todo este tema con humildad, ya que hay mucho que aprender e incluso, diría yo, desaprender. Necesitas equipos verdaderamente diversos y multidisciplinarios que trabajen en IA, porque la IA es un gran espejo de nuestros propios sesgos. Tomemos los resultados de nuestras auditorías de modelos de IA y realicemos correcciones en nuestra propia cultura organizacional cuando haya resultados dispares. Auditoría antes y después de la implementación del modelo.
Consentimiento:
¿Los datos que estás recopilando son representativos? ¿Se obtuvieron con consentimiento? ¿Hay problemas de derechos de autor? ¡Aquí tienes un pequeño símbolo de derechos de autor! Estas son cosas que podemos y debemos pedir. Esto debería incluirse en una hoja de datos fácil de encontrar y comprender. A menudo, nosotros, como sujetos, no tenemos idea de dónde diablos provienen los datos de entrenamiento de estos grandes modelos de lenguaje. ¿De dónde se obtuvieron? ¿Los desarrolladores exploraron los rincones oscuros de Internet? Para mitigar el riesgo relacionado con el consentimiento, necesitamos esfuerzos combinados de auditorías y responsabilidad. ¡Ah! La responsabilidad incluye establecer procesos de gobierno de IA, asegurándonos de cumplir con las leyes y regulaciones existentes y ofreciendo formas para que las personas puedan incorporar su retroalimentación.
Seguridad:
Los grandes modelos de lenguaje podrían ser utilizados para todo tipo de tareas maliciosas, incluyendo la filtración de información privada de las personas, ayudar a los delincuentes a realizar phishing, spam y estafas. Los hackers han logrado que los modelos de IA cambien su programación original, respaldando cosas como el racismo o sugerir a las personas que hagan cosas ilegales. Esto se conoce como liberar de la cárcel. Otro ataque es la inyección de indicaciones indirectas. Esto ocurre cuando un tercero altera un sitio web, agregando datos ocultos para cambiar el comportamiento de la IA. ¿El resultado? La automatización que depende de la IA puede enviar instrucciones maliciosas sin que ni siquiera te des cuenta. Esto nos lleva a nuestra última estrategia de mitigación, y la que realmente engloba todo esto, y eso es la educación. Déjame darte un ejemplo. Entrenar un nuevo gran modelo de lenguaje produce tanta emisión de carbono como más de cien vuelos de ida y vuelta entre Nueva York y Beijing. ¡Sí, loco, ¿verdad?! Esto significa que es importante que conozcamos las fortalezas y debilidades de esta tecnología. Significa educar a nuestra propia gente sobre los principios para la curación responsable de la IA, los riesgos, el costo medioambiental, las normas de seguridad, así como las oportunidades. Permíteme darte otro ejemplo de por qué la educación es importante. Hoy en día, algunas empresas tecnológicas confían en que los datos de entrenamiento de los grandes modelos de lenguaje no hayan sido manipulados de manera maliciosa. Ahora puedo comprar un dominio y llenarlo con datos falsos. Al envenenar el conjunto de datos con suficientes ejemplos, podría influir en el comportamiento y las salidas de un gran modelo de lenguaje para siempre. Esta tecnología no va a desaparecer. Debemos pensar en la relación que queremos tener con la IA. Si vamos a usarla para potenciar la inteligencia humana, debemos hacernos la pregunta: ¿Cuál es la experiencia de una persona que ha sido potenciada? ¿De verdad están empoderadas? Ayúdanos a que la educación sobre datos e IA sea mucho más accesible e inclusiva de lo que es hoy en día. Necesitamos más asientos en la mesa para diferentes tipos de personas con habilidades variadas que trabajen en este tema tan, pero tan importante. Gracias por tu tiempo.
Resumen:
Riesgo | Estrategia de Mitigación |
---|---|
Alucinaciones | Explicabilidad |
Sesgo | Cultura y Auditorías |
Consentimiento | Auditorías y Responsabilidad |
Seguridad | Educación |
Preguntas Frecuentes:
1. ¿Los grandes modelos de lenguaje entienden el significado de lo que el humano les pregunta?
No, los grandes modelos de lenguaje solo son capaces de predecir la siguiente palabra sintácticamente correcta, pero no entienden el significado real detrás de la pregunta.
2. ¿Cómo se puede mitigar el sesgo en los resultados proporcionados por los grandes modelos de lenguaje?
Una estrategia es fomentar una cultura diversa y llevar a cabo auditorías tanto antes como después de la implementación del modelo para corregir cualquier resultado sesgado.
3. ¿Qué se puede hacer para garantizar el consentimiento en la recopilación de datos utilizados para entrenar grandes modelos de lenguaje?
Es importante realizar auditorías y establecer responsabilidad para garantizar que los datos se recopilen de manera ética y con el consentimiento adecuado.
4. ¿Cuál es la principal estrategia de mitigación para garantizar la seguridad al utilizar grandes modelos de lenguaje?
La educación es la clave. Conocer las fortalezas y debilidades de esta tecnología, así como los riesgos asociados, ayudará a garantizar un uso seguro y responsable.
Gracias por tu tiempo y recuerda que puedes consultar más artículos relacionados en nuestra página web. ¡Hasta la próxima!
¿Te ha resultado útil??
0 / 0
Hola, somos Mila Jiménez y César Sánchez. Dos apasionados de la ciberseguridad con muchos años de experiencia. Hemos trabajado en muchas empresas del mundo TI y ahora nos apetece compartir nuestro conocimiento con cualquiera que lo necesite.
¡Si te gusta nuestro contenido puedes invitarnos a un café AQUÍ!