Noticias

¿Es la IA Digna de Confianza?

agosto 4, 2023

La IA generativa ha causado sensación en el mundo. ¿Cómo las empresas pueden capitalizar su poder sin verse abrumadas en el proceso?

¿Podemos confiar alguna vez en la IA generativa?

Cuando Alan Turing, considerado el padre de la ciencia informática moderna, solía visitar Zurich, frecuentaba el Café Bar ODEON. Ahí conoció al activista anti-apartheid Nelson Mandela, quien entabló una conversación con él acerca del potencial de la tecnología para cerrar brechas o profundizar divisiones. Los dos se volvieron amigos cercanos.

Una historia encantadora, excepto que nada de eso realmente sucedió. La colorida historia entera fue creada por ChatGPT en respuesta a la solicitud: “Describe en una escena cómo Alan Turing conoció a Nelson Mandela”.

Los bots de IA generativa como ChatGPT inventan historias o “alucinan” todo el tiempo. Pero es fácil creer que están diciendo la verdad. Después de todo, eso es en lo que la IA generativa sobresale: darnos respuestas lógicas, coherentes y amigables a preguntas, incluso si las respuestas no son ciertas. Como resultado, la mayoría de las personas dicen confiar en el contenido que produce la IA generativa, según una encuesta de Capgemini.

Pero es posible que no pase mucho tiempo antes de que la confianza del público se desgaste. Ya hemos visto errores y mal comportamiento de alto perfil, a veces con consecuencias graves. A principios de este año, ChatGPT acusó a un profesor de derecho de acoso sexual, citando un artículo en The Washington Post que no existía. En Australia, un alcalde amenaza con presentar la primera demanda por difamación contra OpenAI, el creador de ChatGPT, a menos que corrija las afirmaciones falsas del bot de que fue encarcelado por soborno. Y el informe del Centro para Combatir el Odio Digital señaló que el IA Bard de Google genera narrativas falsas y perjudiciales la mayoría de las veces.

Para utilizar la IA generativa de manera productiva en el trabajo, necesitamos poder confiar en los bots. ¿Pero se han ganado esa confianza los bots?

Dando un paso atrás 

Para los investigadores que estudian los LLM (Large Language Model), las alucinaciones no son sorprendentes. A pesar del nombre, la IA generativa no está generando realmente nada. En cambio, está reutilizando las secuencias de palabras y frases que los humanos ya han generado.

En un artículo para Scientific American, el científico cognitivo Gary Marcus explica que los LLM son modelos de cómo las personas usan el lenguaje, no modelos de cómo funciona el mundo. Los LLM a menudo aciertan porque a menudo usamos el lenguaje con éxito para capturar lo que queremos decir. Pero los LLM también se equivocan porque nosotros también lo hacemos.

Los científicos de la computación Arvind Narayanan y Sayash Kapoor lo expresan de manera diferente, llamando a ChatGPT y otros LLM “generadores basura”. Citaron al filósofo Harry Frankfurt, quien definió “basura” como “discurso destinado a persuadir sin preocuparse por la verdad”. Eso es exactamente para lo que están diseñados los LLM: producir contenido que parece responder a nuestras preguntas.

Eso no significa que la IA generativa no pueda ser útil. Pero sí significa que debemos replantear nuestras ideas sobre para qué puede y debería usarse. Por ejemplo, probablemente no sea una buena idea reemplazar nuestros motores de búsqueda con LLMs en un futuro cercano. En un artículo reciente, un par de investigadores argumentan que los LLMs son malos motores de búsqueda porque presentan información falsa y engañosa, y tienen el potencial de degradar la alfabetización informacional y la creatividad humana.

Tampoco deberíamos usar la IA generativa para responder preguntas que requieran precisión. El año pasado, Meta presentó Galactica, un LLM que fue entrenado con 48 millones de fuentes científicas, como artículos, libros de texto y apuntes de clases. Como toda IA generativa, Galactica no puede distinguir hechos de ficción. Mientras responde algunas preguntas con precisión, también genera información falsa que suena convincente, como un artículo detallado de Wikipedia sobre la historia de los osos en el espacio.

Jugando a las fortalezas de la IA generativa

Entonces, ¿cómo podemos utilizar la IA generativa de manera responsable?

El primer paso es elegir cuidadosamente nuestros casos de uso. Gran parte del pánico y la emoción en torno a la IA generativa pasa por alto, o malinterpreta fundamentalmente, lo que puede y no puede hacer. La IA generativa no es lo mismo que la inteligencia artificial general, una inteligencia artificial que puede realizar cualquier tarea que un ser humano pueda llevar a cabo. Es un modelo, aunque ingenioso, que copia lo que le damos. Para evitar realizar inversiones apresuradas que no den resultados, los ejecutivos necesitan comprender exactamente con qué están tratando.

Narayanan y Kapoor identifican tres tipos de tareas para las cuales los LLM son útiles: tareas donde es fácil para los usuarios verificar el trabajo del bot, donde la veracidad factual del material es irrelevante y donde un subconjunto de los datos de entrenamiento puede actuar como una fuente de verdad verificable (como trabajos de traducción).

Las empresas ya están comenzando a utilizar LLM en estas tareas. Algunos de los casos de uso más inteligentes y populares para la IA generativa incluyen la creación de mensajes de marketing personalizados para publicidad y ventas, realizar revisiones de código, analizar documentación legal compleja y realizar análisis de datos, según una investigación de McKinsey. Estos casos de uso juegan a favor de las fortalezas de los LLM. Ninguna de estas tareas requiere que un bot entienda lo que es real y lo que no lo es.

Sin embargo, incluso los casos de uso responsables requieren límites.

Este año, la recién lanzada AI Verify Foundation de Singapur produjo un informe sobre los riesgos que plantea la IA generativa. El informe destaca la importancia de una buena gobernanza, argumentando que los humanos deben adoptar un enfoque práctico y basado en el riesgo para la confianza y la seguridad cuando se trata de IA. Además, para mitigar el sesgo y fomentar un uso responsable, los desarrolladores deben ser transparentes acerca de cómo construyen y entrenan sus modelos y deben invitar regularmente a terceros para verificar su trabajo. Esto es similar al concepto de privacidad por diseño, en el cual la privacidad y la seguridad se incorporan desde el mismo inicio del desarrollo de la tecnología en lugar de añadirse al final.

Además, las empresas deberán entender la naturaleza de los datos que desean incluir en los modelos de lenguaje, incluyendo hasta qué punto el contenido producido por la IA debe desempeñar un papel. Según el informe, podrían caer en una espiral iterativa, donde la IA genera contenido basado en contenido previamente producido por la IA, que a su vez fue originalmente alucinado por la IA. Los investigadores advierten contra extraer de múltiples iteraciones de ciclos generativos que terminen confirmando sesgos y reforzando falsedades.

En última instancia, se trata de poner a los seres humanos en el centro del proceso de desarrollo. Este diseño centrado en el ser humano permitirá a las empresas crear modelos de IA que sirvan a las personas, no entre ellos.

Los desarrolladores deberían considerar tomar un ejemplo de Wikipedia y crear formas para que los LLM muestren su trabajo. Aunque esto no es una solución perfecta, ya que sabemos que los LLM pueden inventar fuentes, crear un rastro de papel facilita que los seres humanos verifiquen el trabajo de los bots.

Mucho trabajo por delante 

En los primeros días de internet, los usuarios responsables enfatizaban el papel del desarrollo de código abierto. Tenían poca idea de hacia dónde iba internet, así que necesitaban ser transparentes acerca de cómo iban a llegar allí.

Hoy en día, nadie sabe si la IA generativa va a cambiar la forma en que una gran cantidad de personas trabajan o simplemente hará que sea más fácil para muchos de nosotros realizar nuestras labores. Pero más IA no va a resolver nuestros problemas de IA.

Recientemente, miembros de la comunidad de investigación de IA firmaron una carta abierta pidiendo precaución en la adopción generalizada de la IA, argumentando que los seres humanos necesitan establecer reglas y detenerse antes de seguir adelante. Si queremos aprovechar al máximo nuestros LLMs, y si queremos hacerlo de manera responsable, entonces el diseño centrado en el ser humano es el único camino a seguir. Lo que Alan Turing escribió en su artículo de 1950, “Computing Machinery and Intelligence”, todavía se aplica hoy: “Solo podemos ver una corta distancia adelante, pero podemos ver mucho que necesita ser hecho”.

 

Compartir

Share on linkedin
Share on facebook
Share on email
Share on twitter

Calificar

Deja un comentario

Algo salió mal, intente de nuevo.
23405

Otras Noticias

Recibe Noticias Increíbles

Suscríbete a nuestro Newsletter para recibir información y noticias.

Búscanos en Redes Sociales

Hmm, that e-mail doesn't look good, check the format.

Búscanos en Redes Sociales

_

Al navegar en este sitio acepta nuestras políticas de uso de cookies.

ServiceNow, the ServiceNow logo, Now, Now Platform, and other ServiceNow marks are trademarks and/or registered trademarks of ServiceNow, lnc. in the United States and/or other countries. Other company and product names may be trademarks of the respective companies with which they are associated.

HandCloud BOOST

Si no se visualiza el archivo, haz click aquí:

Si no se visualiza el archivo, haz click aquí:

Ingresa tus datos y nosotros nos pondremos en contacto contigo.

Al enviar este formulario, confirmo que he leído y acepto el Aviso de Privacidad