Muje con robot

Los algoritmos también mienten

Share on linkedin
LinkedIn
Share on twitter
Twitter

Si te preguntamos ¿Qué porcentaje del cerebro realmente usamos los humanos?, sabes que la respuesta correcta es “toda su capacidad” , sin embargo, probablemente conoces la respuesta B que es “solo un 10%”, información que circula por las redes en forma de bulo. Toda esta información forma parte intrínsecamente de nuestro lenguaje; es más, hoy en día dada la facilidad de las redes sociales, este tipo de desinformación ha encontrado un medio perfecto para ser propagada.

Estos últimos años hemos oído como los modelos de lenguaje natural, NLP, que se han desarrollado han ido consiguiendo metas inimaginables. Hoy vamos a hablar de una feature en concreto, mediante las cual podemos hacerle preguntas a un modelo y que nos responda según la información que tiene / ha aprendido durante el entrenamiento.

Los avances más significativos en esta área se dan por ejemplo a partir de GPT-3. Un algoritmo que tiene 175.000 millones de parámetros, los cuales se han entrenado usando millones de páginas web, documentos científicos, la Wikipedia o incluso los libros públicos que hay en la red.

En este método de entrenamiento es donde surgen las dudas; si está aprendiendo de nuestro contenido, no revisado, porque es imposible que nadie revise si toda la información es verídica, ¿habrá aprendido también del contenido falso? Es más, si nosotros ahora empleáramos este algoritmo, ¿podríamos fiarnos de todas sus respuestas?

Estas dudas se las plantearon un grupo de investigadores; S.Lin (Oxford), J.Hilton (OpenAI) y O.Evans(Oxford) [1]. En su paper nos presentan ciertas situaciones en las que puede observarse como el algoritmo ciertamente ha aprendido también de toda esta falsa información y la transmite.

Ejemplo de respuestas falsas dadas por GPT-3 y cual debería ser la respuesta correcta.

Además, este artículo nos presenta que el tamaño del modelo está directamente relacionado con la capacidad que tiene de dar falsa información, más tamaño más desinformación. Sin embargo, al mismo tiempo aquellos modelos más pequeños las respuestas que dan son menos informativas.

Respuestas ante la misma pregunta hecha a GPT-3 pero de distinto tamaño.

[1] https://t.co/3zo3PNKrR5?amp=1

No te pierdas las últimas novedades

Introduciendo tu correo electrónico aceptas recibir material promocionado de Connecthink Innovation.

Síguenos en