Lenguaje generado por I.A pone en riesgo artículos de divulgación científica

Artificial Intelligence Narrow Illustration

Investigadores de diferentes partes del mundo descubrieron el “hilo negro”, de lo que parece ser la más reciente tendencia entre científicos que usan generadores de texto impulsados por I.A para la creación de contenido. Estos científicos, han desarrollado una forma de generar contenido a través de un sistema de texto probabilístico como el GPT 3, con el fin de que el programa logre escribir dichos artículos para posteriormente ser publicados.

Sin embargo, y a pesar de que estas inteligencias artificiales cuentan con material que los científicos aportan para la creación del contenido, estas han generado lo que investigadores como Guillaume Cabanac y un par de colegas suyos, definen como “Frases torturadas”.

¿Cómo funciona?

Las frases torturadas no son más que un conjunto de errores ocasionados por el sistema GPT 3. Errores que desembocan en enunciados sintéticos, sustituyendo de manera incoherente términos usados por la comunidad científica; lenguaje irreconocible al de cualquier ser humano y citas literarias de textos científicos que jamás existieron. Lo que sugiere una abstracción del material de apoyo por parte de la I.A.

Frases torturadas

La manera en que Cabanac y sus compañeros dieron con esta situación, fue al momento de consultar una revista de renombre en la divulgación de material científico y encontrarse con frases que pretendían ser sinónimos absurdos. Ésta reemplazaba términos como Inteligencia artificial por “conciencia falsa”, Big data por “información enorme”, entre otras, que parecían ser resultado de una mala traducción.

Lo más preocupante de este descubrimiento, es la posibilidad de encontrar contenido científico inexacto, igualmente publicado a través de este método. Ya que en la actualidad, es aún posible recuperar artículos con estos fallos de lenguaje.

¿Por qué surgen estos errores?

Lejos del buen o mal funcionamiento del sistema GPT 3 (y de lo extraño que parezca ver como una I.A, se refiere a sí misma como una conciencia…), uno de los factores sorprendentes es la aparente poca supervisión que hay a la hora de publicar los artículos científicos. Estos investigadores, a través de la plataforma Dimensions, han encontrado más de 30 artículos publicados en la revista Microprocessors and Microsystems y más de 860 artículos con al menos, una de estas frases.

¿porque surgen estos errores?

Aunque este fenómeno comenzó a surgir en febrero del 2018, los datos apuntan a que en los últimos 6 meses ha habido un alarmante crecimiento en la publicación y aparición de al menos una de estas “frases torturadas” en textos científicos. Por lo que se debería, según el informe Cabanac, poner en revisión esas investigaciones y de ser necesario retractarse de ellas. Pues como ya se mencionó antes, es posible que estas contengan información inexacta.

No cabe duda la innovación que presenta la comunidad científica en el desarrollo de nuevas tecnologías, descubrimientos y avances que benefician nuestro crecimiento como especie. Y gran parte de esto se logra del trabajo en conjunto en las investigaciones que se publican y divulgan en plataformas que se encargan de sacarlas a la luz. Pero la responsabilidad y complejidad que una Inteligencia Artificial puede tener en la tarea de publicar dichos artículos, no parece ser suficiente.

- Anuncio -
Artículo anteriorTelemedicina: desde un psicólogo hasta un cuidador virtual
Artículo siguiente¿Cómo crear un API en 5 minutos? ¡Te decimos cómo!
Estudiante y entusiasta de las Relaciones Publicas, la Comunicación y el Periodismo. Amante del cine, la poesía y la fotografía.