2023-08-19 10:55:04
A medida que crece el uso de la IA generativa, el mundo académico también recibe su ración de textos ChatGPT. Editores e investigadores intentan desarrollar políticas y un camino hacia un futuro en el que los trabajos asistidos por IA sean habituales.
En agosto de 2022, la revista Resources Policy publicó un estudio sobre el comercio electrónico y los combustibles fósiles que incluía una frase característica de los chatbots de IA como ChatGPT: «Tenga en cuenta que, como modelo lingüístico de IA, no puedo generar tablas específicas ni realizar pruebas, por lo que los resultados reales deben incluirse en la tabla». Para sorpresa de todos, esta frase puso sobre aviso a los investigadores de que se podía haber utilizado IA para escribir partes del artículo sin revelarlo. Elsevier está investigando el incidente.
Las principales editoriales y revistas, como Science, Nature y Elsevier, se han apresurado a aplicar nuevas políticas de IA, preocupadas por las amenazas a la credibilidad. Las políticas suelen exigir la divulgación de cualquier uso de IA y prohíben incluir a las IA en las listas de autores. Pero detectar textos escritos por IA es extremadamente difícil y aún no se han desarrollado métodos infalibles.
La IA podría ayudar a los investigadores a mejorar su redacción académica
Pero no todo son malas noticias: Los expertos afirman que las herramientas de IA podrían ayudar a los hablantes no nativos de inglés a mejorar la calidad de sus escritos académicos y sus posibilidades de ser aceptados para su publicación. También podría ayudar a los investigadores a escribir mejor y con más claridad. En un experimento reciente, unos investigadores utilizaron ChatGPT para escribir un artículo aceptable en sólo una hora. Sin embargo, la IA generativa a menudo inventa hechos y referencias, repite datos sesgados y puede utilizarse para disfrazar el plagio.
La IA generativa también permitirá a las «fábricas de artículos» vender investigaciones de baja calidad asistidas por IA a académicos con poco tiempo y bajo la presión de «publicar o perecer». La proliferación de este tipo de estudios podría contaminar la literatura científica y desviar la atención de la investigación legítima.
Los modelos multimodales traerán más cambios
Con modelos de código abierto como Stable Diffusion y las herramientas de IA generativa de Photoshop, la manipulación o fabricación de imágenes también se convertirá en un problema. Hace poco, Nature prohibió estas prácticas.
Es de esperar que el uso de este tipo de herramientas crezca rápidamente, sobre todo con modelos multimodales como Gemini de Google Deepmind en el horizonte. Si los rumores son ciertos, también podría ser capaz de analizar gráficos y tablas, lo que facilitaría el tratamiento de artículos enteros, incluido el material suplementario. Incluso es posible que los propios editores empiecen a integrar cada vez más este tipo de herramientas. Encontrar el equilibrio adecuado entre política y tecnología requerirá más ensayo y error.