Hace casi dos años, rápidamente empezaron a surgir iniciativas dentro de las comunidades online de artistas para prohibir en su seno la publicación de imágenes generadas a través de inteligencia artificial. Se mezclaban entonces, argumentos relacionados tanto con la calidad de las imágenes como con consideraciones legales y éticas en torno a los derechos de autor.
Ahora, cuando la existencia de asistentes de IA para la generación de código de software se ha normalizado, y los desarrolladores recurren de manera habitual a herramientas como ChatGPT o GitHub Copilot, la controversia gira en torno al uso de las mismas en entornos relacionados con software de código abierto.
El debate, a continuación de que tanto una distribución Linux (Gentoo) como otro sistema operativo libre además basado en Unix (NetBSD) hayan tomado medidas en las últimas semanas para prohibir el uso de código generado por modelos de IA.
En abril, Gentoo Linux se convirtió en el primer proyecto de sistema operativo de código abierto en implementar una política que prohíbe el uso de código generado por herramientas de IA, como el Copilot de Github. Esta semana, el proyecto NetBSD actualizó sus directrices de commits para agregar una restricción similar.
El problema de la calidad del código.