Desde hace unos días estoy usando GitHub Copilot en el trabajo diario. Lo uso fundamentalmente con Dart, el lenguaje usado para Flutter. No es, ni remotamente el más recomendado por GitHub. Según la empresa, los mejores resultados se obtienen con Python y con Javascript, probablemente porque son los que más abundan en los repos de GitHub. Es decir, hay muchos más datos de los que aprender. Aun así, los resultados no te dejan indiferente.
Si un problema sigue siendo difícil de resolver, no malgastes neuronas en intentar mejorar los algoritmos, simplemente dale más datos.
Es decir, su presentación se tendría que haber titulado: “The unreasonable effectiveness of brute force”.
No importa lo bueno que seas con esa lanza, la fuerza bruta, cuando aplastante, puede con todo.
Cuando lo que determina la calidad de la IA que generas es la cantidad de datos de los que dispones y de los recursos computacionales para procesarlos, eso se constituye en una barrera infranqueable para quien no dispone de esos recursos desmedidos.
¿Qué startup puede competir con GitHub Copilot, si no dispone de los datos que tiene esa empresa y los recursos de MS (propietaria de Github)?
Con este modelo, la IA está reservada para las grandes empresas y algunos gobiernos. La libre competencia y dinamismo que aportan nuevas empresas y startups no llegará ahí jamás.
En este caso concreto, parece irrelevante, al fin y al cabo se trata de una herramienta para programadores, pero ¿qué pasa cuando se trate de inversión automatizada (algotrading), diagnóstico médico o aplicaciones militares?
El que la IA verdaderamente eficaz esté solo al alcance de unos pocos, es algo que debe de empezar a preocupar y mucho.