The Future of Life Institute ha publicado una carta proponiendo una moratoria de 6 meses en la investigación de sistemas de inteligencia artificial que ha tenido mucho eco, porque contiene un mensaje sensacionalista fácil de «comprar».

Pero el contrapunto lo ha dado el Distributed AI Research (DAIR) Institute con una carta posterior que, en mi opinión, da en el clavo respecto de los verdaderos problemas que ya en el presente pueden causar estos sistemas, y cuya correcta comprensión nos puede ayudar a entenderlos y usarlos como corresponde a su potencialidad beneficiosa. No todo el sensacionalismo apocalíptico.

Os invito a leer la carta de DAIR directamente en su web. Aquí incluyo un resumen que he generado y traducido al castellano con GPT-4 y la aplicación MacGPT.

🤖 El 28 de marzo, el Future of Life Institute publicó una carta pidiendo una moratoria de seis meses en sistemas de inteligencia artificial más potentes que GPT-4, con más de 2,000 firmas, incluidos Yoshua Bengio y Elon Musk. Aunque la carta contiene algunas recomendaciones aceptables, se centra en el miedo y el bombo publicitario de la inteligencia artificial, enfocándose en riesgos hipotéticos planteados por “mentes digitales poderosas” con “inteligencia competitiva humana”. La carta no aborda los daños actuales causados por los sistemas de inteligencia artificial, como la explotación laboral, el robo de datos, la proliferación de medios sintéticos y la concentración de poder en manos de unos pocos individuos.

Criticando la carta anterior, DAIR argumenta que distrae de los problemas reales al promover una utopía o apocalipsis habilitado por la inteligencia artificial, lo que lleva a conceptos erróneos sobre las capacidades de los sistemas automatizados, además de atribuir erróneamente la agencia sobre los mismos. En lugar de centrarse en amenazas imaginarias, DAIR pide una regulación que garantice la transparencia y exija a las organizaciones que divulguen datos de entrenamiento y arquitecturas de modelos. La responsabilidad debe recaer en los constructores de sistemas de inteligencia artificial, y aquellos más afectados por la inteligencia artificial deben tener voz en la conversación.

La narrativa de la carta de Future of Life sugiere que la sociedad debe adaptarse a un futuro tecnológico predeterminado, lo que para DAIR supone ajustarse a las prioridades de unos pocos individuos privilegiados. DAIR argumenta que las máquinas deben construirse para trabajar para los humanos, en lugar de obligar a la sociedad a ser legible y editable por máquinas. La carrera hacia experimentos de inteligencia artificial más grandes está impulsada por el beneficio, y las acciones corporativas deben ser moldeadas por regulaciones que protejan los derechos e intereses de las personas.

En conclusión, los críticos de DAIR creen que el enfoque no debe estar en “mentes digitales poderosas” imaginarias, sino más bien en las prácticas explotadoras reales y actuales de las empresas que afirman construirlas. Estas empresas están centralizando el poder y aumentando las desigualdades sociales, y abordar estos problemas debe tener prioridad sobre el miedo y el bombo publicitario sobre los riesgos hipotéticos de la inteligencia artificial.