Carta Abierta: Paren la investigación en IA

|

Recientemente, se ha publicado una carta abierta firmada por importantes referentes de la tecnología en la que se pide una moratoria de seis meses en el desarrollo de modelos de lenguaje más potentes que GPT-4. La carta plantea la preocupación por la posible amenaza que la tecnología puede suponer en manos equivocadas y propone una serie de medidas para garantizar la seguridad y el control sobre el avance de la IA.

En el siguiente vídeo puedes ver el análisis y mi opinión sobre la propuesta:

¿Cuál es el objetivo de la carta?

La carta busca llamar la atención sobre los posibles riesgos asociados con el desarrollo de la inteligencia artificial y solicita una pausa en la investigación de sistemas de IA más potentes que GPT-4. El objetivo de la moratoria es permitir que los expertos en IA y los responsables políticos puedan trabajar conjuntamente para desarrollar medidas de seguridad y regulación adecuadas.

Sin embargo, la mención explícita y recurrente a OpenAI y GPT-4 sugiere que además puede perseguir otros objetivos. Como frenar un posible escenario de hegemonía y monopolio de esta tecnología por parte de una única compañía.

¿Cuáles son los argumentos de la carta?

La carta menciona una serie de posibles riesgos que podrían surgir de la investigación y desarrollo de sistemas de IA más avanzados, como el riesgo de que estas tecnologías sean utilizadas para difundir información errónea y propaganda en la sociedad, así como la posibilidad de que se desarrollen sistemas de IA no humanos que eventualmente puedan superar a los humanos en capacidad intelectual y, en última instancia, suplantarlos.

En respuesta a estos argumentos, los defensores de la moratoria argumentan que una pausa de seis meses en la investigación de sistemas de IA más avanzados no significa una pausa completa en el desarrollo de la IA. En cambio, argumentan que esto permitiría a los expertos y responsables políticos trabajar juntos para abordar los riesgos y desafíos asociados con la IA de una manera más efectiva y responsable. Además, los defensores de la moratoria también señalan que es importante tener en cuenta los riesgos asociados con el desarrollo de la IA y trabajar para garantizar que estas tecnologías sean seguras y beneficiosas para la sociedad en general.

¿Qué opinan los expertos en IA?

La carta ha generado opiniones encontradas entre los expertos en IA. La mayoría coinciden en la necesidad de establer una regulación y mecanismos de control adecuados, sin embargo la propuesta de una moratoria genera controversía.

Pese a que la carta tiene algunos puntos válidos en relación con la necesidad de abordar los riesgos de la inteligencia artificial y desarrollar sistemas de gobernanza sólidos, la propuesta de detener el desarrollo de sistemas de IA más potentes que GPT-4 por 6 meses parece arbitraria y no está respaldada por un análisis detallado de los posibles beneficios y desafíos de tal moratoria. Además, la carta no aborda cómo se podría lograr una pausa pública y verificable en la investigación de IA, ni cómo se podría garantizar la cooperación de todos los actores clave.

Además la carta sugiere que la única opción es detener el desarrollo de sistemas de IA más potentes que GPT-4 por al menos 6 meses, o enfrentar un futuro en el que los riesgos de la IA se vuelven incontrolables. Esto ignora la posibilidad de que se puedan encontrar soluciones intermedias o alternativas para abordar los riesgos y desafíos asociados con la IA.

Finalmente, el hecho de que la carta presente una serie de preguntas retóricas que plantean escenarios negativos y alarmantes, como permitir que las máquinas inunden nuestros canales de información con propaganda y mentiras, o desarrollar mentes no humanas que eventualmente nos hagan obsoletos, supone plantear unos escenarios que no representan las posturas de quienes trabajan en el desarrollo de la inteligencia artificial y sugiere una intención de exagerar determinados argumentos para generar alarma.

Quienes están en contra de la propuesta argumentan que una moratoria de seis meses en el desarrollo de la IA podría tener efectos perjudiciales en la investigación y el progreso tecnológico. La inteligencia artificial es una herramienta valiosa que puede ayudar a abordar algunos de los mayores desafíos que enfrenta la humanidad, como el cambio climático, la atención médica y la lucha contra la pobreza y parar su desarrollo puede ralentizar la investigación en estos campos.

La cuestión de OpenAI:

Además del análisis detallado de la carta de lo que explica la carta, surge una cuestión inherente de si OpenAI, la organización que ha desarrollado GPT-4, representa realmente una amenaza para el mercado. Y es que hay argumentos para pensar que OpenAI está en una posición que puede llevarla a establecer una situación cercana al monopolio.

Tanto por nivel de desarrollo de su tecnología respecto a sus competidores, como, sobre todo, por como están posicionadas sus soluciones y productos en el mercado.

Conclusiones

Conclusiones: La carta abierta ha generado un intenso debate en torno a la necesidad de regulación y seguridad en el desarrollo de la IA avanzada. Si bien la propuesta de una moratoria de seis meses puede parecer arbitraria, la discusión sobre la necesidad de abordar los riesgos asociados con la IA y desarrollar medidas de regulación adecuadas es importante.

Más novedades IA