Preocupación de Elon Musk y otros referentes tecnológicos por ChatGPT-4

Elon Musk, dueño de Twitter y fundador de Tesla y SpaceX, se unió a cientos de especialistas en tecnología a nivel mundial, quienes advirtieron a través de un comunicado sobre los «grandes riesgos para la humanidad» que implica continuar con las investigaciones sobre inteligencias artificiales (IA) más potentes que ChatGPT 4 (Generative Pre-trained Transformer 4), el modelo de OpenAI lanzado recientemente.

La carta abierta firmada por Musk, el co-fundador de Apple, Steve Wozniak, y el co-fundador de Skype, Jaan Tallinn, entre otros, es contundente en su solicitud: «Pedimos a todos los laboratorios de IA que pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4».

Firmado por más de 1.000 personalidades tecnológicas, el petitorio publicado en el sitio futureoflife.org denuncia los avances de los sistemas de IA que suponen una capacidad superior a la de GPT-4 por no existir aun los sistemas de seguridad necesarios para regular su funcionamiento.

Además de que puede resultar superior a los seres humanos, el temor de los entendidos en la materia es la posibilidad de que la Inteligencia Artificial acabe descontrolándose: «en los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable«.

En este sentido, Sam Altman, director de Open AI y creador de ChatGPT, reconoció sentir algo de «miedo» de que su diseño sea utilizado para «desinformación a gran escala o ciberataques».

Por su parte, la carta de los referentes del universo cibernético marcaron su postura al respecto: «¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes? ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos».

De esta manera, expresaron su interés en que se establezcan sistemas de seguridad y vigilancia de los sistemas de IA, así como también técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la «dramática perturbación económica y política (especialmente para la democracia) que causará la IA».

Entradas relacionadas