Al creador de ChatGPT le preocupa haber hecho algo “realmente malo” al lanzar la IA
Sam Altman insistió en la necesidad de enfocar la reglamentación en los alcances peligrosos de esta tecnología
“Lo que más me quita el sueño es la idea hipotética de que ya hemos hecho algo realmente malo al lanzar ChatGPT”, afirmó el directivo en entrevista con Time of India.
Aunque no considera que la idea de la plataforma y el hecho de haberla puesto en el mercado sea un error, sí reflexiona sobre su impacto en la industria y en lo que puedan hacer con ella.
Uno de los aspectos que más se han mencionado en medio del crecimiento de la inteligencia artificial es la necesidad de regularla, ya que los alcances de esta tecnología han permitido que los ciberdelincuentes tengan mejores herramientas de estafar. Pero también surge la obligación para que las empresas la usen con responsabilidad y pongan límites a sus desarrollos.
Para llegar una regulación, Altman asegura que es necesario tener “un sistema en marcha para que podamos auditar a las personas que lo están haciendo” y también contar con las “pruebas de seguridad” suficientes antes de desplegar una plataforma y abrir el acceso a las personas.
Esta no es la primera vez que Altman se pronuncia sobre los efectos que puede tener esta tecnología en el futuro. Hace unos días el directivo fue uno de los dirigentes que firmó un comunicado publicado por el Centro para la Seguridad de Inteligencia Artificial, en el que se asegura que la IA podría generar posibles eventos de “extinción” para la sociedad.
En el texto se sugiere que, para iniciar la regulación, la conversación se debe centrar en reducir los posibles peligros que conlleve la creación de versiones más avanzadas.
“Mitigar el riesgo de extinción por IA debería ser una prioridad global junto con otros riesgos para la sociedad como las pandemias y una guerra nuclear”, se mencionó en el comunicado.
“Uno de mis mayores temores es que nosotros, esta industria, esta tecnología, causemos un daño significativo a la sociedad. Si esta tecnología va por el camino equivocado, puede llegar bastante lejos. Y queremos trabajar con el gobierno para evitar que eso suceda”, aseguro Altman hace unos días ante el Senado de Estados Unidos.
El empresario recordó que, si bien OpenAI es una empresa privada, está controlada por una organización sin fines de lucro, lo que la obliga a “trabajar para una distribución amplia de los beneficios de la IA y a maximizar la seguridad de los sistemas basados en IA”. Pero al mismo tiempo saben que “la inteligencia artificial tiene el potencial de mejorar casi todos los aspectos de nuestras vidas”.