• Investigadores encuestaron a 480 expertos en procesamiento del lenguaje natural sobre lo que piensan de la IA.
  • Muchos encuestados estuvieron de acuerdo en que la IA puede crear un "cambio social revolucionario" y conducir a una catástrofe.
  • La encuesta se realizó antes del lanzamiento del popular chatbot de IA ChatGPT.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Una nueva investigación sugiere que muchos expertos en aprendizaje automático (o machine learning) están preocupados por el impacto de la inteligencia artificial en el mundo.

Un equipo de investigadores de la Universidad de Nueva York y otras escuelas encuestó en mayo pasado a académicos, profesionales de la industria y trabajadores del sector público en el campo del Procesamiento del Lenguaje Natural para evaluar sus opiniones sobre «temas controvertidos» como la inteligencia general artificial (AGI, por sus siglas en inglés) y otras preocupaciones éticas.

Los encuestados recibieron una lista de declaraciones sobre varios temas de discusión, incluido el estado actual de la inteligencia artificial y los principales riesgos que conlleva. Se les pidió que respondieran con «de acuerdo» o «en desacuerdo».

La automatización de la fuerza laboral podría dar como resultado un «cambio social revolucionario»

Sobre el tema de AGI —la capacidad de la inteligencia artificial de realizar tareas humanas complejas como la conciencia, y sus riesgos— se propusieron dos creencias: la IA pronto podría conducir a un «cambio social revolucionario» o sus decisiones podrían causar una «catástrofe de nivel nuclear».

De 480 encuestados, 73% acordó que la automatización de la fuerza laboral podría dar como resultado un «cambio social revolucionario» durante este siglo, según el estudio. Sus impactos pueden, al menos, reflejar la escala de la Revolución Industrial; un momento en el que se inventaron herramientas como la máquina de vapor y el telégrafo.

Aún más sorprendente, 36% de los encuestados dijo que la IA tiene el poder de causar «resultados catastróficos» al nivel de una «guerra nuclear total». De los encuestados que estuvieron de acuerdo, 53% de ellos se identificó como minorías subrepresentadas. Esto sugiere preocupaciones basadas en el «historial actual de daños desproporcionados para estos grupos», según los investigadores.

Si bien la encuesta no preguntó qué los encuestados consideraban un resultado catastrófico, los investigadores dijeron que pueden referirse a problemas relacionados con los accidentes en sistemas de aprendizaje automático como, por ejemplo, un robot de limpieza que derriba jarrones y daña las paredes, y la IA actuando de manera inesperada o causando un desglose de infraestructura tan a gran escala que probablemente ocurriría durante un conflicto político o desastre natural.

Inteligencia artificial, como ChatGPT, ha provocado un debate sobre cómo la tecnología transformará la sociedad

Si los encuestados volvieran a tomar la encuesta ahora, pueden tener diferentes respuestas, ya que estos hallazgos se produjeron meses antes de que OpenAI lanzara al chatbot conversacional ChatGPT al público. Al haber alcanzado a los 100 millones de usuarios activos mensuales en enero, según Reuters, el chatbot ha reavivado un debate sobre si la IA reemplazará a las personas en sus trabajos.

El chatbot ha demostrado que puede escribir artículos y analizar grandes sumas de datos rápidamente. Estas son características que los expertos dicen que le ayudarían a reemplazar a los creadores de contenido y analistas financieros; sin embargo, las respuestas del chatbot también pueden incluir sesgo y información errónea.

Como grandes compañías tecnológicas como Microsoft y Google han comenzado a implementar sus propios chatbots de IA, los usuarios han expresado aún más preocupaciones sobre las amenazas de la IA. Muchos usuarios tempranos del nuevo motor de búsqueda de Bing de Microsoft, por ejemplo, encontraron sus respuestas tan inquietantes que Microsoft limitó sus funciones de chat una semana después de su lanzamiento.

Al igual que los expertos encuestados, muchos líderes empresariales están de acuerdo en que la IA tiene el potencial de transformar la sociedad.

Elon Musk dijo en una conferencia reciente que la inteligencia artificial es «uno de los mayores riesgos para el futuro de la civilización». El ex ejecutivo de Meta John Carmac cree que la IA puede pensar y actuar como humanos en solo una década. Y el ex CEO de Google, Eric Schmidt, cree que la IA podría tener un gran impacto en la guerra como lo hicieron las armas nucleares.

Los hallazgos pueden contener sesgo, aunque reflejan las impresiones generales de la inteligencia artificial de los expertos

Aun así, estos resultados deben interpretarse con cautela, según los investigadores. Ellos dijeron que las preguntas sobre los riesgos de la IA podrían haberse interpretado de muchas maneras y que algunas de estas eran más controvertidas que otras, lo que podría haber sesgado las respuestas.

Los resultados también pueden contener sesgo. Los hombres, académicos e investigadores de alto nivel, y los encuestados estadounidenses pueden estar sobrerrepresentados en la encuesta, según los investigadores. Algunos encuestados también optaron por no responder la pregunta sobre los impactos catastróficos de la IA al decir que la pregunta era «demasiado fuerte». Los encuestados dijeron que la IA no debería ser tratada como un humano que toma sus propias decisiones, según los investigadores.

Aún así, estos hallazgos destacan la amplitud de las impresiones que los expertos tienen hacia la IA.

«Dados estos problemas, probablemente sea razonable ver las respuestas a las preguntas sobre esta encuesta como reflejar algo entre las creencias objetivas y el comportamiento de señalización», concluyó la encuesta.

AHORA LEE: El futuro pertenece quienes dominen IA, como ChatGPT, según Bill Gates y otros expertos

TAMBIÉN LEE: El creador de ChatGPT dice que la IA podría ser ‘aterradora’ y que su regulación ‘será crítica’

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA VE: