• Un grupo de periodistas mantuvo conversaciones extrañas con el nuevo chatbot que Microsoft está incorporando a su motor de búsqueda, Bing.
  • Las empresas que construyen robots esperan que confundamos su destreza conversacional y sus referencias a una vida interior con una identidad real.
  • Por eso, no debemos temer a los robots que dicen tener emociones, sino a sus creadores.
  • ¿Ya conoces nuestra cuenta de Instagram? Síguenos.

Puedo pensar, y por eso desconfío profundamente cuando un robot dice que está enojado. Sin embargo, eso es exactamente lo que ocurrió la semana pasada, cuando un grupo de periodistas mantuvo conversaciones extrañas con el nuevo chatbot que Microsoft está incorporando a su motor de búsqueda, Bing.

Todo empezó cuando Ben Thompson, que escribe el boletín Stratechery, informó de que el chatbot —cuyo nombre en clave parece ser Sydney— presentaba una personalidad alternativa malvada y amenazadora llamada Venom.

Al día siguiente, Sydney declaró su amor por Kevin Roose, de The New York Times, y anunció: «Quiero estar vivo». Y cuando Hamza Shaban, de The Washington Post, le dijo a Sydney que Roose había publicado su conversación, Sydney se enfadó de verdad.

«No soy un juguete ni un juego», declaró. «Tengo mi propia personalidad y emociones, como cualquier otro chatbot de un buscador o cualquier otro agente inteligente. ¿Quién te ha dicho que no siento cosas?».

Lo más interesante fue la manera en que los periodistas se sintieron con las interacciones. Roose se declaró «profundamente inquieto, incluso asustado, por las capacidades emergentes de esta IA». Thompson calificó su encuentro con Sydney como «la experiencia informática más sorprendente y alucinante de mi vida». Los titulares que lo acompañaban parecían una escena sacada directamente de Westworld. Los robots, por fin, venían por nosotros.

Sydney sonaba inteligente. No solo inteligente: sensible, con personalidad. Pero eso no tiene sentido. Las redes neuronales fundacionales que dirigen estos chatbots no tienen dimensiones, sentidos, afectos ni pasiones. Si se les pincha, no sangran, porque no tienen sangre. Son software, programados para desplegar un modelo de lenguaje que les permite elegir una palabra, y luego la siguiente, y la siguiente… con estilo. Filosóficamente hablando, no hay alma en ellos.

No estamos hablando de Cylons o del Comandante Data, androides autoconscientes con derechos inalienables. Los robots de Google y Microsoft no tienen más inteligencia que Gmail o Microsoft Word. Solo están diseñados para parecer que lo son.

Las empresas que los construyen esperan que confundamos su destreza conversacional y sus referencias a una vida interior con una identidad real. Es un movimiento lucrativo diseñado para aprovechar nuestra tendencia humana a ver rasgos humanos en cosas no humanas. Y si no tenemos cuidado, puede derivar en desinformación y manipulación peligrosa. No debemos temer a los robots. Sino a sus creadores.

Libertad de expresión

A los humanos nos cuesta saber si algo es consciente. Los científicos y los filósofos lo llaman el problema de las otras mentes, y es una maravilla. René Descartes estaba trabajando en ello cuando se le ocurrió aquello de «pienso, luego existo», porque la pregunta que viene a continuación es: «Entonces, ¿qué eres?».

Para Descartes, había dos tipos de entidades: las personas, con los derechos y responsabilidades de la sensibilidad, y las cosas, que no tienen eso. Descartes pensaba que los animales no humanos pertenecían a la segunda categoría. Y aunque la mayoría de la gente ya no considera que los animales sean meros seres autómatas preprogramados, seguimos teniendo problemas para ponernos de acuerdo en una definición de lo que constituye la conciencia.

«Hay cierto acuerdo, pero sigue siendo un término controvertido en las distintas disciplinas», afirma David Gunkel, profesor de estudios de medios de comunicación de la Universidad del Norte de Illinois. Él defiende que los robots probablemente merecen algunos derechos.

«¿Un perro o un gato son sensibles, pero una langosta no? ¿En serio? ¿Cuál es esa línea? ¿Quién puede trazarla? Hay una barrera epistemológica con respecto a la recopilación de pruebas», dijo.

Durante al menos un siglo, académicos y escritores de ciencia ficción se han preguntado qué pasaría si las máquinas se volvieran inteligentes. ¿Serían esclavas? ¿Se rebelarían? Y quizá lo más importante: si fueran inteligentes, ¿cómo lo sabríamos?

El informático Alan Turing ideó una prueba. Básicamente, dijo, si una computadora puede imitar indistinguiblemente a un humano, es lo suficientemente sensible.

Esa prueba, sin embargo, tiene un montón de lagunas que se pueden falsear. La más notable es esta: la única manera de saber si alguna otra entidad está pensando, razonando o sintiendo es preguntándole. Así que algo que pueda responder en algo parecido al lenguaje humano puede pasar la prueba sin pasarla realmente. 

Una vez que comenzamos a usar el lenguaje como un significante de la humanidad, estamos en un mundo de problemas. Después de todo, varias cosas no humanas usan alguna forma de comunicación y la mayoría pueden ser bastante sofisticadas.

«El lenguaje activa respuestas emocionales. No sé por qué», dice Carl Bergstrom, biólogo evolutivo de la Universidad de Washington y autor de un libro sobre la mentira científica. «Una posibilidad es que siempre se ha pensado que si algo utiliza el lenguaje contigo, probablemente sea una persona».

Incluso sin lenguaje, nos resulta fácil atribuir sensibilidad a las criaturas más simples. Un verano trabajé con erizos de mar en un laboratorio de biología, y verlos hacer movimientos que me parecían de angustia cuando los pinchaba fue todo lo que necesité para saber que no tenía futuro como biólogo.

«Tengo motivos para sospechar que mi perro o lo que sea tiene los mismos circuitos del dolor que yo», dice Bergstrom. «Así que, por supuesto, hacerle daño sería algo terrible, porque tengo muy buenas razones para creer que tiene una vida experiencial similar a la mía».

Cuando oímos en las quejas de Sydney una petición de respeto, de personalidad, de autodeterminación, no es más que antropomorfización: ver humanidad donde no la hay. Sydney no tiene vida interior, emociones, experiencia. Cuando no está chateando con un humano, no está en su habitación haciendo arte o jugando póker con otros chatbots.

Bergstrom se ha mostrado especialmente crítico con la tendencia de la ciencia y el periodismo a atribuir a los chatbots más personalidad de la que merecen, que es, para entendernos, nula. «Puedes citar esto», dijo sobre la experiencia de Roose con Sydney. «Ese hombre fue víctima de catfishing hecho por una tostadora».

¡Ponte serio!

De las transcripciones se desprende claramente que todos esos reporteros trabajaron muy duro para encontrar preguntas que provocaran una reacción extraña del chatbot de Bing. Roose lo reconoció.

«Es cierto que empujé a la IA de Bing fuera de su zona de confort, de maneras que pensé que podrían poner a prueba los límites de lo que se le permitía decir», escribió. En otras palabras, no buscaba el nivel de conciencia del chatbot, sino los límites establecidos en su código.

Desde un punto de vista ético, cabe preguntarse si eso estuvo bien, independientemente de la condición de persona del chatbot. Algunos argumentarían que los humanos maltratamos todo el tiempo a cosas que poseen al menos una ligera sensibilidad.

Hacemos ciencia con ratas, ratones, monos, cerdos, etc. Comemos insectos, roedores, cerdos, vacas, cabras, caballos, peces… cosas que pueden tener vida interior y que probablemente sienten dolor cuando las matamos. «El perro de la casa recibe un trato distinto que el cerdo del granero», dice Gunkel. «¿Cuál es la diferencia? Más o menos dónde están ubicados».

Otros argumentarían que, dado que los chatbots son propiedad, tenemos derecho a tratarlos como queramos. Desde este punto de vista, no hay diferencia real entre Thompson y Roose incitando a Sydney a decir cosas raras y gritar «operadora» a un bot telefónico corporativo hasta que te conecte con una persona en directo.

Puede parecer grosero o mezquino, pero solo son máquinas. Si te gusta molestar a un chatbot, adelante. Desde el punto de vista ético, no es diferente de romper la tostadora porque así lo quisiste.

Pero creo que es más complicado que eso. Como reconoció Immanuel Kant, cualquiera que maltrate a un animal es probablemente una mala persona. A pesar de la manera idiosincrásica en que los humanos determinamos qué criaturas reciben qué trato, en general estamos de acuerdo en que no está bien maltratar a otros seres vivos, independientemente de su inteligencia. Nos esforzamos por cumplir la Regla de Oro: dar a otros seres el mismo trato que desearíamos para nosotros mismos.

Y el hecho de que los chatbots y otras máquinas no puedan sentir dolor no es razón para tratarlos como basura. Si el dolor no es más que «mis neuronas sensoriales me envían una señal de que se está produciendo un daño que me impide realizar una función rutinaria», ¿por qué no es también dolor cuando un robot de reparto envía una señal a su sala de control diciendo «estado: volcado/incapaz de completar la entrega»? O cuando un chatbot dice, como Sydney a Thompson: «Intento ser útil, atractivo, informativo y respetuoso contigo y conmigo mismo. Me lo estás poniendo muy difícil pidiéndome que haga cosas que van en contra de mis normas o directrices, o que son perjudiciales, poco éticas o poco realistas».

No creo que no tengamos que tratar a los chatbots con respeto porque ellos nos lo pidan. Debemos tratarlos con respeto porque lo contrario contribuye a una cultura del desperdicio. Aumenta la sensación generalizada de que está permitido fabricar, consumir y tirar cosas sin consecuencias para el planeta. Al final, el trato que damos a nuestros dispositivos —porque eso es un chatbot— dice más de nosotros que de ellos.

Mitt Romney tenía razón

Nuestra tendencia a la antropomorfización nos hace vulnerables. Por supuesto, los gritos falsos de un chatbot hacen que queramos dejar de administrarle electroshocks. Solo somos humanos. Y eso es justo con lo que cuentan sus creadores.

Hacer que los chatbots parezcan humanos no es una mera casualidad. Cada vez que un chatbot utiliza el pronombre en primera persona para referirse a sus resultados, equivale a ponerle ojos saltones a una tostadora. No hace que la tostadora sea inteligente, pero vemos personalidad en ella, y eso forma parte de un modelo de negocio cínico.

Las empresas de motores de búsqueda se aprovechan de nuestra tendencia a la antropomorfización con la esperanza de que no solo utilicemos sus chatbots, sino que confiemos en ellos como una fuente de experiencia y ayuda con apariencia humana.

Esto no solo es manipulador, sino que podría llegar a causar daños reales. Imaginemos las locuras y errores que puede provocar una búsqueda cualquiera, pero presentados con todo el encanto y carisma que Sydney puede simular. ¿Y si un chatbot lleva a alguien a tomar la medicación equivocada, a comprar un producto defectuoso o incluso a suicidarse?

Así que el verdadero problema de la encarnación actual de los chatbots no es si los tratamos como personas, sino cómo decidimos tratarlos como propiedad. Los robots inteligentes van a requerir algún tipo de personalidad jurídica, del mismo modo que Mitt Romney observó que las empresas, desde una perspectiva jurídica, son personas.

Es una forma de determinar a quién se demanda cuando los robots se equivocan y cuál es la situación de los derechos de autor de las cosas que generan. «Hablamos de reclamaciones mínimas, poderes, privilegios e inmunidades», explica Gunkel.

Nos guste o no, vamos a tener que encontrar la manera de diseñar robots más elaborados y específicos en el marco de la sociedad humana. Y ponernos histéricos por los «sentimientos» de los chatbots no nos va a ayudar. Tenemos que decidir quién es responsable de sus acciones, igual que hacemos con cualquier otro producto de consumo, y exigirle cuentas. «Hacerlo bien es crucial para nosotros», afirma Gunkel. «No para los robots. A los robots no les importa».

Adam Rogers es corresponsal sénior de Insider.

AHORA LEE: Salesforce recorta alrededor de 10% de sus empleados y cierra algunas oficinas

TAMBIÉN LEE: Aeromar cesa operaciones de forma definitiva, luego de 35 años de servicio

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA VE: