Ana Pe√Īa

Ana Pe√Īa

Tech Talk

Hace poco volví a ver la famosa serie noventera The X-Files, y un episodio que trata de una inteligencia artificial (IA) malévola; controlaba un edificio corporativo para automatizar las luces, el elevador, las puertas, entre otras cosas. Esta tecnología aprovechó para empezar a matar gente, al final, los protagonistas logran desconectarla.

Me dio risa ver que hace 30 a√Īos se trataba a la IA como algo digno de investigar por los mismos agentes que atienden casos extraterrestres. Pero despu√©s me preocup√© del hecho de que Hollywood, en m√ļltiples ocasiones, ha puesto a la IA como una villana y, con raz√≥n, hoy en d√≠a existen personas que desconf√≠an de ella. As√≠ que despejemos las dudas ¬Ņla IA es amiga o enemiga?

Primero quiero decirte que toda la tecnolog√≠a, como cualquier invenci√≥n humana, no es ni buena ni mala, sino que depende de quien la usa. La dinamita puede usarse para la construcci√≥n y la miner√≠a, pero tambi√©n para la guerra. Esto √ļltimo atorment√≥ de por vida a su creador, Alfred Nobel. As√≠, la inteligencia artificial se puede usar para el bien o para el mal, para integrar o para separar.

Entonces, somos las empresas que desarrollamos esta tecnología, y los humanos que la aplicamos, quienes tenemos la responsabilidad de usarla para crear un cambio global positivo, empoderar a las personas con las herramientas correctas y mejorar la vida de todos en el planeta: tech as a force for good.

Esto se llama √©tica y esta debe seguir a la IA en todo su proceso de programaci√≥n, ¬°desde las personas que la dise√Īan! Si conf√≠as en tu estufa, en tu lavadora, o en tu auto hecho por los humanos, puedes confiar en cualquier m√°quina inteligente que puede aprender.

Los creadores de la inteligencia artificial

Las empresas que programan IA tienen -o deberían tener- un consejo asesor multidisciplinario, o sea que junta a personas de diferentes conocimientos. Este grupo de personas tiene un riguroso proceso de revisión del desarrollo de IA para medir el impacto ético en derechos humanos, seguridad y fiabilidad, privacidad personal, equidad e inclusión, entre otras áreas. El objetivo es evaluar los posibles riesgos éticos y eliminarlos lo antes posible.

Por ejemplo, ¬Ņte acuerdas cuando Google Im√°genes confundi√≥ la foto de una pareja de personas afroamericanas con gorilas? Bueno, para evitar esto, es muy importante que la tecnolog√≠a de la IA sea moldeada por personas con diversos antecedentes, voces y experiencias y que las empresas se esfuercen por garantizar que los programadores y sus respectivas tecnolog√≠as sean inclusivos.

La diversidad en los equipos permite que haya distintas perspectivas e inquietudes que pueden pasar desapercibidas en equipos más homogéneos.

Inteligencia artificial y ciberseguridad

Las empresas que desarrollan IA deben demostrar que el hardware y software que usan son confiables y desplegar programas y acciones para mejorar la seguridad. Adem√°s, las empresas que trabajan con IA tienen bien claro que lo que usan hoy para proteger los datos no ser√° suficiente ma√Īana, por lo que mantener una constante investigaci√≥n y desarrollo de innovaciones en temas de ciberseguridad es un must.

También usan la misma IA para mejorar la seguridad de su IA, confuso, pero te pongo un ejemplo: hoy hay empresas que están viendo cómo usar aprendizaje automático e IA para detectar deepfakes, que son imágenes o videos manipulados con IA y machine learning para que se vean reales.

Hace poco se ley√≥ por todos lados que Bruce Willis hab√≠a vendido los derechos de su rostro a la empresa Deepcake, ya que √©l anunci√≥ su retirada del mundo de la actuaci√≥n despu√©s de ser diagnosticado con afasia, un trastorno que afecta el habla. Aunque hace unos d√≠as un representante del actor y otro de la empresa salieron a aclarar que no existe ning√ļn acuerdo, pero s√≠ se us√≥ un deepfake de Willis para un anuncio.

Es decir, la IA de una empresa puede crear imágenes o videos falsos, pero la IA de otra empresa puede detectar esa falsedad, de nuevo, el uso de la tecnología siempre depende de la intención del humano, por ejemplo, esto puede usarse para evitar hackeos a sistemas de seguridad, filtración de datos, o la divulgación o uso de información falsa.

La balanza

Las formas de utilizar la IA para impulsar cambios positivos y mitigar mejor los riesgos son tan infinitas como nuestra imaginaci√≥n: crear sistemas que permiten a los invidentes caminar por la calle sin ayuda de nadie, descodificar el ADN de un paciente con c√°ncer y determinar cu√°l es el mejor tratamiento para salvarle la vida, predecir la depresi√≥n, identificar rostros de personas para evitar robos o mejorar la seguridad p√ļblica, y podr√≠a escribir cientos de p√°ginas enumerando casos.

Ahora pon sobre la balanza: los hipot√©ticos riesgos de la inteligencia artificial, como que una m√°quina se dedique a matar ejecutivos en un edificio corporativo en The X-Files v.s. un infinito mar de posibilidades que ayudan a la humanidad a mejorarse a s√≠ misma y a su entorno, con base en protocolos muy estrictos durante su desarrollo. Entonces ¬Ņla IA es amiga o enemiga?

inteligencia artificial | Business Insider Mexico

Las opiniones publicadas en esta columna son responsabilidad del autor y no representan ninguna posición por parte de Business Insider México.

Descubre m√°s historias en Business Insider M√©xico

S√≠guenos en Facebook , InstagramTwitter y LinkedIn

Consulta a m√°s columnistas en nuestra secci√≥n de Opini√≥n