馃煝 Publicado originalmente en el peri贸dico El Financiero - Bloomberg
Hace un par de semanas pregunt茅 si debemos tenerle miedo a la inteligencia artificial (IA) (Segovia, R. Human Leader Newsletter, marzo 27, 2023). La respuesta que compart铆, en t茅rminos generales, fue que no es que debamos tenerle miedo a la IA en s铆 misma, sino a su uso indebido y a los riesgos que puede presentar si no se controla adecuadamente.
Bueno, hace unos cuantos d铆as Elon Musk y un grupo de personas pidi贸 pausar inmediatamente, y durante al menos seis meses, el entrenamiento de la IA por considerar que est谩 “fuera de control” y que presenta “riesgos profundos para la sociedad y la humanidad”. Puntualmente, ¿a qu茅 riesgos se refieren?
Mencionemos algunos de ellos y que se enumeran en la carta que firmaron, entre otros muchos, Elon Musk, CEO de SpaceX, Tesla & Twitter; Steve Wozniak, Cofundador de Apple; y, Yuval Noah Harari, Autor y Profesor de la Universidad Hebrea de Jerusal茅n (Pause Giant AI Experiments: An Open Letter, marzo 2023).
- Sesgos: Una de las principales preocupaciones es el potencial de la IA para dar respuestas sesgadas, difundir informaci贸n err贸nea y vulnerar la privacidad de las personas.
- Brechas laborales: La IA eliminar谩 muchos trabajos, cambiar谩 competencias laborales y generar谩 mayores brechas laborales, y por ende sociales, en la poblaci贸n.
- Academia: A trav茅s de la IA los estudiantes podr谩n hacer trampa y diluir la generaci贸n de conocimiento.
Los abajo firmantes de esta carta sustentan sus preocupaciones a trav茅s de diferentes preguntas (m茅todo socr谩tico). Veamos algunas de ellas: ¿Deber铆amos dejar que las m谩quinas inunden nuestros canales de informaci贸n con propaganda y falsedad?; ¿Deber铆amos automatizar todos los trabajos?; ¿Deber铆amos desarrollar mentes no humanas que eventualmente podr铆an superarnos y reemplazarnos?; ¿Deber铆amos arriesgarnos a perder el control de nuestra civilizaci贸n?.
A los pocos d铆as de esta carta, Bill Gates, cofundador de Microsoft, apunt贸 que pausar el desarrollo de la Inteligencia Artificial no servir谩 de mucho, ya que el detener su avance no servir谩 para resolver los desaf铆os que plantea esta tecnolog铆a. Incluso, sostiene que la IA se puede utilizar para reducir las desigualdades del mundo como la falta de educaci贸n o el acceso a medicina.
Yuval Harari, firmante de la carta que pide suspender la IA, public贸 un mensaje en Twitter (abril 03, 2023) en el cual parece moderar o explicar su postura al se帽alar que: “el peligro es que si invertimos demasiado en el desarrollo de la inteligencia artificial y muy poco en el desarrollo de la conciencia humana, la muy sofisticada inteligencia artificial de las computadoras solo podr铆a servir para potenciar la estupidez natural de los humanos”.
No ignoro ni minimizo las preocupaciones de empresarios, acad茅micos y pensadores, pero, ¿suspender el avance de la IA es la soluci贸n? Stephen Hawking apunt贸 en su momento que “no podemos detener el avance de la tecnolog铆a, pero podemos guiarlo para que beneficie a la humanidad en lugar de da帽arla”.
M谩s all谩 de las decisiones que se tomen y que est谩n (muy) lejos de nuestra 谩rea de influencia, ¿qu茅 es lo que si podemos hacer?
- Organizaciones: Lo he venido sosteniendo desde hace alg煤n tiempo, las empresas tienen que crear una nueva posici贸n que dependa directamente del consejo de administraci贸n o junta directiva: Un director de 茅tica, (id贸neamente independiente del director de cumplimiento) que ayude a desarrollar y mantener pol铆ticas y procedimientos 茅ticos para el actuar y la toma de decisiones de empresas y sus integrantes con especial enfoque en las nuevas tecnolog铆as que utilice la organizaci贸n.
- Brechas laborales. Si en los 煤ltimos a帽os la educaci贸n y capacitaci贸n se ha democratizado, necesitamos acelerar en nuestras universidades y centros de trabajo programas que desarrollen habilidades para los nuevos puestos y funciones que la IA crear谩. Hoy en d铆a, ya existen puestos altamente especializados que requieren habilidades y conocimientos espec铆ficos (por ejemplo, rob贸tica, ciberseguridad, anal铆tica de datos, y automatizaci贸n de procesos por se帽alar algunos); pero tambi茅n funciones generalistas que requieren de menor especializaci贸n y pueden ser ocupados por personas con diferentes niveles de habilidad y experiencia (mencionemos algunos: servicio al cliente, la gesti贸n de la experiencia del usuario, la investigaci贸n de mercado, la gesti贸n de proyectos y la gesti贸n de datos).
- Academia: Necesitamos impulsar fuertemente el uso de IA en 谩mbitos acad茅micos. Estoy convencido de que se puede usar para plagiar, o se puede usar para impulsar la generaci贸n de conocimiento, todo depende del sistema de valores que compartan profesores, alumnos y universidades. Personalmente, aliento y solicito a mis alumnos a que la utilicen en la elaboraci贸n de sus trabajos. Obviamente, mi exigencia al calificar y la manera de evaluar, es mayor, ya que ahora tienen ayuda adicional.
Nuevamente y lo he estado repitiendo:
PRIMERO: No olvidemos que la inteligencia artificial NO va a venir a quitarnos nuestros trabajos, lo va a hacer una persona que sepa emplear la inteligencia artificial.
SEGUNDO: No es la herramienta, es el operador (esto es, el ser-humano).
Ep铆logo.— Se habla y se habla (mucho) de regular la IA y evitar que cause da帽os a la humanidad y bueno… todo lo que ya mencionamos l铆neas arriba. Lo que debe preocuparnos es… ¿Qui茅n va a ser el 谩rbitro que dicte las reglas? Estamos a un tris de caer nuevamente en el etnocentrismo, esto es, la tendencia de una cultura o forma de pensar a considerarse a s铆 misma como el est谩ndar de medida para evaluar y juzgar a partir de la creencia de que la propia cultura, valores, normas y formas de vida son mejores y m谩s adecuadas.
Comentarios
Publicar un comentario