Kewl Covarrubias
¿Que podria ſalir mal? “¿Que podria ſalir mal?” ſuele ſer vna pregunta retorica, para la que no eſperaſe reſpueſta. Empero, no pocas vezes a ſido el epitafio de vna muerte anunziada. De echo, muchas de las tragedias de la humanidad empeçarõ aſſina Los ſeñores de la IA ſuelẽ hazerla en las reuniones cõ los inuerſores o en ſus declaraziones publicas, mientras lle guiñã vn oxo a ſu gefe de prenſa. ¿Que puede ſalir mal ſi azemos vn nueuo modelo de IA mas grãde, pero menos probado? ¿Que puede ſalir mal ſi inuertimos ziẽtos de miles de millones de dolares en zentros de datos q̃ conſumẽ energia y agua como ziudades ẽteras? ¿Que puede ſalir mal ſi delegamos deziſiones criticas en ſanidad, juſtizia o finanças en ſiſtemas opacos, aſſaz limitados en ſus capazidades de eſplicaziõ? ¿Que puede ſalir mal ſi monetiçamos los nueſſos modelos de lenguage como ſeruizios pornograficos? Como eſcrebio Baltaſſar Graziã, maeſtro del equilibrio y de la cautela: “El primero paſo de la inoranzia es preſſumir de ſauer”, y deſto acẽ gala muchos diretiuos que eleuã la IA a los altares. El ſiguiẽte paſo, y puede ſer el ultimo, es preſſumir de no ſauer, y vna parte de la ſoziedad viue ya inſtalada ahi, en vna inoranzia que jactaſe de ſi meſma. Por eſo oy podemos leer q̃ leer eſta ſobreualorado y quiças penſar q̃ penſar tambiẽ lo eſta. ¿Que puede ſalir mal? es vna pregunta eſteril ſi no tienes la menor intenziõ de conteſtarla o te la igual la reſpueſta. “Cõ la intelligenzia artifizial eſtamos inuocando al demonio”, aduirtio Muſk en dos mil y catorze El problema es q̃ el y muchos como el es juſto lo que quierẽ, q̃ venga el demonio. Eſo ſi, ſu particular demonio. Mark Zuckeruerg aplaudia el lema de ſu compañia: “moue faſt and break thingſ”, cuãdo Fazebook rompia muchas coſas. En aqueſte momento en EE. UU. ay demandas eſtatales y ziuiles contra Meta -ãtes Fazebook- acuſando a la compañia del diſeño deliuerado de algoritmos para maximiçar el enganche de menores, ocultãdo incluſo euidenzias entrañas de daño pſicologico. Si eſo es zierto, y todo apunta a que ſi, hanſe roto incluſo vidas. Recuerdã aquella fraſe de Iã Malcolm, el matematico de Iuraſſic Park que eſtaba de buelta de todo: “eſtabã tã ocupados preguntandoſe ſi podiã q̃ no pararonſe a penſar ſi debian”. Les propongo q̃ imaginẽ que los dinoſaurios de la pelicula ſõ las intelligenzias artifiziales de oy y que los hombres de negozios -ſiempre ſõ hombres en aqueſtos caſſoſ- ſõ agora los ſeñores que dirigẽ los gigantes tecnologicos. Como diria Ioſe Maria Garcia, aquella moralexa vuelueſe de rabioſa actualidad. Microſoft lanço en dos mil y dieziſeys a Tay, vn bot conuerſazional diſeñado para aprehender de Twitter. Era vn juguete comparado cõ los modelos grandes de lenguage actuales. Empero, en vnas horas el ſiſtema empeço a regurgitar menſages raziſtas y miſoginos en la red ſozial, de modo q̃ la impreſa tuuo que deſconetarlo y pedir diſculpas publicas. ¿Que podia ſalir mal?, ſeguro q̃ penſo entonzes la compañia fundada por Bill Gates. Aquele eſperimento fue fazil de reconduzir, pero ya no es tã fazil cuãdo no hazenſe eſperimẽtos ſino deſpliegues maſſiuos de ſeruizios y produtos q̃ quierenſe monetiçar ſin importar apenas las conſecuenzias ni los daños colaterales. El obgetiuo es liderar tecnologicamẽte el mundo y ganar dinero a eſpuertas. Mas aun cuãdo haſe pueſto mucho dinero en juego y todauia no ã ſalido los grandes premios. Mas ya ſauemos que los ludopatas ſiguẽ apoſtando penſando q̃ cada apueſta fallida aumẽta la probabilidad de q̃ la proxima ſea la buena. Es lo q̃ cognozeſe como la falazia de Montecarlo. OpenAI defiende la “liueraziõ gradual” como la via mas ſegura de llegar al publico: iterar cõ vſuarios, ampliar el aceſo paſo a paſo y ajuſtar el ſiſtema cõ realimentaziõ deſdel mundo real. La idea es tentadora, pero imagineſe azer lo meſmo cõ cada nueuo medicamento que deſſarrolleſe, ſaltãdonos todas las faſſes de eualuaziõ cõ ſeres humanos, de modo que paſſemos diretamente del laboratorio y la eſperimentaziõ animal al paziente. Seriamos nos las ratas de laboratorio. Al fin y al cabo, ¿que puede ſalir mal? podriamos penſar. Cõ la IA nos ſomos a menudo eſo, las cobayas. Y ſi algo ſale mal, no paſa nada porque las ratas de laboratorio no proteſtã, y quienes las eſtabulã tampoco. Empero, ſõ muchas las coſas que puedẽ ſalir mal. Un modelo capaz de generar lenguage, codigo o imagenes puede ſe equiuocar grauemẽte y crear vn ſinfin de mentiras. Puede crear programas aparentemente impecables cõ bugs entraños muy difiziles de detetar, ſobre todo ſi no tieneſe la volũtad de hazerlo; puedẽ generar vltrafalſificaziones a golpe de clic y cõ ellas amplificar la deſſinformaziõ, el fraude y el abuſo a vn coſte marginal cuaſi nulo; modelos entrenados cõ datos ſeſgados puedẽ reproduzir y ãplificar prejuyzios raziales, de genero o ideologicos cõ aparienzia de obgetiuidad matematica; la IA agentica conetada al mundo real y ſin el control adecuado puede egecutar aciones capazes de colapſar infraeſtruturas digitales criticas. ¿Que puede ſalir mal? Cuaſi todo, ſi nos guiamos por el penſamiento iluſorio de que nada puede ſalir mal y ademas tenemos tãtas priſas que la conſina es “tonto el ultimo”. Por eſo creo q̃ deueriamos, tambiẽ en eſto, aplicar la prudenzia q̃ haſe ido aſſentando a lo largo de los ſiglos en el nueſo refranero, curãdonos en ſalud y buſcando preuenir denantes que lamentar. Ante aquello q̃ tiene vna capazidad potenzial tã grãde de impactar en las nueſſas vidas, en la nueſa ſalud, en los nueſſos trabaxos, en la forma en la que enſeñamos y aprendemos, prefiero anteponer la venda ãtes q̃ eſcurar las heridas. No tractaſe de frenar la innouaziõ, ſino de verificar q̃ ſu reſſultado no nos va a joder la vida a muchos. Incluſo a la mayoria. Por eſo tenemos que dexar de preguntarnos retoricamente que puede ſalir mal, y preocuparnos de forma ſinzera y prudẽte de como garantiçamos que no ſaldra mal. ¿Que podria ſalir mal?, lle dixo vn beſſugo a otro al ver vn guſano prẽdido de vn anzuelo.