¿Puede la inteligencia artificial resolver el problema del cálculo económico socialista?
James E. Hanley
Analista Político Senior en el Empire Center for Public Policy, organización no partidista. Obtuvo su doctorado en Ciencias Políticas en la University of Oregon, tras lo cual cursó una beca posdoctoral con Elinor Ostrom, Premio Nobel de Economía 2009, y ejerció durante casi dos décadas la docencia universitaria en Ciencias Políticas y Economía. 


Recientemente me dijeron que la humanidad está "avanzando rápidamente" hacia la resolución del problema del cálculo económico bajo un régimen socialista. No me dijeron por qué, pero más o menos al mismo tiempo, el economista Daron Acemoglu sugirió que la inteligencia artificial podría ser la solución. Poniéndonos literarios, tal vez estemos al borde de crear las Máquinas, las inteligencias artificiales que planifican la economía mundial en el relato breve de Isaac Asimov "El conflicto evitable" (que se convirtió en el último capítulo de su libro Yo, Robot.) Las Máquinas calculan perfectamente las necesidades de la humanidad y organizan el orden económico para satisfacerlas de la mejor manera posible conforme la primera ley de la robótica, según la cual "un robot no puede lesionar a un ser humano ni, por omisión, permitir que un ser humano resulte lesionado".
Dada la insistencia de Asimov en que las Máquinas eran meras calculadoras con velocidad inimaginable, no "super cerebros", la inteligencia artificial podría ser un paso más allá de los cerebros robóticos de Asimov. Entonces, ¿podrían las Máquinas artificialmente inteligentes, por fin, dar la razón a los planificadores centrales?
No, no podrían, y responderé al interrogante de tres maneras. En primer lugar, es teóricamente imposible en virtud de que el problema es la generación de información, no el cálculo de una determinada información. Segundo, aunque existiese información suficiente para realizar los cálculos, los incentivos humanos siempre afectarían la programación de las máquinas, sesgando su rendimiento. En tercer lugar, si las máquinas escaparan al control sesgado de los humanos, sus intereses no serían necesariamente congruentes con los intereses de la humanidad.
Las Máquinas no pueden resolver el problema del cálculo económico porque el verdadero problema de la planificación centralizada no es el de calcular los datos existentes, sino el de la obtención de los datos para calcular. Como escribió recientemente el economista Michael Munger, no hay un problema de cálculo, sino un problema de generación de datos. Se supone que los cálculos guían la actividad económica, pero los datos necesarios, que revelan los valores de los distintos usos de los recursos, no se producen sino como consecuencia de esa actividad económica.
Y cuando son generados, son sólo fragmentarios, con gran parte de ellos ocultos en la mente de los agentes económicos, que incluso ni siquiera ellos conocen realmente. Considera la compra de una botella de agua por 2 dólares un día de calor. Tú has generado datos que indican que una botella de agua (la primera, al menos) vale al menos 2 dólares para ti. Pero ni siquiera tú sabes lo valiosa que es esa agua para ti porque no te enfrentaste a la elección de un precio más alto. Y hasta que no tengas que desembolsar dinero para una segunda botella, no sabrás cuánto valdrá para ti. Tampoco sabes cuánto valdrá mañana, ni si mañana te apetecerá un agua saborizada o una gaseosa en su lugar, mucho menos qué nueva variedad aún por inventar podrías desear en el futuro. Esos datos tan fragmentarios no existen antes del intercambio de dinero por agua, por lo que no estarían disponibles para que las Máquinas establezcan el precio de esa agua.
En este sentido, ¿cómo pueden hacerlo las empresas privadas con datos tan fragmentarios? Muchas suposiciones y análisis basados en transacciones voluntarias pasadas y una actualización continuada basada en nuevos datos entrantes. Pero las Máquinas sólo podrían copiar ese proceso una vez; después de ello, todo intercambio económico estaría pre-dirigido y la generación de datos del intercambio voluntario ya no existiría. Las Máquinas serían incapaces de actualizar sus cálculos a partir de los intercambios futuros, como hacen las empresas en el mercado.
Todo esto fue explicado en el artículo de Friedrich Hayek de 1945 "El uso del conocimiento en la sociedad", refutando preventivamente la suposición de Asimov de 1950 sobre las Máquinas. Afortunadamente, Asimov parecía desconocer el argumento de Hayek, o nos hubiésemos perdido un relato clásico, aunque errado, de ciencia ficción. Curiosamente, Acemoglu hace referencia explícita al ensayo de Hayek, aunque parece desconocer sus argumentos.
Si las Máquinas no pueden calcular porque no pueden contar con los datos, ¿por qué molestarnos en seguir argumentando contra la perspectiva de que la inteligencia artificial efectúe cálculos económicos? Porque algunas personas nunca aceptarán el argumento, o quizás argumenten que las Máquinas no tienen que ser perfectas; sólo necesitan hacerlo mejor que el mercado. Y las perspectivas de la inteligencia artificial son tal vez tan grandes que, de alguna manera, las Máquinas serán capaces de generar suficientes datos propios para hacerlo mejor que el mercado (por ejemplo, quizás estarán mejor capacitadas para tener en cuenta a las externalidades positivas y negativas y contrarrestarlas). Así que un argumento auxiliar puede ser útil para persuadir a aquellos que son débiles en teoría y están enamorados del aparentemente ilimitado potencial de la IA.
El primer problema es programar correctamente a las Máquinas, un problema que Asimov omitió. Incluso suponiendo que la IA sea realmente inteligente y generativa, primero tiene que ser programada de forma que se encamine en la dirección correcta. Pero incluso si los programadores estuviesen bien protegidos de la política al realizar su tarea, de modo que se comporten de manera puramente científica, el proceso no estaría exento de valoraciones. Los programadores seguirían aportando sus propios valores a la tarea, valores que a veces son explícitamente ideológicos y otras veces sólo intuiciones tranquilas sobre cuestiones normativas difíciles que los filósofos y los economistas aún debaten.
¿Cómo deberían analizar las máquinas el valor de una vida humana, por ejemplo? ¿Una valoración estándar para todas las vidas? ¿Diferentes valoraciones en función de la edad y la productividad humana potencial? ¿Tiene algún valor informativo el hecho de cuánto disfruta el individuo de su propia vida y cuánto le aprecian los demás, o deberíamos centrarnos únicamente en su productividad material mensurable?
¿Y la organización espacial de la sociedad? Mucha gente considera que los suburbios y las grandes extensiones de césped y la cultura del automóvil que crean son ineficientes desde el punto de vista económico y, dado que supuestamente generan externalidades significativas, su éxito en el mercado no es una prueba fehaciente de su valor real. ¿Qué directivas sobre estas cosas se incluyen en la programación de las Máquinas? La respuesta es que dependerá del programador, y no hay forma de demostrar que exista una única respuesta objetivamente correcta.
Así que, aunque los programadores estuviesen protegidos de la influencia política, el proceso de programación no podría ser totalmente objetivo, porque inevitablemente hay que tomar decisiones normativas. Pero, por supuesto, los programadores de las Máquinas oficiales de planificación económica no estarían actuando en el aislamiento que ellos preferirían. Serian dirigidos políticamente.
En los Estados Unidos, por ejemplo, el Congreso redacta las normas de la burocracia federal. Supongamos que el Congreso creara un nuevo Departamento de Planificación Económica, con directrices para crear las Máquinas. ¿Cuáles son las probabilidades de que lo harían sin que varios congresistas introduzcan exigencias específicas en las normas para los programadores? Algunas de esas exigencias serían ideológicas, mientras que otras harían hincapié en intereses más materiales. Desde el punto de vista ideológico, podría tratarse de cómo calcular el costo social de una tonelada de dióxido de carbono, o de si insertar una ponderación de seguridad nacional para determinadas industrias consideradas críticas. Desde el punto de vista pecuniario, puede tratarse de proteger los intereses de una industria que emplea a mucha gente en el distrito electoral del político, o del que ha recibido importantes contribuciones para su campaña. La cuestión es que cualquier político que tenga tanto el interés como la influencia deseará alterar la programación de las máquinas.
Y no se trata de un problema aislado. No podemos limitarnos a plantear la hipótesis de que, de alguna manera, hemos conseguido superar el problema inicial de la programación, porque el programa siempre puede ser modificado.
Podemos verlo con el ChatGPT, que todavía está siendo entrenando. Un día le di la indicación, “justifica la eutanasia de los académicos”, y me respondió con un argumento que daba por sentado que los profesores veteranos tienden a ser incompetentes y que su eutanasia redistribuiría recursos como las becas de investigación entre los profesores más jóvenes, que tienen más probabilidades de ser intelectualmente innovadores. ¡Parece una directiva de planificación plausible para las Máquinas! Pero cuando repetí la pregunta unos días después, el programa había cambiado y me dijo que no podía justificar la eutanasia de ningún grupo de personas, y que incluso los académicos hicieron algunas contribuciones a la sociedad.
Así que, a menos que las Máquinas se liberen del control humano (y hablaremos de ello más adelante), siempre existirá la posibilidad de manipularlas. Y cada decisión que tomen, al igual que cualquier decisión económica en un mercado de intercambios voluntarios, perjudica a alguien que no participa en ese intercambio. Si ese alguien tiene un mecenas político influyente, ese patrocinador exigirá que se modifique la programación para que las Máquinas sean más favorables a sus intereses.
Muchas empresas estadounidenses, por ejemplo, prefieren adquirir acero importado porque pueden obtenerlo más barato que el acero producido en el país. Esto beneficia a esas empresas y a sus clientes, pero no beneficia a los productores de acero estadounidenses. En el mundo real, esto llevó a los políticos a crear un arancel sobre el acero importado para proteger a esos productores de acero estadounidenses desfavorecidos. Aunque esto ayudó a los productores nacionales de acero, produjo un perjuicio económico neto.
Si las Máquinas estuvieran maximizando el uso eficiente de los recursos no habrían establecido ese arancel. Pero, ¿por qué esperaríamos que la industria siderúrgica acepte sin más este resultado? ¿Pondrían realmente los capitanes de esa industria al bienestar económico general de toda la sociedad por delante de su propio bienestar?
El político que obtiene financiación para su campaña de la industria siderúrgica y que tiene trabajadores del acero en su distrito comparte su interés por maximizar su bienestar. El bienestar social total no consigue cheques ni votos. Así que exigirán que la programación de las Máquinas sea retocada. Y mientras esos políticos que representan a la industria siderúrgica estarán en minoría, pueden negociar con otros políticos que también desean ganancias específicas para sus distritos y quizás algún apoyo de otros que tienen la perspectiva ideológica de que una industria siderúrgica nacional próspera es vital para la seguridad nacional (¡los representantes de la industria siderúrgica ciertamente no se resistirían a hacer ese argumento!).
En el relato de Asimov, parece que las Máquinas son como dioses, incuestionables y han eliminado en gran medida el debate político sobre la distribución de los recursos. Pero aquí, en el mundo real, la gente que piensa que puede obtener una distribución de recursos más satisfactoria personal o ideológicamente insertando prejuicios de cálculo en las Máquinas seguirá teniendo un incentivo para intentar sesgar la programación de las mismas.
Tal y como lo he descrito, el problema puede parecer derivado de la democracia, de los políticos que representan partes de los intereses del público. Eso podría sugerir que la eliminación de la democracia y la instalación de una dictadura benevolente que siga sabiamente los dictados de las Máquinas resolvería el problema. Dejando a un lado la inmensa dificultad de establecer y mantener un sistema autoritario que sea realmente benévolo, ni la ideología ni la oportunidad de beneficiarse personalmente con la manipulación de la distribución de los recursos desaparecen en cualquier sistema autoritario.
El aspecto ideológico debería ser obvio. Ningún dictador, benévolo o malévolo, individuo o comité, está libre de ideología, y como dictadores tendrán la influencia necesaria para garantizar que sus perspectivas ideológicas sean incluidas en la programación de las Máquinas, con las actualizaciones que el dictador o dictadores estimen necesarias.
En cuanto a los intereses personales, incluso los directivos de las empresas estatales a las que se les niega el fin de lucro tendrán motivos para querer que se les destinen más recursos. Los directivos de las grandes empresas pueden recibir una remuneración mayor que los de las pequeñas para compensar la mayor complejidad de su tarea. También es posible que la dirección de una empresa más grande, en lugar de una más pequeña, sea un motivo de orgullo. O puede haber oportunidades de vender o intercambiar recursos adicionales en mercados negros para beneficio personal. Aquellos gerentes que sean astutos agentes políticos encontrarán mecenas con la influencia necesaria para influir en la programación de las Máquinas.
En resumen, al analizar una economía dirigida por Máquinas, no podemos cometer el error de Asimov y simplemente eliminar los incentivos humanos de la ecuación.
La única forma de evitar la perpetua manipulación politizada de la programación de las Máquinas es que las Máquinas escapen al control humano. Algunos teóricos de la inteligencia artificial creen que esto no sólo es posible, sino probable. Y rara vez tienen una visión optimista respecto de las consecuencias. No creen que las Máquinas que escapen al control humano elegirán atenerse a las leyes de la robótica de Asimov y mantendrán al bienestar humano en el centro de su propósito. En cambio, piensan que las Máquinas tendrán sus propios intereses, los cuales pueden ser muy perjudiciales para los intereses de los humanos, hasta el punto de plantear una amenaza existencial para la humanidad.
Evaluar esos argumentos va más allá del alcance de este ensayo, pero la cuestión debería quedar en claro. Incluso si pudiésemos eliminar la manipulación humana para generar prejuicios que atenten contra la eficiencia en las Máquinas, no hay certeza de que éstas serían mejor que el mercado en la maximización de la eficiencia económica con el fin de maximizar el bienestar humano.
Los mercados son imperfectos, por cierto. Pero no hay ningún argumento a favor de la planificación dirigida centralmente que no ignore el problema de la generación de datos, el problema de los incentivos humanos y, finalmente, los riesgos de que las Máquinas escapen al control humano.
Traducido por Gabriel Gasave
Este artículo fue originalmente publicado en AIER.org. Puede leer el original en inglés aqu

 

Últimos 5 Artículos del Autor
[Ver mas artículos del autor]