Clásico Piquetero. Ciber-comunismo. Planificación económica, computadoras y democracia. Paul Cockshott y Maxi Nieto (Editorial Trotta 2017)

en Aromo/El Aromo n° 119/Novedades

La discusión acerca de la viabilidad de la planificación económica es central para un proyecto socialista. Los burgueses se limitan a considerar que el fracaso económico reiterado del capitalismo en todos los puntos del planeta es contingente y coyuntural, y que los problemas que la planificación socialista encontró son esenciales e insuperables. Contrariamente consideramos necesario realizar un debate entre dos formas sociales que administran sus recursos de manera antagónica, e incorporar a ese debate los grandes avances que, en materia de gestión de información compleja, y manejo de datos se han realizado, fundamentalmente, en el último cuarto de siglo. Un aporte fundamental porque mientras que las crisis del capital no se solucionan, los inconvenientes de la planificación encuentran día a día más y mejores respuestas para resolverlos. Ofrecemos, para conocimiento de los militantes y del conjunto de los trabajadores, un fragmento de uno de esos aportes, del libro Ciber-Comunismo de Cockshot y Nieto.

El trabajo es el recurso universal esencial en toda sociedad, antes de que se llegue a una robotización completa. De acuerdo con la versión completa de la tesis de Church-Turing, si un problema se puede resolver mediante un conjunto distribuido de computadores humanos, también lo puede resolver un Computador Universal. Si lo puede manejar un conjunto distribuido seres humanos, también es algorítmicamente manejable cuando lo calculan los computadores de una agencia de planeación socialista. Los factores que hacen que el sistema de precios sea relativamente estable y útil son los mismos que hacen manejable el cálculo económico socialista. Computar el valor en trabajo de cada producto es manejable puesto que los valores-trabajo pueden ser usados cómo base de la asignación de precios en una economía planificada, transmitiendo básicamente la misma información que transmiten los precios.

Habiendo demostrado que es manejable procesar centralizadamente abundante información económica, vamos a considerar ahora su deseabilidad. Cuando se concibe el cálculo económico como un proceso computacional, las ventajas de calcular sobre una base distribuida o descentralizada no son tan evidentes, la cuestión gira en torno a cómo se interrelacionan la diversidad de datos sobre las posibilidades de producción en diferentes ramas de la economía. La interrelación de los datos es, parcialmente, una imagen en el campo de la información de la verdadera interrelación de ramas en la economía. Los productos de una actividad constituyen insumos para otra: esta es la interdependencia real. Además, existen interacciones potenciales donde diferentes ramas de la producción funcionan como usuarias alternativas de insumos.

Es importante distinguir los dos tipos de interacción. La primera representa los flujos reales de materia y es una propiedad estática de la economía. La segunda, la variación en los usos potenciales de los bienes, no es una propiedad de la economía real sino de un espacio de fases (o diagrama de fases) de posibles economías. La última forma parte del problema económico en la medida en que se considera como una búsqueda de puntos óptimos en ese espacio de fases. De acuerdo con la teoría económica neoclásica, la evolución de una economía de mercado real – las interdependencias reales entre ramas- proporciona el procedimiento de búsqueda para hallar esos puntos óptimos. La economía describe una trayectoria a través de su espacio de fases. Esta trayectoria es el resultado de las trayectorias de todos los agentes económicos individuales, que deciden su próxima posición basándose en la información que obtienen del sistema de precios.

Retomando la metáfora de Hayek sobre el sistema de precios como un sistema de telecomunicaciones o como una máquina registradora de cambios, la economía de mercado en su conjunto operaría como un solo procesador. Un solo procesador porque cualquier punto del tiempo podría convertirse en un único vector de estado que define su posición dentro del espacio de fases del problema económico en cuestión. Además, este procesador opera con un ciclo temporal muy lento, ya que la transmisión de información está limitada por la tasa de cambio de los precios. Para producirse una alteración en los precios, debe haber un cambio en el movimiento real de los bienes (dejamos aquí de lado el reducido número de los mercados futuros altamente especializados). Así, la velocidad de transmisión de la información está sujeta a la rapidez con la que los bienes reales pueden moverse o las nuevas instalaciones se ponen en marcha. En resumen, una economía de mercado lleva a cabo una búsqueda de un solo subproceso a través de su espacio de fases, con una serie de ajustes a su posición relativamente lento, siendo determinada la velocidad de estos ajustes en función de la rapidez con la que se mueva la economía real.

Ahora comparemos esto con lo que potencialmente se podría hacer si los hechos relevantes pudieran concentrarse, no en un único lugar -lo que sería imposible- sino dentro de un pequeño espacio. Si la información se recoge en una o más máquinas de computación, éstas pueden buscar el espacio de fases posible sin ningún cambio en la economía real.

En este punto, la cuestión de concentrar o no la información resulta muy pertinente. Es una propiedad básica del universo que ninguna de sus partes puede afectar a otra en menos tiempo de lo que le lleva a la luz propagarse entre ellas. Supongamos que tenemos toda la información relevante repartida en todo el país a través de una red de ordenadores. Asumamos que cualquiera de ellos puede enviar un mensaje a cualquier otro. Supongamos que esta red ha sido instruida para simular posibles estados de la economía, con el fin de hallar los puntos óptimos. La evolución de un estado simulado a otro podría producirse tan rápido como los ordenadores pudieran intercambiar información con respecto a su propio estado. Dado que las señales electrónicas entre ellos viajan a la velocidad de la luz, esto sería de lejos mucho más rápido de lo que puede evolucionar una economía real.

Cuando la centralización ayuda

El que la planificación se implemente utilizando superordenadores centrales o una red distribuida de máquinas locales, o cualquier combinación de estas, es una cuestión práctica relacionada con la tecnología disponible. No obstante, la centralización presenta una serie de ventajas prácticas para ciertas instalaciones de control y computación.

La velocidad con la que puede funcionar un aparato de toma de decisiones complejas depende tanto de lo rápido que pueda propagarse la información a través de este mismo, como también de lo rápido que sus componentes individuales puedan responder a esta información. Uno de los argumentos contra el mercado sería que las señales de precios que transmite tienen una tasa de propagación relativamente lenta, excepto en el caso de los mercados financieros. Esto se debe a que los cambios en los precios se manifiestan a través de cambios en la producción y su frecuencia está vinculada a la tasa a la que puede ajustarse la capacidad productiva. Esto implica un ciclo temporal relativamente largo y muy costoso (generalmente los ciclos económicos se miden en una duración de 3 a 7 años). En contraste, un sistema de planificación cibernética podría calcular las implicaciones en bienes intermedios y de capital de un cambio en la demanda del consumidor en horas o a lo sumo días. Su velocidad dependería de si el cálculo utiliza técnicas de computación distribuidas o centralizadas.

Un componente del sistema de control cibernético debe ser distribuido. Es evidente que son las fábricas de Airbus las que tienen la información sobre qué piezas se utilizan para fabricar un A340, y las fábricas de coches tienen la información sobre qué piezas se utilizan para fabricar un Mondeo. Esta información se aproxima a lo que Hayek y la escuela austríaca de economía llaman conocimiento tácito o contextual -pero es obvio que aquí ya no se trata de conocimiento humano-

Literalmente, nadie sabe qué piezas se utilizan en un A340. Esta información, demasiado extensa como para que la maneje un humano, se almacena en una base de datos relacional. En un estadio más temprano de desarrollo industrial, se hubiera tratado mediante un complejo sistema de registro sobre el papel. De nuevo, el conocido habría sido objetivo -residiendo en los objetos más que en los cerebros humanos-. La posibilidad misma de llevar a cabo una actividad industrial coordinada de gran escala descansa sobre la existencia de esta información objetivada.

La información para construir la “explosión de partes” se genera a través de un proceso de diseño computarizado dentro de las fábricas en colaboración de Airbus Industries. En una economía socialista controlada cibernéticamente, la información de la explosión de partes del A340, junto a la información de la explosión de partes de otros productos, serían combinados computacionalmente a fin de llegar a un plan de producción equilibrado.

Esta computación se podría efectuar tanto a través de una vía distribuida como centralizada. En un caso procedería por medio del intercambio de mensajes entre los ordenadores locales mientras en el otro, los datos de la explosión de partes se transmitirían a un centro de procesamiento único a fin de ser manejados por super-ordenadores paralelos.

Si se utilizan procesadores paralelos altamente distribuidos, la velocidad de la computación tiende a ser mucho más lenta que cuando se usan máquinas paralelas estrechamente acopladas. Si la computación requiere la inter-comunicación extensiva de información -como ocurre en el equilibrio económico- entonces se halla limitada por la velocidad de transmisión de los mensajes de una parte a otra del sistema computacional. Un sistema de computación estrechamente acoplado con n procesadores tenderá a computar más rápidamente que un sistema distribuido con n procesadores equivalentes. (…)

¿Es la coordinación manejable?

Se podría argumentar que la mera escala del problema económico está el que, aunque concebible en principio, este cálculo sería irrealizable en la práctica (Hayek, Nove). Dada la tecnología informática moderna esto está lejos de ser el caso. Sin embargo, los economistas neoclásicos y los de la escuela austriaca tienen un concepto del equilibrio muy diferente al nuestro. Nuestro concepto es el del equilibrio estadístico tal y como lo describen Farjoun y Machover. El equilibrio estadístico no es un punto en el espacio de fases, sino una región definida por ciertas variables macroscópicas, de forma que hay un amplio grupo de condiciones microscópicas compatibles con él. El concepto de equilibrio con el que estaba familiarizado Hayek era el del equilibrio mecánico, una única posición en el espacio de fases en el que todas las fuerzas que actúan en la economía llegan a equilibrarse. Arrow y Debreu supuestamente establecieron la existencia de este tipo de equilibrios para las economías competitivas, pero, como mostró Velupillai, sus pruebas descansan en teoremas que únicamente son válidos en matemáticas no constructivas.

¿Por qué tiene relevancia el hecho de que Arrow utilizarse matemáticas constructivas o no constructivas?

Porque únicamente las matemáticas constructivas tienen ejecución algorítmica y está garantizado que son efectivamente computables. Pero sí:

1 se puede probar que existe un equilibrio económico,

2 se puede mostrar que hay un procedimiento efectivo por medio del cual se puede determinar: esto es, que el equilibrio es en principio computable,

todavía quedaría la cuestión de si su computación es factible. ¿Qué orden de complejidad rige el proceso de computación que llega a la solución?

Supongamos que existe un equilibrio, pero que todos los algoritmos que lo buscan son NP-complejos, esto es, que los algoritmos tienen un tiempo de ejecución que es exponencial al tamaño del problema. Esto es justamente lo que han demostrado Deng y Huang. En principio podría parecer que sus resultados respaldan la crítica de Hayek de que el problema de la planificación económica racional es imposible de resolver computacionalmente. En la época de Hayek, la noción de NP-complejidad no había sido inventada, pero parecería que ha sido defendida de manera retrospectiva. Los problemas con un coste computacional que crece cómo Oen pronto se convierten en astronómicamente difíciles de resolver.

Utilizamos “astronómicamente” en un sentido literal. Se puede especificar claramente un problema NP-complejo que entraña buscar más posibilidades que átomos hay en el universo antes de llegar a una respuesta definitiva. Este tipo de problemas, aunque en principio finitos, están fuera de toda solución práctica.

Pero esta es un arma de doble filo. De una parte, enseña que ningún ordenador en la planificación puede resolver el problema neoclásico del equilibrio económico. De la otra, muestra que tampoco millones de individuos interactuando a través del mercado podrían resolverlo. En la economía neoclásica el número de límites al equilibrio será proporcional a

(entre otras cosas) el número de actores económicos n. El recurso computacional que constituyen los actores será proporcional a n pero el coste de computación crecerá como En. Mientras los recursos computacionales crecen linealmente, los costes computacionales lo hacen exponencialmente. Esto significa que una economía de mercado nunca tendría los recursos computacionales suficientes para encontrar su propio equilibrio mecánico. Se sigue de ello que el problema de encontrar el equilibrio neoclásico es un espejismo. Ningún sistema de planificación podría descubrirlo, pero tampoco podría el mercado. Este problema neoclásico del equilibrio tergiversa lo que en realidad hacen las economías capitalistas, y al mismo tiempo pone objetivos imposibles para la planificación socialista.

Si se reemplaza la noción de equilibrio mecánico por la de equilibrio estadístico, se llega a un problema mucho más abordable. Las simulaciones descritas por Wright muestran que una economía de mercado puede converger rápidamente a este tipo de equilibrio. Pero como hemos argumentado anteriormente, esto es debido a que la regulación gracias a la ley del valor es computacionalmente tratable. La misma manejabilidad se puede explotar por temas de planificación socialista. La planificación económica no tiene que resolver los problemas imposibles del equilibrio neoclásico, simplemente tiene que aplicar la ley del valor de un modo más eficiente.

¿Pueden resolverse los millones de ecuaciones de la planificación?

Si asumimos que la economía conserva alguna forma de mercado para los bienes de consumo, como propuso Lange para proporcionar información sobre los requerimientos finales entonces el proceso para obtener un plan equilibrado es tratable.

(…)

El tiempo de cálculo requerido para una autoridad planificadora es lo suficientemente corto para poder realizar la operación diariamente. Al efectuar este cálculo, los planificadores llegan a las diferentes escalas de producción a las que la economía de mercado podría operar si fuera capaz de alcanzar el equilibrio. Para hacer frente a algún cambio exógeno, los planificadores pueden calcular la nueva situación de equilibrio y enviarles directrices a las unidades de producción para que se dirijan directamente hacia ella. Este movimiento directo implica la circulación física de bienes, establecer cimientos acondicionamiento de inmuebles, etc., y conllevaría un tiempo considerable.

Tenemos ahora dos tiempos, el tiempo de cálculo y el tiempo del ajuste físico. Si asumimos que el cálculo se lleva a cabo con un algoritmo iterativo, descubrimos que en la práctica convergerá de manera aceptable en una docena de iteraciones. Debido a que cada una de estas interacciones tarda unos pocos minutos en un superordenador, el tiempo total probablemente sería inferior a la hora. En una economía de mercado, aún tomando los supuestos más favorables sobre su capacidad para tender al equilibrio estable, las iteraciones individuales tardarán un tiempo proporcional al tiempo de ajuste físico. El período de relajamiento total sería alrededor de una docena de veces el equivalente en un sistema planificado (asumiendo doce pasos de convergencia)

Etiquetas:

2 Comentarios

Responder a Alejandro Lamónica Cancelar la respuesta

Your email address will not be published.

*

Últimas novedades de Aromo

Ir a Arriba