Iberoamérica






Resumen electrónico de EIR, Vol.XXIII, núm. 17

Versión para imprimir

Regrese al inicio

Ciencia y cultura

 

Qué es un ‘sistema’ económico

Dinámica y economía

por Lyndon H. LaRouche

15 de agosto de 2006.

Este escrito es, aunque sólo por inferencia, un prólogo a la conferencia del Comité de Acción Política Lyndon LaRouche (LPAC) que se transmitió por internet desde Berlín, Alemania, como parte de una serie de actividades realizadas ahí entre el 6 y el 8 de septiembre de 2006. El presente escrito sirve como resumen ampliado de una cuestión particular que representa un eje fundamental del discurso de tres horas y la forma diplomática de deliberación ahí, pero está hecho para publicarse por separado.

Prólogo: Sobre el tema de la economía física riemanniana

Para mediados de los 1930, el fundador de lo que ahora es esa rama de importancia decisiva de la ciencia física moderna conocida como biogeoquímica, el académico ruso Vladimir I. Vernadsky, ya había informado lo siguiente: que los procesos vivos se distinguen, mediante experimento, de las nociones comunes de la química, al reconocer el hecho de que los procesos vivos se organizan como un proceso dinámico, y que lo hacen de maneras especiales, maneras que contravienen la fe porfiada del reduccionista moderno en un dominio “estadístico–matemático” mecanicista.[1] Este uso del término dinámico, en el sentido con el que Vernadsky lo emplea en la química de los procesos vivos, lo había introducido por primera vez a la ciencia moderna Godofredo Leibniz al desenmascarar el error intelectualmente fatal del supuesto que saturaba esos modos cartesianos y afines del reduccionismo empirista moderno. Estos errores penetran, aun hoy, los estilos populares de enseñanza académica, la práctica de la mayoría de los economistas profesionales y la opinión popular.

No puede haber una comprensión sistemática competente de la naturaleza de la embestida actual de la gran crisis económica mundial ahora en marcha, ni de su solución, sin tomar en cuenta las implicaciones de ese uso del término “dinámica”.

Las implicaciones más profundas de este uso de la “dinámica” en el sentido del término del modo que lo emplearon Vernadsky y Leibniz antes, le quedan claros al estudiante y al profesionista por igual cuando consideramos las implicaciones más profundas del hecho saliente de que Leibniz implícitamente remonta su empleo de dinámica al uso que le daban al término griego dúnamis esos pitagóricos de suyo antieuclidianos y Platón, quienes representaban la oposición a los antiguos reduccionistas y sofistas pertinentes de su época, y también, más tarde, de manera implícita, en oposición a los seguidores del sofista Euclides.[2]

A su vez, las implicaciones aún decisivas de esta distinción de la introducción de Leibniz del término “dinámica” salen a relucir para los tiempos modernos de hoy, al referir la revolución que creó Bernhard Riemann en la ciencia física. A este respecto, Riemann ha de reconocerse como el principal sucesor tanto de Carl F. Gauss como de Lejeune Dirichlet, respectivamente. En consecuencia, en las circunstancias de la creciente crisis mundial actual, tiene que entenderse que la adopción de la perspectiva tanto de Kepler como de Riemann por parte de Albert Einstein, y de la noción de dinámica de Riemann, específicamente, por parte de Vernadsky, son consideraciones decisivas en cualquier intento competente por resolver la hoy ominosa crisis económica mundial vigente de toda la humanidad.

Recolección de estiércol vacuno en Uttar Pradesh, India. (Foto: ONU).

Los biocombustibles son hoy “una expresión de virtual idiotez implícita y culturalmente suicida”. (Foto: Stuart Lewis/EIRNS).

“El progreso de la cultura ha de medirse en ritmos de aumento de la antientropía del sistema, una orientación que incluye el cambio ascendente a una ‘densidad de flujo energético’ cada vez mayor en modalidades de producción y funcionamiento de la infraestructura económica básica”.
Dos vistas del interior del Toro Europeo Conjunto (o JET), un programa de investigación de energía de fusión. La imagen de la derecha muestra la formación de plasma. (Foto: jet.efda.org).

El problema por el cual abordo estas implicaciones científicas aquí, es que, en esencia, se han dado dos errores metodológicos que han representado los factores principales en definir la persistente incompetencia acostumbrada de la prognosis y el producto relacionado que presenta la labor de los economistas y gobiernos más notables de Estados Unidos de América y Europa Occidental y Central, hasta la fecha. Hablo de los errores metodológicos que fueron imponiéndose cada vez más en el intervalo posterior a 1945, cosa que condujo a la crisis de desintegración del sistema de tipos de cambio fijos de Bretton Woods de 1967–1972, y ha llevado al mundo, desde entonces, a la crisis de desintegración económica mundial hoy en marcha.

Primero, hago hincapié en los efectos destructivos acumulativos de los métodos empleados en las últimas cuatro décadas, en particular, para definir las medidas económicas de largo plazo en las Américas y Europa. Éstos que ahora imperan son la mezcla del método mecanicista científicamente incompetente de René Descartes, con los métodos sofistas igual y de suyo incompetentes de la prognosis de largo plazo que tienen como premisa el rizoma tanto de los dogmas de la escuela Haileybury de la Compañía de las Indias Orientales de fines del siglo 18 y del 19, como de los ecos marxistas de esa escuela. Segundo, hago hincapié en que la ideología administrativa que ahora impera en los principales círculos de gobierno pertinentes, la administración de empresas, y entre los economistas en general, ha sido predominantemente incompetente a un grado relativo más allá de nada antes visto en esas naciones en la primera parte de nuestro siglo anterior.

Así, en vista de que los gobiernos de los tiranos fascistas o favorables a los fascistas del período de 1922–1945 en Europa fueron perversos, ha de admitirse que tuvieron la ventaja práctica de gobernar sociedades en las que había una cierta competencia en los aspectos técnicos de corto plazo de la administración física y, a ese respecto, en ocasiones fueron muy eficientes y peligrosos para la civilización en general. Mientras que la horneada actual de destacados grupos financieros implícitamente fascistas y comparables, de los que no es más que típico el caso del Félix Rohatyn de las redes sinarquistas, carece de la aptitud técnica en la administración física de cualquier forma de economía real; en consecuencia, el predominio de estos últimos, por sí mismo, garantiza un pronto derrumbe físico general de la civilización mundial, si la horneada actual de monetaristas radicales consigue cuando menos el mero mando temporal de la economía mundial.

La raíz de la ciencia económica actual

La clave necesariamente integral para entender la función de importancia decisiva de la obra de Godofredo Leibniz en la ciencia física del siglo 19 y después, y el impacto de esa práctica científica en los logros de la economía física moderna, es la intervención de Abraham Kästner (1719–1800). Kästner fue el defensor declarado y capaz de la perspectiva original tanto de Leibniz como de Juan Sebastián Bach, y un destacado profesor de matemáticas del siglo 18, entre cuyos estudiantes prominentes se contaba Carl F. Gauss.[3] El siguiente resumen de los antecedentes históricos más pertinentes se hace necesario.

El cardenal Nicolás de Cusa, una destacada personalidad del Renacimiento del siglo 15, había revivido, de forma más notable en su De docta ignorantia y sus escritos subsiguientes, los principios culturales griegos clásicos esenciales de lo que devino en la civilización europea moderna, y lo hizo en base a esa perspectiva preeuclidiana de la geometría que hoy representan para nosotros Tales, los pitagóricos, Sócrates y Platón. Las implicaciones generales de la obra de Cusa la concretan por primera vez tanto sus partidarios explícitos como los de sus seguidores Luca Pacioli y Leonardo da Vinci, en los descubrimientos originales del seguidor de Cusa, Johannes Kepler. Los descubrimientos revolucionarios de éste último sentaron las bases sobre las cuales se ha centrado todo logro importante de la ciencia física europea desde entonces.[4]

La división entre Kepler y sus principales adversarios modernos, una división entre la opinión competente y la reduccionista sobre temas de ciencia física, había proseguido como un debate más o menos abierto hasta la época de la muerte de Leibniz, del modo que una forma parecida de opinión reduccionista continuó desde la escandalosa obra de John Wenck de fines del siglo 15, y con el ataque explícito del experto espía veneciano y consejero matrimonial de Enrique VIII de Inglaterra, Francesco Zorzi, contra la obra de Cusa. Con el ascenso al poder de un enemigo político de Leibniz en Londres, el otrora aliado de Guillermo de Orange, Jorge I de Inglaterra, el conflicto entre Leibniz y sus adversarios reduccionistas se transformó, de la calidad de un debate, a una inquisición. Se sometió la reputación e influencia de Leibniz a una calidad inquisitorial de difamación mentirosa y persecución relacionada, que continuó durante casi medio siglo después de la muerte de Leibniz.

Esta campaña inquisitorial la coordinaron, desde París, el abad veneciano Antonio Conti y su red voltaireana de salones que había establecido y guiado hasta su muerte en 1749. Ésta fue la red de salones que tramó el fraude empirista de individuos tales como D’Alembert, De Moivre, Euler, Lagrange y sus compinches, mismo que Carl F. Gauss desenmascaró en su disertación doctoral de 1799.

La resultante “edad oscura” relativa de principios del siglo 18 en la ciencia continuó hasta que las obras de Gotthold Lessing y Moisés Mendelssohn encendieron el clasicismo alemán, obras que inspiraron la difusión de esa visión clásica en el ámbito internacional, una insurgencia clásica que continuó desde el tratado de París de febrero de 1763 hasta más o menos la época tanto de la convención constituyente de EU como de la Revolución Francesa a la que dio inicio el agente británico Philippe Égalité en julio de 1789. Este movimiento clásico de fines del siglo 18 propició el renacimiento de una facción prominente que representaba el espíritu científico previo a 1714 asociado con la obra de Leibniz durante su vida.

Entre las ramas enteras de la ciencia moderna que fundó, el Leibniz de gran polimatía dio origen a la de la economía física, en el transcurso de su trabajo en el intervalo de 1671–1714. Fue esta ciencia de la economía física, establecida por Leibniz, la que informó el diseño del Sistema Americano de economía política que es hoy la única alternativa sistemática significativa en todo el mundo a la trama liberal angloholandesa hegemónica en Europa Occidental y Central, y más allá. El conflicto trasatlántico entre los patriotas, asociado con la causa de la Revolución Americana de 1776–1789, por un lado, y en la propia Norteamérica, los agentes británicos, los tories estadounidenses, era lo que aún hoy representa el conflicto más pertinente entre el Sistema Americano de economía política y el sistema liberal angloholandés implícitamente imperialista.

El centro de este avance de lo que devino en el Sistema Americano de economía (física) política, tiene sus raíces en sucesos relacionados en los campos estrechamente relacionados del estadismo moderno y la ciencia física en general, sucesos que datan más que nada de principios del Renacimiento del siglo 15 en adelante.

A pesar de la “edad oscura” relativa en la ciencia y el arte de Europa aproximadamente entre 1714 y 1763,[5] la situación era que, durante el período anterior, toda la ciencia europea de importancia se había centrado en Francia. Estos altibajos en la ciencia, que siempre tuvieron como eje las cuestiones de la influencia de la obra de Kepler, se habían combinado con la obra de seguidores de Kepler tales como Pierre Fermat, Blaise Pascal, Christiaan Huyghens, Leibniz, y el colaborador de éste, Jean Bernouilli. Esta influencia guió el desarrollo científico progresista de Europa en una época desde el tratado de Westfalia de 1648, hasta el asalto del Terror jacobino y el reinado de Napoleón.

Este papel destacado que tuvo Francia en la ciencia continuó hasta comienzos del siglo 19 por la influencia de la facción de las redes de Gaspard Monge y Lázaro Carnot. En ese entonces, Francia, no obstante sus profundas heridas por factores asociados con la alianza de Luis XIV con las reliquias de la Fronda, era el centro del progreso científico y relacionado de toda la civilización europea.[6]

Sin embargo, luego vino la intentona de corte inquisitorial, después de 1789, de destruir las instituciones principales de la ciencia francesa. De 1815 en adelante, el programa educativo diseñado por Gaspard Monge para la École Polytechnique fue el principal blanco directo de una campaña para destruir la competencia científica, una campaña emprendida bajo la dirección del rey títere de la restauración borbónica del duque de Wellington. Esta campaña renovada contra el legado de Kepler y Leibniz, dio pie a un proceso de corrosión de los cimientos de esa École Polytechnique que había encabezado los logros científicos de Francia hasta 1815. La creciente tendencia de decadencia relativa en Francia la encabezaron Laplace y Cauchy, aunque encontró resistencia en la contraofensiva que dirigió Alejandro de Humboldt, un viejo miembro de la École Polytechnique de Monge y Carnot, y colaborador del propio Lázaro Carnot.[7] A partir de 1827–28, Humboldt contribuyó con su intervención protagónica en la transferencia de la residencia principal del liderato de la ciencia mundial, de la decadencia de la ciencia en Francia, hacia un nicho de refugio en Alemania.[8] Esto coincidió con un viraje del trabajo regular de De Humboldt con la École en París, a su resguardo cada vez mayor en los periódicos de lengua alemana, y su propia concentración, junto con su protegido Lejeune Dirichlet, en Berlín y el complejo de instituciones de educación superior alemanas asociadas con el trabajo de otro modo realizado en la Universidad de Gotinga bajo la dirección sucesiva de Gauss, Dirichlet y Riemann.

Este traslado del centro mundial de la ciencia, de París a Gotinga y Berlín en Alemania, resultó en los 1850 en el surgimiento de Dirichlet y Riemann como las figuras centrales, en tanto sucesores de Gauss, de la obra más descollante en la ciencia física mundial. El rasgo decisivo de este acontecimiento progresista salió a relucir con la publicación de la disertación de habilitación de Riemann de 1854, y el modo en que las implicaciones de esa disertación llevaron, con el tratamiento de Riemann de las funciones abelianas, a la elaboración de los conceptos de la hipergeometría que Gauss había introducido antes, como de pasada.[9]

Por tanto, si tomamos en cuenta los elementos de la obra de Gauss y otros entre los predecesores pertinentes de Riemann, el paso más grande de progreso revolucionario en la ciencia europea moderna desde Johannes Kepler lo encarnó el rasgo central y las implicaciones consiguientes de la revolucionaria disertación de habilitación de Riemann de 1854. Esta perspectiva que presenta Riemann se hace eco, en efecto, de la de Vernadsky, del carácter dinámico de principio que distingue a los procesos vivos de la química prebiótica, como se define hoy día. Es la perspectiva de Albert Einstein tanto de Kepler como de Riemann, lo que define hoy la perspectiva esencial necesaria de la ciencia y la economía.

Bernhard Riemann centró la atención de la ciencia moderna en principios con una premisa experimental, más que en supuestos apriorísticos.

La economía riemanniana

Al librar al método científico de las formas euclidianas y sofistas relacionadas de los supuestos a priori, Riemann enfocó la atención de la ciencia moderna donde debía: en la naturaleza de esos principios que tienen experimentos como premisa, los cuales han de ocupar el lugar donde tanto los sofistas como los reduccionistas modernos insertan supuestos apriorísticos. Los descubrimientos de Riemann muestran que toda definición, axioma, postulado y forma de supuesto ontológico arbitrario igual de ilusa tiene que erradicarse de la ciencia física y de las matemáticas, en particular, y también de las diversas formas de expresión asociadas con las modalidades deductiva e inductiva de razonamiento lógico y relacionado en general. Todas esas formas ilusas de premisas a proscribir han de clasificarse en la categoría de sofistería.

Esto le planteó a la ciencia dos retos específicos principales.

Primero, en orden histórico: la demostración experimental de Fermat de un principio del “menor tiempo” debe verse en el contexto de la prueba de Kepler, para el caso de la gravitación, del principio infinitesimal de acción, el del descubrimiento de Leibniz del cálculo, que la medición de Kepler de las “áreas iguales en tiempos iguales” había expresado. Así, la noción a priori de la existencia independiente del espacio, el tiempo y la materia la desacreditó de manera decisiPierre de Fermat va el hecho experimental del des cubrimiento de Fermat: tenía que adoptarse, en cambio, el concepto de una continuidad funcional del espacio–tiempo físico.

Segundo, una vez que aceptamos esta función para la noción de una continuidad eficiente del espacio–tiempo físico, en vez de las nociones reduccionistas de los siglos 17 y 18, deviene y queda entonces la cuestión pertinente: ¿qué remplaza la función de los supuestos a priori en una matemática funcional de la ciencia física? En cuanto Leibniz estableció el principio del cálculo de verdad infinitesimal, lo cual quedó resuelto, de hecho, con el concepto de Leibniz y Bernouilli del principio de acción física mínima ligado a la catenaria, la cuestión de la “definición” del espacio–tiempo físico, el asunto de la geometría euclidiana versus la no euclidiana, se convirtió en el foco de la forma pertinente de desafío.[10] El tratamiento de Kästner de esta cuestión fue típico del cambio que aportó los fundamentos para que Gauss captara esa noción de una geometría antieuclidiana, que subsiguientemente se negaría a debatir de forma abierta el resto de su vida; no obstante, para este efecto, la obra real de Gauss sobre cuestiones de geometría física fue decisiva en la formulación subsiguiente de Riemann de una geometría física antieuclidiana moderna.

Este desafío, del modo que Kästner había presentado la geometría antieuclidiana, obligó a atender la implicación crucial de la visión de Kepler de la órbita elíptica. Las pruebas de Kepler habían planteado este asunto: que era el principio de gravitación el que determinaba la órbita elíptica. Esto es contrario a la visión absurda de que la propia órbita elíptica ha de suponerse como ontológicamente primaria. Aquí reside la importancia de la obra de Gauss y sus contemporáneos del caso sobre geometría física, incluso la cuestión de las funciones abelianas. Para Riemann, esta línea de investigación había conducido a Gauss al asunto de las órdenes superiores de la geometría física, el asunto de la hipergeometría. Este conjunto de consideraciones fue el que llevó a Riemann a una especie categórica de solución general al problema de la geometría física en su conjunto, en la cual la expresión funcional de las relaciones físicas entre un conjunto de principios físicos universales definidos mediante experimento (o sea, el tensor riemanniano) determina la geometría física de la acción mensurable.

De este modo, tenemos la cuestión ontológica decisiva que plantea la prueba de la existencia de la función eficiente de la expresión de un principio físico universal como un infinitesimal (leibniziano) absoluto, en vez de como un objeto discreto de la percepción sensorial o un uso conveniente de lo matemáticamente imaginario.[11]

Esta solución, como la desarrolló hasta cierto punto Riemann, define un concepto moderno funcional de la importancia del término “dinámica”, del modo que Vernadsky empleó ese término después. Este mismo concepto de dinámica es al presente, como con Vernadsky, el fundamento apropiado para definir la noción de economía física en términos de normas físicas experimentales, en vez de estadístico–mecanicistas monetarias de suyo apriorísticas.

Pierre de Fermat

El trabajo de Carl F. Gauss en ls geometría física sentó la base para que Riemann desarrollara una geometría antieuclidiana moderna. (Foto: Biblioteca del Congreso de EU).

En esencia, por ende, la necesidad de la noción de la forma dinámica del espacio–tiempo físico, la noción dentro de la cual la humanidad actúa para producir esos efectos físicos, per cápita y por kilómetro cuadrado, que está asociada con la noción de una economía física, más que una monetarista, sólo puede atenderse desde la óptica de un universo considerado como dinámico, en el sentido que Vernadsky aplica al objeto experimental de la biosfera. La teoría económica competente sólo puede existir en la cualidad riemanniana de un marco intrínsecamente alineal.

El hecho a recalcar es que los cambios recientes en la política mundial, en el intervalo de 1968–2006 hasta la fecha, han puesto actualmente al mundo entero en una suerte específica de apuro azaroso tal, que es sólo desde esa perspectiva que puede superarse el desafío de derrotar la embestida de la crisis de desintegración general de la economía mundial.

La idea de dinámica

Como ya se indicó aquí, Godofredo Leibniz introdujo el término “dinámica” a la ciencia física moderna en el transcurso de desenmascarar el carácter fraudulento de los supuestos reduccionistas mecanicistas: las premisas sobre las cuales René Descartes había tratado de construir una física matemática. Este hecho, la incompetencia intrínseca de los métodos de la mecánica estadística, como para la ciencia física en general, y de la economía estadística, tiene implicaciones decisivas para cualquier esfuerzo por entender las raíces conceptuales de esa noción general de dinámica que es hoy indispensable para el trabajo competente en la economía.

Como lo he señalado en repetidas ocasiones, en previas publicaciones pertinentes, la adopción de Leibniz del término “dinámica” fue producto de su estudio exhaustivo de la obra y el método de Platón. Ese método, que los académicos asocian de manera implícita con el trabajo relacionado de Tales y con los pitagóricos, así como también con Sócrates y Platón, lo significa el concepto de dúnamis, que tuvo una participación prominente en los escritos de Platón, entre ellos, de forma notable, las reproducciones modernas auténticas de algunos de los escritos de Platón tales como el diálogo Teetetes.

El método científico ahí representado llevaba el nombre de esférica. Los griegos antiguos del caso le atribuyen orígenes egipcios a ese término, y tiene la implicación práctica de representar la astrofísica, en vez de las formas contemplativas de astronomía. Con los pitagóricos y Platón, la esférica baja la astrofísica a la Tierra como un sistema de lo que hoy debe considerarse, en retrospectiva, como pensamiento científico universal antieuclidiano.

Así como la trilogía de Esquilo sobre Prometeo nos aporta la visión mejor definida de las cuestiones del caso, este lado terrenal del concepto de los pitagóricos y Platón de la esférica tuvo profundas implicaciones prácticas que tuvieron que ver con el conflicto cultural más decisivo de la sociedad griega antigua del período clásico. La noción del universo físico y de la naturaleza del hombre, de la que son típicos los escritos de los pitagóricos y Platón, contrasta de modo violento y fundamental con la perspectiva que se expresa como al modo del personaje del Zeus olímpico en el Prometeo encadenado de Esquilo: una perspectiva oligárquica que representa la condena de Zeus a Prometeo, por compartir el conocimiento de la aplicación de un principio físico universal con sujetos humanos.

Los pitagóricos y Platón rechazan esa cualidad satánica de la tiranía del Zeus olímpico del modelo oligárquico, al darle al hombre el derecho de expresar el poder, y el deber, como lo hace el Génesis 1:26–31, para cambiar el universo en el que actuamos, para bien, como ocurre mediante la aplicación de principios físicos universales descubiertos.

Cabe notar que los pitagóricos no permitían simples supuestos apriorísticos respecto a las relaciones entre los puntos, las líneas, las superficies y los sólidos; la transformación de uno al siguiente se permitía sólo mediante acciones físicas que expresaran principios universales, como lo identifica el término categórico que Platón empleaba en los apartados del caso: dúnamis. Los ejemplos más notables de esto para la geometría física como tal, son doblar el cuadrado y el cubo por construcción, y la construcción de los sólidos (platónicos) regulares. El caso de doblar el cubo lleva las cosas al significado especial del tratamiento de Gauss de los residuos cúbicos y bicuadráticos, como, por ejemplo, al desenmascarar los fraudes de los empiristas D’Alembert, De Moivre, Euler, Lagrange, etc., en esa cuestión del cálculo infinitesimal que plantea, en términos formales, la existencia de esos residuos.

Eso sirve para ilustrar la cuestión decisiva, de que la categoría de las geometrías abstractas consonantes con Los trece libros de Euclides en realidad nunca existió; en un sentido funcional, sólo existe la geometría física. Sólo ha existido la geometría física en tanto noción competente de un principio de las matemáticas apto para las necesidades de la ciencia física; esto se conocía desde tiempos tan remotos como los de los pitagóricos, o antes. Esto ya estaba implícito en la esférica como una materia de la astrofísica, más que de una mera astronomía.

Estas consideraciones eliminan el concepto de un proceso político–económico definido principalmente en términos de una noción de valor monetario relativo. Este hecho lleva a reconocer la virtual demencia absoluta que muestran los fanáticos del “libre cambio”, al derogar el sistema de regulaciones asociado con la continuación de las reformas introducidas con el Gobierno del presidente Franklin Roosevelt. Sólo la regulación de la clase asociada con la tradición de Franklin Roosevelt es tolerable. Como se indica en los capítulos siguientes de este informe, son valores físicos, no monetarios, los que deben emplearse.

La naturaleza del problema

El ignorante hombre moderno abraza la ilusión de que los objetos mentales que suscitan las sensaciones, representan el contenido de los fenómenos que origina el mundo fuera de su piel. En realidad, sabemos que, con una excepción categórica, las percepciones sensoriales que produce la experiencia real son sombras que el universo real proyecta sobre nuestro aparato de percepción mental. Esto quiere decir que, cuando esas impresiones no son ilusiones, son las sombras que los acontecimientos del universo real han proyectado sobre ese aparato; pero, esas percepciones sensoriales como de sombras no contienen ninguna representación explícita de ciertas categorías de otro modo cognoscibles de la experiencia real de la humanidad en y de ese universo.

Esos principios existentes que no se registran como objetos de la percepción sensorial en sí mismos, son típicos del descubrimiento de principios físicos universales tales como el descubrimiento único original de Kepler de la gravitación universal. Esta categoría también incluye lo que con justicia se considera como principios de la composición artística clásica, tales como los ejemplos pertinentes de la obra de Leonardo da Vinci y el principio del contrapunto bien temperado de J.S. Bach.

La importancia de los principios físicos universales y artísticos clásicos comparables, es que su acción eficiente afecta al universo entero.

El significado funcional del conocimiento de estos principios es que sólo pueden conocerlos seres humanos, y no formas inferiores de vida. Es la capacidad para el conocimiento eficiente de tales principios universales lo que aporta la definición apropiada de naturaleza humana. La incapacidad para conocer dichos principios constituye una condición de humanidad deshumanizada.

Esta ignorancia que corresponde a la condición de una humanidad deshumanizada, no es producto de la naturaleza humana, sino todo lo contrario. Expresa las pruebas variamente educibles o conocidas de la historia y la prehistoria, de la forma en que algunas personas en algunas sociedades han aprendido a domar a la gente de modo parecido a como doman y manejan el ganado. En pocas palabras, los captores aprendieron que la mejor manera de mantener encadenada a la gente, es inducir a esas víctimas, no sólo a que se pongan las cadenas ellas mismas, sino a defender el sistema de encadenamiento, incluso con fiereza, como “nuestra cultura”.

Esto lo vemos en cómo obró el tráfico de esclavos africanos que dirigió la monarquía española del siglo 19, con la protección imperial británica de una práctica que los británicos de los 1790 encontraban demasiado sucia y poco redituable como para dirigirla ellos mismos, y, en cambio, se volcaron hacia China y el narcotráfico internacional relacionado. La Compañía de las Indias Orientales británica y sus herederos no inventaron tales prácticas, ni tampoco los españoles habsburgos que estuvieron a la vanguardia en la creación del tráfico trasatlántico de esclavos en primer lugar.

Mata a los jóvenes cautivos adultos fuertes que podrían defenderse, deshazte de los viejos, pues no son aptos para el trabajo, o simplemente bota a los esclavos varones jóvenes en lugares extraños de donde no tengan oportunidad cognoscible de escapar. Sobre todo, tal y como esto imperó bajo el dominio de los esclavistas sureños a los que Londres apoyaba en los 1820 y después, sentencia a muerte a cualquier esclavo que aprenda a leer y escribir, y también al no esclavo que le enseñe semejante conocimiento prohibido al que sí lo es.

Para los esclavos liberados y sus descendientes en EUA hoy, hay otros métodos para lograr un efecto similar sobre las mentes y voluntades de las víctimas escogidas. Con frecuencia, estos métodos se catalogan como “su derecho a su propia cultura”. A la mayoría de los ciudadanos de EU, no sólo los otrora esclavos, se les somete a métodos afines de control social colectivo.

La práctica moderna de la esclavitud mental la constituyen los métodos oligárquicos de control sobre lo que por lo general se acepta como la “propia cultura popular del pueblo” inducida. Así, irónicamente, la lucha por la causa de la libertad humana a menudo se centra en libertar a la masa de las víctimas de las cadenas esclavas invisibles de una cultura colectiva vigente. Hoy, por lo general, a esas cadenas se les llama “cultura popular”.

A pesar de esos y otros medios relacionados para inducir a las masas de los gobernados a someterse a tales métodos de lavado cerebral colectivo, el progreso de la humanidad, el aumento del poder físico del hombre en la naturaleza, per cápita y por kilómetro cuadrado, refleja el hecho de que existe al menos una clase de objetos mentales válidos que no tiene forma explícita de representación sensorial; me refiero a ese caso específico llamado principios físicos universales. Me refiero al ejemplo de un principio particular de este tipo específico, llamado gravitación, del modo que Kepler definió ésta mediante experimento.

Un navío cargado de esclavos se dirige a América. Hoy tales métodos se han remplazado por una “esclavitud mental”, en la que el dominio oligárquico se ejerce mediante lo que generalmente se acepta como “cultura popular”. (Foto: Biblioteca del Congreso de EU).

Estos objetos, tales como el principio de la gravitación de Kepler o las representaciones de la categoría pitagórica del dúnamis, no son directamente visibles a los sentidos humanos, sino sólo a una facultad que no existe en las formas de vida inferiores a la del ser humano individual, una facultad convenientemente identificada como discernimiento creativo, una facultad humana proscrita por el personaje de Esquilo, el Zeus olímpico de Prometeo encadenado.

Esa directriz que expresa el Zeus olímpico es la piedra angular de lo que la cultura europea ha conocido desde la Grecia clásica como el principio oligárquico, la doctrina de una práctica que de manera diversa caza o pastorea a categorías enteras de la población humana, como si esas personas fueran formas inferiores de vida, como si fueran ganado salvaje o doméstico.

No obstante, a pesar de todo eso, la idea de libertad es accesible. Como en todo gran repunte en la lucha por la libertad a favor de las masas de una población, el medio de liberación consiste en liberar a un pueblo de esas cadenas de la ideología a las que a menudo adoran en tanto cultura colectiva, como da fe de esto el maravilloso resultado de la pelea de los siglos 17 y 18 por el desarrollo de las colonias inglesas de Norteamérica.

La batalla por la libertad

Para entender la crisis estratégica mundial de la cultura hoy, considera los ejemplos de los ciclos de auge y caída de las culturas en la historia de la civilización europea desde la antigua Grecia.

Durante lo que se considera como el período clásico de las culturas griegas antiguas, como la época de Tales, Heráclito, Solón de Atenas, los pitagóricos, Sócrates, Platón y Alejandro Magno, y en la época de la Academia platónica, pasando por la obra del cirenaico Eratóstenes de la Academia de Platón, que fue la principal figura científica de un período que va hasta su muerte (circa 204 a.C.) y la de su interlocutor Arquímedes (212 a.C.), la propuesta de establecer las divisiones respectivas occidental y oriental de un “imperio mundial” común con centro en el Mediterráneo, se conocía como el “modelo oligárquico”.

El tema de este modelo oligárquico lo abordó el poeta, dramaturgo e historiador Federico Schiller en sus disertaciones de Jena, en las que remonta la división continua de la civilización europea a la contraposición del modelo oligárquico de la Esparta de Licurgo y el modelo republicano de Solón de Atenas.

El mismo concepto expresaba la división que hizo el emperador Diocleciano del Imperio Romano, en términos diferentes. El ex protegido de Diocleciano, el emperador Constantino, dividió el cristianismo como una religión de Estado legalizada de su Panteón, en términos parecidos de este y oeste. El largo proceso de derrumbe del poder imperial de Bizancio, que empezó aproximadamente en 1000 d.C., resultó en el surgimiento de un nuevo “imperio mundial” fundado en la asociación de la oligarquía financiera veneciana con los cruzados de la caballería normanda. No fue sino hasta el desplome de la Europa normanda en la Nueva Era de Tinieblas del siglo 14, que los esfuerzos tenaces de Carlomagno y sus seguidores lograron establecer la institución de la sociedad europea moderna como un contendiente de peso para la hegemonía milenaria del llamado modelo persa o, simplemente, oligárquico, como el poder dominante y el sistema social de las regiones mediterráneas y adyacentes.

La forma de imperio de la Compañía de las Indias Orientales británica, que hoy se expresa como la tiranía del liberalismo angloholandés con centro en Londres y aliada al sinarquismo en el presente sistema monetario–financiero mundial, está ahora empeñada en erradicar la institución del Estado nacional soberano del planeta, con la intención de establecer una forma de imperialismo mundial llamada “globalización”.

Aunque el gran concilio ecuménico de Florencia y la obra relacionada del cardenal Nicolás de Cusa establecieron la forma soberana moderna del Estado nacional de ejemplos tales como la Francia de Luis XI y la Inglaterra de Enrique VII, la urdimbre veneciana de la caída de Constantinopla y la intervención de la facción veneciana en la creación de la Inquisición española, el tormento de las guerras religiosas de 1492–1648 en Europa, y los desmanes de los Habsburgo en los siglos 16 y 17, han dejado hoy a la civilización europea extendida al orbe con una división recurrente entre las fuerzas de la libertad, como las ejemplifica la fundación de la república constitucional de EU, y el dominio del modelo liberal angloholandés de una versión moderna del antiguo modelo oligárquico–financiero sobre la civilización europea y regiones allende, en la mayor parte de los períodos de la historia moderna hasta la fecha.

El empirismo en tanto esclavitud mental

El nuevo aspecto del modelo oligárquico moderno, la función del empirismo y su influencia sobre las naciones y sus culturas, ha representado un viraje en el método por el cual las oligarquías financieras imperantes y otras relacionadas tratan de reducir a las poblaciones empeñadas en alguna forma de avance tecnológico a una virtual esclavitud mental, parecida en efecto a la imagen de la supresión del conocimiento científico en el Zeus olímpico de Esquilo.

A consecuencia de la opinión reduccionista ignorante y vulgar que manifiesta el reduccionismo liberal con respecto a la naturaleza de la experiencia sensorial, la opinión pueril errada y el virtual daño cerebral funcional en cuanto a la realidad física consiste en la creencia, explícita o simplemente en efecto, de que a menos de que haya una intervención externa, el universo funciona como si se repitiera a sí mismo a su estado anterior, y, por ende, no cambia hasta que alguna acción externa induzca en él un cambio de estado. Esa visión mecanicista popular e ignorante por lo común representa al universo de los acontecimientos físicos, y otros que se experimentan, como si los conformaran interacciones cinemáticas en un espacio–tiempo físico falsamente imaginado, en el que los procesos son mecánicos, en el sentido cartesiano, más que dinámicos.

La visión competente contraria, la de la esférica y, de manera notable aquí, la ciencia moderna desde la obra de Kepler, es la de que los principios universales que conforman el universo no se presentan como formas simples de “principios fijos”, sino que son, más bien, como es fama que Heráclito insistía, principios que constantemente actúan para la suerte característica de efecto continuo de cambio de estado del universo, del que había mostrado un momento antes. Puede decirse, a modo de corolario, que lo que en términos experimentales parece ser inacción, con probabilidad será la acción de entropía en el sentido de que “se le acaba la cuerda”, o de una forma de decadencia moral e intelectual como la de la política de “cero crecimiento”.

En otras palabras, cualquier noción adoptada de una forma simple de principios fijos que se supone ha de dar cuenta del acto que presenta una acción cíclica previa, es defectuosa porque no refiere el “elemento” adicional de complejidad que yace en realidad en ese principio supuesto que expresa un principio de cambio.

Este factor de complejidad inherente a cualquier principio físico universal singular, representa la distinción esencial de principio entre un sistema mecanicista y uno dinámico. Ésta es la cuestión fundamental que plantea una visión específicamente riemanniana de las implicaciones físicas de los tensores. Aquí, en esta cuestión, reside el entendimiento del “factor” de la direccionalidad antientrópica en los sistemas físicos en general, y en la misión humana en particular. El tensor, que se concibe como lo implica la obra de Riemann, es la expresión típica de un orden dinámico, a diferencia de uno mecánico (por ejemplo, neocartesiano) en el universo. Para definir esto como es debido, el hecho de que el universo entero es antientrópico en principio, tiene que reflejarse en estudios pertinentes y diseños prácticos. Ahora vuelvo tu atención a esto.

Por tanto, para nosotros, un principio aparente que parece bastar para explicar un ciclo que ha ocurrido, implica un supuesto que debe corregirse. Tiene que corregirse para mostrar, como es debido, que cualquier principio que antes parecía “fijo”, en realidad está asociado, en términos funcionales, con un aspecto adicional, un principio universal inherente de cambio, como lo ponía de relieve Heráclito, y como está implícito en el diálogo Parménides de Platón.

Así, en cualquier sistema de verdad dinámico, como uno riemanniano que emplea principios físicos universales descubiertos, en lugar de principios arbitrarios semejantes a los sistemas euclidianos o la mayoría de los no euclidianos, el sistema en su conjunto tiene, de hecho, una intención general dirigida. Esta intención se expresa como un desarrollo cualitativo mayor de todo el sistema. Por consiguiente, una representación competente de ese sistema de la vida real tiene que calificar cada “dimensión” de la serie considerando que experimenta algún ritmo de cambio, llamado progreso, que es congruente con la característica ontológicamente cualitativa de desarrollo de la serie entera.

Eso es lo que por lo general dejan sin explicar quienes no captan la implicación de lo que Leibniz y Vernadsky han identificado como sistemas dinámicos.

En otras palabras, en una economía nacional considerada como un todo, por ejemplo, la tasa de ganancia indicada, como en términos monetarios u otro parámetro fijo, es inherentemente falsa. Esos métodos falsos que tratan la economía nacional como la suma de componentes a considerar de forma individual, han fracasado ya de manera miserable en el EUA posterior a 1964–1968, en especial en los últimos treinta y cinco años. El ritmo de decadencia, en condado tras condado, de la proporción entre el producto físico y el empleo no calificado en los servicios, constituye de hecho un derrumbe físico en aceleración de la economía nacional en todo el transcurso del período de 1977–2006 a la fecha. En esto, la mayor parte de los cambios que se identifican como “ahorro de costos” o “reducción de precios”, han representado medidas que ahora se han acumulado hasta el grado de prácticamente representar un derrumbe físico irreparable de la economía nacional total, en la forma en la que está organizada hoy.

Cualquier principio supuesto que pase por alto la existencia de ese factor adicional de cambio, ha de tratarse, a lo sumo, como la visión condicional de un espacio–fase, y no del universo real en general.

Toma en cuenta las siguientes consideraciones como ilustración.

Una ilustración del asunto

Para ilustrar el ricamente irónico meollo del asunto que acabo de señalar, considera la Tierra como la define el desarrollo de Vernadsky de sus descubrimientos en relación con la biosfera y la noosfera.

Puesto que la Tierra recibe un flujo de masa adicional de la radiación solar, si tratamos la masa creciente de la Tierra como una constante de referencia, el estado prebiótico del planeta está encogiéndose, en términos relativos, por el aumento de la acumulación de la biosfera, y el estado combinado del dominio abiótico y la biosfera, está encogiéndose, relativamente, por el aumento en la acumulación de la noosfera. El universo así representado, en este caso por la Tierra, procede “de forma espontánea”, en la expresión de un orden formidable, ¡hacia un estado físico superior de existencia!

Tenemos que librar a la ciencia de la necia opinión científicamente analfabeta, como la que expresa el patético Isaac Newton, de que el universo es como un gran reloj al que se le acabaría la cuerda, a menos que el Creador le diera más de nuevo, de vez en cuando. Como señala el aforismo que refiere Heráclito, el diseño del universo se basa ontológicamente en un principio general subyacente primario de cambio ontológico continuo. Todo principio físico universal válido expresa una universalidad de cambio eterno de estado ontológico del universo en su conjunto. Cualquier universo que estuviese organizado de modo diferente a éste, carecería de importancia para el político serio.

Este principio de cambio universal puede describirse con justicia como inherentemente antientrópico.[12] Esta noción de “antientropía” es, de modo implícito, la esencia de la noción hacia la que trabaja la formulación de Kepler de su visión armónica de un principio de gravitación universal de veras universal, del modo que su esfuerzo por alcanzar ese principio cobra expresión en formas tales como el ordenamiento y evolución de las órbitas planetarias solares.

El cambio no es algo que actúa sobre el universo desde afuera; el cambio, como se expresa en la forma de principios físicos universales descubiertos, no está meramente dentro del universo; eso, el principio del cambio, las condiciones no estáticas, no la repetición de lo mismo, es la esencia interna de la existencia misma del universo. Así, Dios es de suyo creativo, como lo son el hombre y la mujer del modo que se identifica en el Génesis 1:26–31; de otro modo, Él no sería el Creador, y los que creen algo diferente no podrían ser, por ejemplo, cristianos.

El culto a la entropía es Satanás, y el culto a la entropía en tanto principio, como, por ejemplo, los doctrinarios del “cero crecimiento económico”, es satanismo en la práctica.

Sin embargo, aunque lo que acabo de afirmar es cierto, hay algo más que añadir a esto, como lo identificaré, pronto, en el momento apropiado a continuación.

La importancia de lo que acabo de escribir aquí, hasta ahora, es que la biosfera representa un estado de organización superior a lo prebiótico, y que la noosfera representa un estado de organización superior a la biosfera. Idiotez sería la adopción de directrices tales como algunos timos “ambientistas” absurdos, aunque a últimas fechas de influencia, que fomentan tales medidas contra toda la naturaleza, como las que procurarían frenar el progreso de la noosfera so pretexto de defender la ventaja relativa de la biosfera. Repito: semejantes necedades “ambientistas” deplorables o comparables representarían, y de hecho en realidad han representado, más o menos por las últimas cuatro décadas, el fomento implícitamente satánico de la entropía en el sistema mundial en el que vivimos. Esto se ve con claridad al considerar la tendencia del desarrollo del planeta como todo un proceso dinámico.

Se admite que la clase de toma de decisiones apropiada incluye la intención de evitar innovaciones impropias, pero eso no sería excusa para adoptar medidas tales como el uso ampliado de molinos de viento como fuente de energía, lo cual aumenta la entropía relativa del sistema y, de ese modo, empobrece la economía y a la población en su conjunto.

Un ejemplo: ¿energía o poder?

Entre los primeros pasos necesarios para salir de las fantasías pueriles y ponerse a la altura de la política económica competente para la actualidad, está desechar el hoy acostumbrado uso porfiado de la palabra “energía”. En el transcurso de fines de los 1970 y de los 1980, la Fundación de Energía de Fusión adoptó el término densidad de flujo energético. Este acomodo en nuestro uso de los términos ponía de relieve la perspectiva de la química física, en la que hay un progreso claramente manifiesto, ascendente, del uso de la luz solar en tanto fuente de poder directo para actos tales como el simple uso humano o la combustión de leña, de carbón, de coque, de petróleo y del llamado “gas natural”, en comparación con la fuerza de fisión nuclear y de fusión termonuclear. También echamos un vistazo en dirección a una calidad de poder al parecer más denso, varios órdenes de magnitud mayor que la fusión termonuclear, a la que se llama reacciones “materia–antimateria”, por falta de un nombre más apropiado.

De modo que describimos una trayectoria ascendente, de la radiación solar por centímetro cuadrado de sección transversal, a la combustión de materia, a las densidades atómica, nuclear, termonuclear e incluso superiores. El progreso de la cultura ha de medirse en ritmos de aumento de la antientropía del sistema, una orientación que incluye el cambio ascendente a una “densidad de flujo energético” cada vez mayor en modalidades de producción y funcionamiento de la infraestructura económica básica.

En esto hay ciertas anomalías.

Considera, primero, el caso del uso humano de la radiación solar, que es de importancia primordial en su expresión como producto de un proceso termonuclear llamado nuestro Sol. El consumo directo de esta radiación que se descarga sobre los seres humanos terrestres es de una gran ineficiencia relativa cuando se le compara con los beneficios antientrópicos de la fotosíntesis de los organismos vivos del caso. Usar la radiación solar como una de las principales fuentes de poder directo, o la fuerza solar que expresa el uso de molinos de viento, o sembrar cultivos a consumirse como fuente sustituta del petróleo, son variedades al presente populares de lo que debe describirse con justicia como una expresión de virtual idiotez implícita y culturalmente suicida. Al estudiar el proceso de la fotosíntesis de la molécula de clorofila, y también esas otras moléculas que tienen una función comparable en procesos vivos distintos de una clase diferente a la de las plantas verdes, nos vemos obligados a reconocer qué tan necia es la sociedad, cada vez que consume radiación solar como fuente de poder “inorgánico”, en comparación con la función planetaria del consumo de radiación solar en las actividades negatoentrópicas de la clorofila.

La política físico–económica propia de nuestro planeta debe poner el acento en la productividad mejorada tanto del hombre como de la naturaleza, por kilómetro cuadrado de todos y cada uno de los kilómetros cuadrados del planeta. Esta medición tiene que tomar en cuenta el hecho de que lo que existe o se invierte en mejoras físicas hoy, tiene un lapso de vida a los ritmos esperados de uso. Saquear el futuro puede parecerle provechoso a las personas desatinadas, pero no debe tolerárseles en posiciones pertinentes de responsabilidad.

Enfrentamos un aumento poblacional tal, que el intento de frenar ese factor de aumento en el costo incurrido sería contraproductivo para el mundo entero, per cápita y por kilómetro cuadrado. La fuente de productividad física mejorada, per cápita y por kilómetro cuadrado, consiste en el aumento per cápita del potencial creativo y las oportunidades relacionadas para la práctica. Esto significa un nivel de vida y cultural mejorados, per cápita; significa un aumento de la capacidad intelectual de la nación y el planeta enteros, per cápita, en cada generación sucesiva. Significa el desarrollo de ambas modalidades de producción y apoyo a la infraestructura económica básica, medido en términos físicos, per cápita y por kilómetro cuadrado.

Así, es la aplicación de estos criterios, de forma vertical, por un lapso futuro de no menos de dos generaciones, a escala planetario, lo que ha de ser la norma para medir la evaluación de la actividad económica vigente. El ritmo de realización de estas metas físicas para que la humanidad habite nuestro planeta tiene que ser la norma aproximada de medición de toda la economía, y esa medición de la economía entera ha de constituir la premisa para evaluar la contribución local en la aproximación al horizonte cercano.

Nuestro universo, en principio

Las pruebas ahora conocidas son que nuestro universo tiene cuatro aspectos, tres espacios–fase distintos y un dominio general superior de acción. Los tres espacios–fase son, como los define V.I. Vernadsky de la Academia de Ciencias rusa, en orden ascendente: a) el dominio abiótico; b) la biosfera; y, c) la noosfera. El principio necesario que da cuenta del desarrollo distinto y combinado de todos y cada uno de los tres espacios–fase inferiores en interacción, expresa el principio que, de conformidad con las implicaciones del Génesis 1:26–31, cobra la forma de las facultades creativas del estado desarrollado de la mente humana individual del individuo mortal, pero el principio que comprende la existencia humana es de un orden de magnitud superior, el de una facultad volitiva específica de un dominio que nosotros los mortales en términos ontológicos podemos considerar, como visto desde abajo, que está ubicado en una simultaneidad de la eternidad, en el dominio de un Creador.

A todos y cada uno de los tres espacios–fase inferiores los caracteriza un principio universal de desarrollo, en el sentido del aforismo de Heráclito, del modo que este aforismo se lee desde la óptica de la referencia de Platón a la visión de Heráclito, como está implícito en el diálogo platónico Parménides.

Por ejemplo, el propio sistema solar ha de verse como el producto del autodesarrollo de un sol joven que gira con rapidez, cuyo producto generado se transformó en algo parecido a la tabla periódica original de Mendeléiev, con los isótopos que se le atribuyen, en un sistema solar generado y organizado en gran medida del modo que Kepler entendió la naturaleza de su organización como un proceso dinámico, de la manera que describiré esto aquí más adelante, en resumen, como una multiplicidad riemanniana.

En efecto, por consiguiente, cada una de las categorías inferiores es un subespacio del relativamente superior, pero está separada de la relativamente inferior por un principio físico universal adicional.

Estas consideraciones son típicas tanto de la situación como de la obligación de la especie humana y de la persona individual en nuestro universo. El desarrollo de la astrofísica desde Kepler, proporciona el marco para establecer una pedagogía necesaria.

La perspectiva de Kepler comienza de manera implícita con el Sol y, por ende, la galaxia de soles en la que se ubica nuestro sistema solar. A este respecto, como las doctrinas popularizadas de la astrofísica están contaminadas con las influencias reduccionistas ahora hegemónicas en la vida académica, más valdría dejar de lado las especulaciones a mano sobre el estado del universo antes de la existencia de los soles, al abordar los asuntos más reducidos en los que debe centrarse nuestra atención aquí, para fines prácticos.

Los descubrimientos revolucionarios de Johannes Kepler “sentaron las bases sobre las cuales se ha centrado todo logro importante de la ciencia física europea desde entonces”.

Dicho lo anterior, la imagen que tenemos de las mejores fuentes científicas disponibles en el dominio público, hasta ahora, es que el sistema solar lo generó el Sol como un estado superior de organización. El problema hoy es que el esfuerzo de corte inquisitorial del sacerdocio babilónico hegemónico de la academia para hacer a un lado a Cusa, Kepler y a Leibniz, a favor de las creencias religiosas empiristas llamadas empirismo y materialismo, han impedido más o menos con éxito el progreso más allá del propio estudio ricamente confirmado de Kepler, de lo que él conocía como el sistema solar. El desarrollo de la biosfera a partir del desarrollo dinámico dentro del sistema solar, nos permite sacar un abanico limitado de conclusiones firmes, en especial las que tienen que ver con la obra de Vernadsky. Lo que sabemos de las características dinámicas de la noosfera más allá de lo que presentó Vernadsky, se concentra más que nada en mi propio trabajo en la esfera de un proceso de desarrollo físico–económico de las sociedades, del modo que ese proceso pudo haber ocurrido y de ningún modo continuado, sino en correspondencia con mi propia refutación de los fraudes pertinentes de la “teoría de la información” de Norbert Wiener, John von Neumann y demás.

Si todo esto es expresión del Creador de este universo finito e ilimitado, o riemanniano autolimitado, como lo veía Albert Einstein, entonces hay un gran designio en algún lado en este proceso de desenvolvimiento del cual somos la parte que he señalado aquí. Sea que podamos o no conocer el objetivo del designio, es una cuestión irrelevante; basta con que intentemos educir la dirección a la que todo este desarrollo universal está conduciendo, y educir la parte que la humanidad desempeña en él.

En cierto momento de este proceso, fuimos creados en tanto especie del modo que he descrito aquí. Es claro que nuestra misión próxima es la de llevar nuestros asuntos en la Tierra al efecto de que tengamos alguna misión próxima en la gestión del propio sistema solar. Sin embargo, es imposible que pudiera terminar ahí. Algo está en marcha en el desarrollo de este universo finito, algo de lo cual tenemos poco más que un leve indicio al presente; pero es algo que implica una función destinada a la humanidad, algo de lo cual quizás sea parte nuestra existencia presente en última instancia.

La visión supragaláctica de nuestro lugar en este plan de las cosas debe motivarnos a regresar a una cuestión que desarrollamos aquí antes.

Cuando descubrimos un principio físico universal, como la gravitación que de forma única descubrió Kepler, actuamos sobre ese descubrimiento, no simplemente tratándolo como algo observado, como algo que acabamos de aprender de una visita a un zoológico galáctico. A menudo nuestros descubrimientos de principio nos motivan, más y más, a actuar sobre el universo de un modo y para un efecto al que no se ha sujetado a ese universo antes. Al reflexionar en esta cuestión, debemos recordar que el universo no es una Creación fija, sino un proceso continuo de creación, que introduce nuevos estados en el universo, estados que no existían antes.

Al reflexionar en este asunto, adquirimos una penetración necesaria del significado mismo de creación, en particular de lo que el hombre ha creado, al facultarlo para actuar sobre un principio de cuya existencia no tenía conocimiento antes. Por tanto, la intención no puede limitarse a puntos sobre un mapa ya existente; nosotros, cuando actuamos sobre descubrimientos válidos, estamos cambiando el mapa del universo al activar principios universales descubiertos de un modo que no se han aplicados antes. Tal es nuestro mejor juicio de la intención del Creador.

Los dogmas imperantes en la actual cultura político–económica de raíz europea extendida al orbe, parten de la visión planteada de manera diversa o necesariamente implícita de una humanidad con la cualidad original de un rebaño humano. En esa visión variamente implícita o explícita de la humanidad como, en un sentido ontológico, una especie de rebaño o colección de rebaños, no hay cabida para un principio creativo (noético) real de la mente. Los seres humanos que tienen cierto parecido tácito con artefactos mecánicos, y también con los deseos aparejados y otras pasiones al modo de tropismos, son representados como una suerte de agregado sociológico más o menos bullicioso de una forma colectiva análoga al concepto machiano de Boltzmann de un gas termodinámico. De hecho, esta perspectiva de otro modo corresponde a la política antihumanista del Zeus olímpico hostil a Prometeo y al hombre, del Prometeo encadenado de Esquilo.

Las diferentes posiciones sexuales prácticas del coito o quién sabe qué, le sirven a algunos sociólogos como paradigmas para ilustrar un significado asignado al término “creatividad”, pero la idea del acto individual de un descubrimiento de un principio del universo validado mediante experimento no existe en nuestras aulas, libros de texto, ni en la generalidad de la opinión común educada u otra.

Así, la noción del intelecto creativo, tal como el del descubridor de un principio físico universal, ha de definirse en términos congruentes con el objetivo de entender al hombre o a la mujer individual como hechos a imagen del Creador eterno.

Valores físicos versus monetarios

En la sociedad moderna, desde el surgimiento del sistema empirista característico del liberalismo angloholandés y su impulso inherentemente imperialista en el siglo 17, el dogma imperante del dominio de ese sistema, el virtual sacerdocio babilónico, ha sido el que volvió en ocasiones famoso y a veces infame el perverso descarado Bernard Mandeville, notable por La fábula de las abejas.[13] El razonamiento de Mandeville en ese apartado es un liberalismo paradigmático del tipo específico común a John Locke, François Quesnay, David Hume, Turgot, Adam Smith,[14] Jeremías Bentham y John Stuart Mill.

El paradigma común le atribuye la suerte que hace a algunos hombres ricos y poderosos, y a otros pobres y miserables, a algo parecido a “hombrecillos verdes” que esgrimen poderes mágicos a capricho desde debajo del piso del universo. Son los dados cargados que arrojan estas criaturas curiosas o artificios similares, lo que Mandeville y compañía implican que determina el destino de hombres y naciones, y no la producción de riqueza útil para el bienestar de la sociedad, per cápita y por kilómetro cuadrado. De ahí la depravación moral que obscenidades de las que son típicas el American Enterprise Institute y la Sociedad Mont Pelerin presentan como economía.

El verdadero Sistema Americano de economía política se funda en el pensamiento que ejemplifica la práctica de la colonia de la bahía de Massachussets previa a 1688, de emitir papel moneda. Cotton Mather exigió recurrir de nuevo a esta práctica de principio de esa colonia, del modo que Benjamín Franklin se hizo eco de él en cuanto a los principios del crédito público en su A Modest Inquiry into The Nature and Necessity of Paper Currency (Una modesta investigación sobre la naturaleza y necesidad del papel moneda) de 1729. Esta tradición, que se desarrollaba en las colonias inglesas norteamericanas, se incorporó como un aspecto central de la Constitución federal estadounidense, reflejando nuestro empeño constitucional en no permitirle a institución financiera privada alguna, ni nacional ni extranjera, tener un poder por encima del de nuestro gobierno federal, en especial en cuestiones que pertenecen al crédito público y la emisión de moneda nacional.

Contrario a la necedad común de las naciones de Europa, entre otras, de permitir que los intereses privados que encarnan los llamados “bancos centrales independientes” ejerzan control sobre las facultades soberanas del gobierno, nosotros defendemos con celo los poderes de gobierno en cuanto al crédito y la moneda nacionales contra todo intento de gobiernos extranjeros y poderes privados, tales como los llamados “sistemas de banca independiente”, por extralimitarse, que han representado la aflicción mortal común entre las naciones de Europa.

Ni tampoco hay, en esos límites que define el principio de soberanía nacional, ningún medio por el cual la libre circulación de moneda alguna o cosa parecida pueda ser un mecanismo competente para prever el valor relativo de un artículo comprado o de una inversión en una empresa pública o privada, varios años por adelantado o más. En suma, no hay ninguna correlación natural entre una libre circulación de moneda y los valores físicos relativos en una economía nacional ni entre economías.

Más bien, es responsabilidad del gobierno, así como de otros compradores o inversionistas, prever el valor relativo de una inversión, mercancía, o práctica en el mediano a largo plazo. Esta clase de cálculos racionales de los gobiernos han de tener como premisa la evolución previsible de la pauta pretendida de desarrollo de la sociedad y su economía en el mediano a largo plazo. La validez de tales decisiones de mediano a largo plazo depende de sistemas de acuerdos privados y públicos.

Con estos antecedentes, podemos saltarnos algunos eslabones, para ir directamente a la cuestión pertinente del modo en que las medidas federales de regulación y relacionadas que instituyó, de manera más categórica, la presidencia de Franklin Roosevelt, abordan la realidad de la forma en que la destrucción de los últimos treinta y cinco años, del sistema de las llamadas “medidas proteccionistas”, ha llevado a la quiebra lo que hacia fines de los 1960 había sido la economía más poderosa que el mundo jamás haya conocido, un EUA todavía dominado, aun entonces, por el sistema de protección reguladora de la economía que se había instalado con Roosevelt.

Cuatro aspectos han sobresalido en el modo en que la desregulación prácticamente ha destruido la estabilidad económica de EUA hoy: 1) el escape hacia la enfermedad del “friedmanismo” que Nixon usó como preludio para la destrucción del sistema monetario–financiero mundial mediante la disolución del sistema de Bretton Woods; 2) la desregulación a gran escala que se efectuó con el Gobierno de Carter de 1977–1981; 3) la parranda lunática (con los “derivados financieros”) del presidente de la Reserva Federal Alan Greenspan después de octubre de 1987; y, 4) la locura económico–financiera total del Gobierno de Bush y Cheney. Estos no son los únicos factores importantes, pero han sido los más decisivos entre los errores crasos de la política estadounidense durante el intervalo de 1968–2006 hasta la fecha.

El rasgo común subyacente de estas medidas destructivas y relacionadas puede resumirse en una palabra: “desregulación”. El aspecto más destructivo de todo el período de 1968–2006 a la fecha, lo ha representado la trama del derrumbe de la infraestructura económica básica con un acento cada vez más desaforado en el “libre cambio”.

Con cualquier continuación de esas tendencias del intervalo de 1968–2006, EU no sólo está condenado a una nueva depresión mundial, en el sentido en que se entendía “depresión” en la Europa y las Américas de los 1930, sino a la forma más desastrosa de crisis de desintegración general del presente sistema económico–financiero mundial. Sin embargo, existen alternativas. El asunto central es la necesidad de declarar en bancarrota el sistema bancario estadounidense, el sistema de la Reserva Federal, con la intervención del Gobierno federal de EU. Mucho del papeleo involucrado, incluso los valores corrientes de las hipotecas, las obligaciones de derivados financieros en general y demás, tienen que depreciarse sin piedad, o simplemente desecharse, como tiene que hacerse con los derivados financieros. Empero, esto significa que el Gobierno federal de EU tiene que intervenir para mantener abiertas las puertas de los bancos y su función funcional en mantener el grado actual de apoyo económico físico de los niveles de empleo, producción y servicios esenciales, al tiempo que también sirven como vía de crédito federal de largo plazo, a tasas de interés simple de 2% anual o menos, necesario para estabilizar las instituciones bancarias deterioradas y estimular también el crecimiento del empleo y la producción a nivel nacional y regional por encima del punto de equilibrio.

El retorno ahora indispensable a semejante clase de medidas ha de ir acompañado de una reinstitución del tipo de regulación federal que salió del período de recuperación de 1933–1945, de la profunda depresión de la economía nacional con Coolidge y Hoover.

Contrario al balbuceo irresponsable de algunos, eso no es “socialismo”. Sin duda, conservadores económicos sólidos de los 1950 hubieran tildado esto de un regreso a una política de “comercio justo”, como un escape de las consecuencias sifílicas del refocilo putesco de las últimas décadas con una especie de política “librecambista” callejera.

Semejante cambio político depende de construir una estabilidad fiscal de largo plazo en el sistema entero. Tal sistema significa programar flujos de crédito y pagos. Esta programación depende de un programa aplicable de inversión física, y así sucesivamente. El diseño y desarrollo de dicho sistema de inversión de largo plazo en el crecimiento del producto físico y la productividad, per cápita y por kilómetro cuadrado, a escala planetaria, requiere que pongamos el acento primordial en los valores y procesos productivos físicos, y en el diseño de las políticas monetaria, financiera y fiscal, para que se ajusten a los acuerdos amplios y eficientes sobre el movimiento de largo plazo del crédito prestado, como capital, para la inversión en un sistema viable de financiamiento en la infraestructura económica básica y la producción privada orientado a la productividad física.

En las circunstancias actuales habrá una recuperación económica mundial mediante una cooperación de nuevo cuño, o ninguna para nadie en ninguna parte del mundo entero. El eje de la única recuperación posible tal serán las reformas importantes y súbitas en EU a todas las tendencias actuales y recientes en su política práctica, hacia la cooperación con un complejo eurasiático de desarrollo a largo plazo aglutinado alrededor de Berlín, con eje en torno a Rusia, y emprender el desarrollo de largo plazo de toda Asia. Semejante recuperación, que aprovechó la restauración de Berlín como centro industrial y de transporte aéreo y ferroviario mundial, se medirá en unidades de bloques de inversión con un plazo de 25 a 50 años para el crédito basado en tratados de largo plazo para programas agroindustriales y de infraestructura importantes.

Se requiere un arreglo parecido para las relaciones de EU con los otros Estados de las Américas, en tanto que los bloques de Eurasia y América, a través de sus intereses mutuos, emprenderán el rescate de todo el sur de África.

El capital emitido en la forma de crédito de largo plazo, con un sistema monetario mundial de tipos de cambio fijos de nuevo cuño, será necesario para coordinar esta gran masa de crédito de largo plazo a bajas tasas fijas de interés. La proporción de los valores en todo el mundo, en consecuencia, estará dominada por el puro volumen de estas combinaciones de crédito de inversión de largo plazo, de Estado a Estado. El modelo para el manejo de las relaciones económicas entre regiones y los Estados nacionales soberanos que las componen, será el modelo del éxito de las reformas de EU y sus relaciones comerciales y monetarias internacionales con Estados entonces amistosos.

Habrá cooperación a la mayor escala de toda la historia hasta la fecha, pero, como escribió cierto poeta estadounidense: buenas cercas hacen buenos vecinos. En esta empresa, las cercas son las de las medidas de cooperación económica que primero tienen como premisa la economía física, y después el dinero.


[1]Ver “Vernadsky y el principio de Dirichlet”, por Lyndon H. LaRouche, en Resumen ejecutivo de la 1a quincena de agosto de 2005.
[2]Los sofistas de la época de Platón y después eran conocidos por su rechazo a los conceptos de principio demostrados mediante experimento, a favor de formas de opinión popular tales como la noción de Euclides de las definiciones, axiomas y postulados dizque “autoevidentes”.
[3]Kästner y A.W. von Zimmermann fueron los principales maestros de importancia de Gauss. Fue el trabajo de Kästner en la definición de una geometría antieuclidiana lo que sentó la base para los conceptos de esa geometría física antieuclidiana (en vez de “no euclidiana”) que llevó a Riemann, como él mismo hizo hincapié de manera explícita, mediante aspectos decisivos de la obra pertinente de Gauss, a su disertación de habilitación de 1854, misma que sentó las bases de toda noción competente de la geometría física moderna. La representación errónea de estos nexos que uno encuentra en numerosas fuentes académicas del siglo 20, es un reflejo del sometimiento esclavo a una representación por motivos ideológicos falsa, de las cuestiones implícitas en el desenmascaramiento de Gauss de los fraudes característicos de los reduccionistas fanáticos D’Alembert, De Moivre, Euler, Lagrange y, también, de manera implícita, Laplace, Cauchy y compañía, sobre el tema del cálculo de Leibniz, del modo que Gauss planteó por primera vez públicamente este desafío en su disertación doctoral de 1799.
[4]Con la excepción de la traducción de fines del siglo 17 del anuncio de Kepler del descubrimiento de la gravitación, del que los plagiarios ingleses de Kepler, quienes favorecían a Galileo, dependieron para diseñar el absurdo dogma newtoniano, y a pesar de que la obra de Max Caspar estaba disponible en alemán, ¡no hubo ediciones en inglés sino hasta después de los 1970! La obra más decisiva de Kepler, aunque disponible en latín, no se generalizó en la práctica real aun entre los círculos científicos principales, a excepción de personajes como A. Einstein, hasta fines de los 1980, luego del éxito ciertamente limitado de mis colaboradores y yo en la Fundación de Energía de Fusión, que había sacado a relucir el escándalo pertinente y sus perniciosas consecuencias prácticas para los científicos estadounidenses y otros.
[5]Ver How the Nation Was Won (Cómo se ganó la nación), de H. Graham Lowry (Washington, D.C.; Executive Intelligence Review, 1987.
[6]Nuestro Benjamín Franklin fue uno de los científicos más notables de su época que colaboraban con esos círculos internacionales.
[7]Ver The Principles of Pure Deism in Opposition to the Dotage of the University (Los principios del deísmo puro en oposición a la senectud de la universidad), de Charles Babbage, John Herschel, y George Peacock (Cambridge: 1812). Ver también Reflections on the Decline of Science in England (Reflexiones sobre la decadencia de la ciencia en Inglaterra), de Babbage (1830).
[8]Como lo indica la función que aportó la fundación del periódico Journal für reine und angewandte Mathematik de Crelle.
[9]Bemerkungen zu den Fragmenten über die elliptischen Modulfunctionen, Gauss Werke VIII, págs. 102–105 (Fricke). Ver Werke III, Über das arithmetisch–geometrische Mittel, págs. 361–403. Yo hago hincapié en el comienzo de la disertación de habilitación de Riemann de 1854, al señalar que la parte siguiente de los primeros dos párrafos, donde Riemann condena la sofistería de la tradición de Euclides y a los reduccionistas modernos por igual: “Bekanntlich setzt die Geometrie sowohl den Begriff des Raumes, als die ersten Grundbegriffe für die Constructionen im Raume als etwas Gegebenes voraus. Sie giebt von ihnen nur Nominaldefinitionen, während die wesentlichen Bestimmungen in Form von Axiomen auftreten. Das Verhältniss dieser Voraussetzungen bleibt dabei in Dunklen; man sieht weder ein, ob und in wie weit ihre Verbindung nothwendig, noch a priori, ob sie möglich ist.
“Diese Dunkelheit wurde auch von Euklid bis auf Legendre, um den berühmtesten neueren Bearbeiter der Geometrie zu nennen, weder von den Mathematikern, noch von den Philosophen, welche sich damit beschäftigten, gehoben”.
En su traducción al español (Sobre los fundamentos que sirven de fundamento a la geometría, de Riemann):
“Se sabe que la Geometría admite como dado a priori no sólo el concepto de espacio, sino también las primeras ideas fundamentales de las construcciones en el espacio. Puesto que no da de estos conceptos sino definiciones nominales, las determinaciones esenciales se introducen bajo forma de axiomas. Las relaciones mutuas de estos datos primitivos permanecen envueltas en el misterio; no se percibe bien si están necesariamente ligadas entre sí, ni hasta que punto lo están, ni siquiera a priori si pueden estarlo.
“Desde Euclides hasta Legendre, por no citar sino al más ilustre de los reformadores modernos de la Geometría, nadie entre los matemáticos ni entre los filósofos ha venido a aclarar este misterio”.
[10]El desarrollo experimental del descubrimiento de Fermat de un principio universal del “menor tiempo” llevó, primero, a los experimentos de Christiaan Huyghens, en los que se suponía que un principio de acción mínima podía expresarse mediante las funciones de la cicloide. Las pruebas de que la base tanto del descubrimiento de Leibniz y Bernouilli como de la elaboración del principio físico de acción mínima física y de los logaritmos naturales yace en la función catenaria, sacó a relucir la función ontológica de lo que los reduccionistas del siglo 18 malamente llamaron “números imaginarios”. A este respecto, la disertación doctoral de Gauss sentó la pauta para la revolución subsiguiente en las matemáticas de la ciencia física.
[11]Un reto paralelo plantea la realidad experimental de la existencia de la coma pitagórica en la música, y la relación tácita de ésta con la noción de Gauss del problema de la media aritmético–geométrica.
[12]Es decir, lo absurdo de la noción de un universo esencialmente entrópico, como lo venden criaturas tales como las que habitan la versión de Bertrand Russell de La isla del doctor Moreau de su compinche H.G. Wells, el profesor Norbert Wiener, John von Neumann y sus incautos colegas del fraude de la “teoría de la información”.
[13]La fábula de las abejas, o vicios privados, beneficios públicos, de Bernard Mandeville (Londres: reimpresión, 1734). Sobre la importancia de Mandeville en el establecimiento de los fundamentos ideológicos del liberalismo angloholandés, ver How the Nation Was Won, de H. Graham Lowry (Washington, D.C.; Executive Intelligence Review, 1987), págs. 341–348.
[14]Adam Smith se hace eco de Mandeville, no sólo en su opúsculo antiestadounidense de 1776 contra la Declaración de Independencia de EU, La riqueza de las naciones, que fue más que nada un plagio de Quesnay y Turgot, sino también en su ensayo anterior de 1759, La teoría de los sentimientos morales, donde Smith escribe: “La naturaleza nos ha dirigido hacia la mayor parte de ellos mediante instintos originales e inmediatos. El hambre, la sed, la pasión que atrae a los sexos [por ejemplo, el proxeneta y el bolsillo del cliente], el gusto por el placer, el rechazo del dolor, nos impulsan a aplicar esos medios por ellos mismos, sin ninguna consideración a su tendencia a los benéficos fines que el gran Director de la naturaleza intentó realizar a través de ellos”. Así, la degeneración moral y físico–económica tanto de la economía estadounidense como de las costumbres de nuestra nación desde 1968–1972, se refleja en el recurso de las apuestas legalizadas y otras como sustituto de los verdaderos medios de ganarse, a la antigua, los ingresos tanto privados como públicos.