Notas
Velupillai2011) ha etiquetado esta visión de la complejidad dinámica como complejidad “Day-Rosser.”
Estrictamente hablando, esto es incorrecto. Goodwin1947) mostraron tales patrones dinámicos endógenos en sistemas lineales acoplados con rezagos. Sistemas similares fueron analizados por Turing (1952) en su trabajo que ha sido visto como el fundamento de la teoría de la morfogénesis, un fenómeno de complejidad por excelencia. Sin embargo, la inmensa mayoría de estos sistemas dinámicamente complejos implican cierta no linealidad, y el equivalente normalizado desacoplado del sistema lineal acoplado no es lineal.
Esta moneda vino de Horgan (1997, Cap. 11) quien etiquetó con desdén las cuatro C para representar la caoplexidad , que él consideraba una burbuja intelectual o una moda pasajera. Rosser Jr. (1999) argumentó que se trataba de una acuñación como “Impresionismo” que inicialmente fue un insulto pero que puede verse como una caracterización útil.
Arnol’d (1993) proporciona una discusión clara de los problemas matemáticos involucrados mientras evita las controversias.
Para una discusión más detallada de las controversias matemáticas subyacentes que involucran la teoría del caos, ver Rosser Jr. (2000b, Apéndice matemático).
6 . Este término fue acuñado por Abraham y Shaw (1987) y Abraham (1985) también concibió el fenómeno combinado relacionado de caostrofe .
7 . A menudo se ha afirmado incorrectamente que Schelling utilizó un tablero de ajedrez para este estudio.
8 . La complejidad estructural parece al final equivaler a una “complejidad,” que Israel (2005) argumenta es meramente un concepto epistemológico más que ontológico, con “complejidad” y “complicación” provenientes de diferentes raíces latinas ( complecti , “captar, comprender o abrazar” y complicare , “doblar, envolver”), incluso si muchos confundiría los conceptos (incluso von Neumann1966). Rosser Jr. (2004) argumenta que la complejidad como tal plantea problemas epistemológicos esencialmente triviales, cómo descifrar muchas partes diferentes y sus vínculos.
9 . La “economía computable” fue neologizada por Velupillai en 1990 y se distingue de la “economía computacional,” simbolizada por el trabajo que se encuentra en las conferencias de la Association for Computational Economics y su revista Computational Economics. El primero se centra más en los fundamentos lógicos del uso de las computadoras en la economía, mientras que el segundo tiende a centrarse más en aplicaciones y métodos específicos.
10 . Otro tema principal de la economía computable implica considerar qué partes de la teoría económica pueden probarse cuando se relajan axiomas lógicos clásicos como el axioma de elección y la exclusión del medio. Bajo tales matemáticas constructivas pueden surgir problemas para probar los equilibrios walrasianos (Pour-El y Richards1979; Richter y Wong1999; Velupillai2002, 2006) y equilibrios de Nash (Prasad 2005).
11 . Debe entenderse que mientras que, por un lado, el primer trabajo de Kolmogorov axiomatizaba la teoría de la probabilidad, sus esfuerzos por comprender el problema de la inducción lo llevarían a argumentar más tarde que la teoría de la información precede a la teoría de la probabilidad (Kolmogorov 1983). McCall (2005) proporciona una discusión útil de esta evolución de las opiniones de Kolmogorov.
12 . A Albin le gustó el ejemplo del problema de agregación de capital planteado por Joan Robinson (1953-54) que para agregar capital es necesario conocer ya el producto marginal del capital para determinar la tasa de descuento para calcular los valores presentes, mientras que al mismo tiempo ya se necesita conocer el valor del capital agregado para determinar su valor marginal. producto. La economía convencional intenta escapar de este bucle do potencialmente infinito simplemente asumiendo que todos estos se resuelven convenientemente simultáneamente en un gran equilibrio general.
13 . Estrechamente relacionado estaría el prior universal de Solomonoff (1964) que coloca el concepto MDL en un marco bayesiano. De aquí surge la idea bastante intuitiva de que el estado más probable también tendrá la longitud más corta de algoritmo para describirlo. El trabajo de Solomonoff también se desarrolló de forma independiente, basándose en la teoría de la probabilidad de Keynes (1921).
14 . El problema P = NP fue identificado por primera vez por John Nash Jr. (1955) en una carta a la Agencia de Seguridad Nacional de EE. UU. que analiza los métodos de cifrado en el criptoanálisis, que se clasificó hasta 2013. Nash dijo que pensaba que era cierto que P no era igual a NP, pero señaló que no pudo probarlo, y aún no se ha comprobado que este día.
15 . Irónicamente, la prueba original de Brouwer de su teorema del punto fijo se basó en los axiomas de ZFC, y él solo proporcionó una alternativa intuicionista mucho más tarde (Brouwer 1952).
16 . Para discusiones lógicas autorizadas de los temas involucrados en general en estas alternativas constructivistas, ver Kleene y Vesley. 1965; Kleene1967; obispo1967).
17 . Este término se ha asociado especialmente con Bak (1996) y su criticidad autoorganizada , aunque no fue el primero en discutir la autoorganización en estos contextos.
18 . El argumento de McCauley se basa en Moore (1990, 1991a,B) estudio de mapas iterados de baja dimensión que son máquinas de Turing sin atractores, propiedades de escala o dinámica simbólica. McCauley sostiene que este punto de vista proporciona una base para la complejidad como sorpresa final e imprevisibilidad.
19 . En un modelo relacionado, Holden y Erneux (1993) muestran que el cambio sistémico puede tomar la forma de un paso lento a través de una bifurcación de Hopf supercrítica, lo que conduce a la persistencia durante un tiempo del estado anterior incluso después de que se ha pasado el punto de bifurcación.
20 . Otro enfoque más involucra la idea del hiperciclo debido a Eigen y Schuster (1979), discutido en el próximo capítulo.
21 . Ver Vaughn (1999), Vriend (2002) y Caldwell (2004) para discutir cómo llegó Hayek a sus puntos de vista sobre la complejidad y la emergencia y cómo encajan con sus otros puntos de vista.
22 . La oposición a la planificación centralizada y el apoyo al surgimiento espontáneo de sistemas de mercado de abajo hacia arriba se muestra en un largo debate entre filósofos sobre si el surgimiento solo funciona de abajo hacia arriba o si puede involucrar una causalidad de arriba hacia abajo. Van Cleve (1990) introduce la supervención al permitir esta causalidad de arriba hacia abajo en los sistemas emergentes, mientras que Kim (1999) sostiene que los procesos emergentes deben ser fundamentalmente de abajo hacia arriba. Luis (2012) argumenta que Hayek se movió hacia el punto de vista de la supervención en sus escritos posteriores que también enfatizaban los procesos evolutivos grupales (Rosser Jr. 2014b).
23 . Ver Halmos (1958) sobre cómo estos teoremas vinculan la teoría de la medida con la teoría de la probabilidad.
24 . Velupillai2013, págs. 432-433, n8) muestra que, si bien la mayoría de la teoría ergódica ha seguido una formulación frecuentista, la Escuela de Moscú se basaría en las ideas de Keynes en su enfoque de estos temas.
25 . A menudo se piensa que los ejemplos de reflexividad en el arte implican el efecto Droste , en el que una obra contiene una imagen de sí misma dentro de sí misma, claramente una cuestión de autorreferencia. Entre los primeros ejemplos conocidos se encuentra un cuadro de Giotto de 1320, El tríptico de Stefaneschi , en el que en el panel central se representa al cardenal Stefaneschi arrodillado ante San Pedro y presentándole el tríptico mismo. No hace falta decir que, incluso si dejan de representarse después de una secuencia finita de imágenes, tales obras de arte que exhiben este efecto Droste implican una regresión infinita de imágenes cada vez más pequeñas que contienen imágenes cada vez más pequeñas (Rosser Jr.2020b).
26 . Por “aritmética elemental” se entiende aquello que puede derivarse del conjunto de axiomas de Peano asumiendo una lógica estándar del tipo Zermelo-Frankel con el axioma de elección (ZFC).
27 . Cabe señalar que en su teorema original, Gödel solo pudo demostrar que estaba incompleto para una forma limitada de consistencia ω. Rosser Sr. (1936) que usó la “Oración de Rosser” (o “truco”): “Si esta oración es demostrable, entonces hay una prueba más corta de su negación.” Esto ha llevado a algunos a referirse al teorema combinado como el “Teorema de Gödel-Rosser.”
28 . Si bien este movimiento se centra en refinar los fundamentos axiomáticos, en última instancia busca ser menos formalista y bourbakiano. Esto es consistente con la historia de la economía matemática, que primero se movió hacia una mayor axiomatización y formalismo dentro del paradigma matemático clásico, solo para alejarse de él en años más recientes (Weintraub2002).