La vieja controversia en torno al othismos
Quizás el debate más importante para entender la forma de guerrear en falange de hoplitas de las ciudades-estado griegas de la época arcaica y clásica (desde el siglo VIII al V a.C.) es el referente a la consideración de una formación compacta donde las filas posteriores literalmente empujan con sus escudos a las que las preceden hacia el oponente con la intención de que retrocedan lo suficiente para flanquearlos y provocar una retirada desordenada donde, según las fuentes, se producían el mayor número de bajas en las batallas. Esta táctica se asociaba al término “othismos” (empuje) que aparece en algunas fuentes, y su aceptación dentro de la visión ortodoxa del combate imaginaba el choque de las falanges hoplíticas como similar al empuje colectivo típico de los partidos de rugby. En su monumental estudio de las batallas hoplíticas documentadas durante el siglo V a.C. Ray (2009), por ejemplo, calculó que alrededor del 30% de las victorias se debieron a la estrategia del othismos. Esta visión ortodoxa, defendida por ejemplo en Hanson (1989), fue desafiada por varios autores como Cawkwell (1978) y Krentz (1985, 1994, 2013) desde varios puntos de vista: la imposibilidad física de aplicar el othismos durante un período prolongado dada la duración estimada de las batallas (que podían durar desde una hora a casi todo el día), la relativa indefensión de los hoplitas de las primeras filas presionados a avanzar en una formación tan cerrada que no les permitiría utilizar sus armas con efectividad (algo confirmado por recreacionistas en arqueología experimental), etc. No pretendemos aquí resumir, como en Dahm (2010), todos los detalles de este largo y rico debate, sino aplicar al caso un elemento analítico novedoso que se ha mostrado útil en el análisis estratégico de los conflictos en muchas ciencias sociales.
Enfoque del othismos a través de la teoría de juegos
La teoría de juegos es una herramienta de análisis matemático que permite arrojar luz sobre cualquier situación social de conflicto estratégico entre agentes racionales que persiguen objetivos bien definidos, aplicándose desde al estudio de la competencia empresarial en economía como a la política y al estudio de los conflictos internacionales. Como resultaría imposible explicar los pormenores matemáticos de la teoría en este breve ensayo, me limitaré a las intuiciones básicas en este contexto bélico específico. Quien desee profundizar en el tema tiene disponibles textos introductorios de gran calidad, como Gibbons (1993) o Binmore (2011).
El primer elemento en la descripción de un juego es determinar los jugadores racionales enfrentados. En nuestro caso habría dos: el ejército A y el B (o, si se prefiere, los estrategos de ambos). Después especificamos el conjunto de estrategias disponibles para cada ejército, siendo ambos de características similares y con similares probabilidades a priori de ganar o perder la batalla (ambos han aceptado voluntariamente el riesgo del combate): ambos ejércitos se enfrentan con dos alas cada uno (izquierda y derecha) y pueden iniciar un othismos (que denotamos como “1”) o no iniciarlo (“0”) con cada una de ellas de forma independiente. La acción “0” consiste en combatir en líneas algo más abiertas en las que la efectividad individual es mayor y el retroceso posible. Así pues, cada ejército cuenta con cuatro estrategias disponibles, dependiendo de si elige “1” o “0” con cada una de sus alas. Podemos representar, por tanto, el conjunto de estrategias posibles de cada ejército como los cuatro pares ordenados siguientes: (0,0), (1,0), (0,1), (1,1), donde la primera componente de cada par representa la acción de realizar o no un othismos con el ala izquierda (“1” o “0”) y la segunda componente representa las mismas opciones para el ala derecha. Cada ejército deberá, pues, elegir una única de sus cuatro estrategias posibles sin saber la estrategia que está decidiendo a la vez el oponente.
Pasamos ahora a explicar las consecuencias de cada combinación de estrategias (o resultado posible de la batalla). Cada ala de un ejército se enfrenta a la contraria del otro y sufrirá un determinado número de bajas dependiendo de ambas estrategias. Si un ala de un ejército no hace othismos y su ala oponente tampoco, cada una sufre “n” bajas, mientras que si el ala sin othismos se enfrenta al othismos de su ala oponente, no sufre bajas porque retrocede y causa un número “m” de bajas a su oponente. Por otro lado, dos alas opuestas en othismos tampoco se causan bajas significativas. Además, si una de las alas de un ejército (pongamos que es el A) no hace othismos y la otra lo hace, mientras que las otras dos alas opuestas hacen la misma acción (ya sea “1” o “0”), entonces el ejército A será flanqueado y entra en pánico con retirada sin control. En esa situación, el ejército A en su conjunto sufrirá “M” bajas adicionales a las que ya tuviera en cada una de sus alas. Sabemos por las fuentes que esta es la situación donde más bajas se producen, por lo que suponemos que M > m > n > 0. Esos son todos los parámetros que necesitamos para describir la situación estratégica de nuestro juego.
La tabla 1 recoge las bajas que sufrirá cada ejército en cada una de las situaciones posibles del juego. Suponemos que el ejército A elige una única fila de la tabla y el ejército B una única columna. El primer número que aparece en cada celda es el número de bajas totales que sufre el ejército A y el segundo número es el número de bajas del ejército B correspondiente a esa elección de estrategias.
Ahora debemos responder a la pregunta de qué objetivos es razonable presuponer a cada jugador/ejército. Un objetivo razonable sería maximizar la diferencia entre las bajas totales del oponente menos las propias. Cuanto mayor sea esa diferencia, mayor victoria en términos relativos podrá acreditar ese ejército frente a su rival. Llamemos a esa diferencia la “utilidad” del ejército correspondiente, que nos servirá como medida cuantitativa del grado de consecución de sus objetivos bélicos. Podemos visualizar la utilidad que recibirá el ejército A (que elige filas) en cada situación posible del juego en la tabla 2.
Fijémonos en que la suma de utilidades de ambos ejércitos para cada resultado posible de la batalla es siempre cero, y todo lo que un ejército gana lo pierde el otro. Esto es lo que se denomina “juego de suma cero”, típico de situaciones de conflicto extremo.
Pasamos ahora a la predicción de la solución del juego planteado. Si ambos ejércitos son racionales en el sentido de que desean maximizar su utilidad respectiva (y, por tanto, minimizar la del enemigo) y saben que sus enemigos también son racionales, ¿qué estrategias cabe esperar que elija cada uno en el juego de la batalla? El concepto de solución que se aplica a este tipo de juegos se conoce como “equilibrio de Nash”. Una combinación de estrategias para ambos jugadores (una celda de la tabla 2) es un equilibrio de Nash si cada jugador está maximizando su utilidad dada la estrategia de equilibrio del rival. Ambos jugadores estarían, por tanto, haciendo lo mejor posible para ellos de forma compatible.
Si observamos la tabla 2, está claro que la mejor estrategia del ejército A si el otro no ejerce othismos con ningún ala ((0,0), primera columna) es llevar a cabo el othismos con una sola de sus alas (elegir bien (1,0) o (0,1)), con lo que consigue romper el frente del enemigo y causarle “M + n” bajas al coste de sufrir solo “m + n” bajas (“m” del ala en “1” y “n” del ala en “0”). Por otro lado, si el enemigo adoptara alguna de las estrategias que potencialmente podrían romper nuestras filas ante (0,0) (es decir, (1,0) o (0,1)), segunda o tercera columna de la tabla), la mejor respuesta del ejército A pasaría a ser othismos en las dos alas (1,1), con lo que sería el ejército A quien le rompe las filas. Parecería por el momento que el othismos sale a cuenta. Sin embargo, si el enemigo optara por othismos total (1,1), resulta que la mejor estrategia para nuestro ejército es precisamente (0,0). Es verdad que nos hará retroceder, pero no se quebrarán nuestras filas y les estaremos causando más bajas por ala (“m”) de las que nos causa él (0), debido a la mayor eficiencia en el combate de la acción 0 (no hacer othismos).
Así pues, podemos concluir que no existe ninguna combinación de estrategias (celda de la tabla 2) tal que la estrategia de cada ejército sea la mejor respuesta a la que lleva a cabo el otro, y no existe equilibrio de Nash tal como lo planteamos más arriba. ¿Quiere eso decir que no existe una forma racional de tomar decisiones en este juego? Si sólo contemplamos lo que se conoce como “estrategias puras” (escoger una única fila o columna de la tabla 2), ciertamente no existe ninguna solución del juego, pero si admitimos que ambos ejércitos pueden elegir su estrategia “tirando los dados” (escoger estrategias siguiendo una determinada ley de probabilidad), sí que existe un equilibrio de Nash en “estrategias mixtas”. Escoger estrategias “tirando los dados” podría parecer poco serio en una situación bélica, pero no lo es en absoluto. Es más, esto es precisamente lo que deberíamos esperar en situaciones de conflicto de suma cero simétricas donde cada estrategia resulta óptima frente a alguna otra del rival.
Consideremos el juego de “piedra, papel y tijera”, donde concurre el mismo fenómeno: ¿cómo deberíamos elegir estrategia? Si nuestro contrincante supiera que tenemos una ligera tendencia a elegir “piedra” con mayor frecuencia que las otras opciones, su mejor opción sería elegir siempre “papel” contra nosotros, y nos terminaría ganando más veces que nosotros a él. Para evitarlo, lo único que podemos hacer es equilibrar las probabilidades de elección de las tres estrategias. Evitar al máximo ser previsibles es la mejor estrategia para cada jugador, por lo que el equilibrio de Nash tiene lugar cuando ambos jugadores eligen cada una de las tres opciones de forma completamente aleatoria y con igual frecuencia. Lo mismo ocurre en el caso del juego de resultados de un penalti de fútbol donde el delantero puede tirar al lado izquierdo de la portería o al derecho y el portero del equipo rival, a su vez, debe elegir a qué lado se tira. Un buen delantero deberá tirar a cada lado el 50% de las veces, y con esa misma probabilidad debería lanzarse el portero, estrategias que cuentan con amplio respaldo documental (Palacios-Huerta (2003), Azar & Bar-Eli (2011)).
¿Cómo se encuentran las probabilidades óptimas del equilibrio de Nash del juego resumido en la tabla 2, entonces? Básicamente se trata de elegir probabilidades para que cada una de las estrategias puras del ejército A proporcione la misma utilidad esperada que las demás, dadas las probabilidades con que el enemigo juega sus estrategias puras. Se necesita un poco de álgebra para llegar al resultado final, pero si llamamos 𝑝1, 𝑝2, 𝑝3 y 𝑝4 = 1 − 𝑝1 − 𝑝2 − 𝑝3 a las probabilidades de elegir las estrategias (0,0), (1,0), (0,1) y (1,1) respectivamente para el jugador 1 en el equilibrio (la simetría del juego garantiza que serán las mismas para el jugador 2), el único equilibrio de Nash en estrategias mixtas requiere escoger estrategias con las siguientes probabilidades:
Nótese que el parámetro que mide las pérdidas humanas cuando dos alas opuestas no hacen othismos, “n”, es irrelevante en la selección de estrategias y, de hecho, la frecuencia óptima de elección de las estrategias depende solo del ratio m/M. También resulta interesante que siempre se elija la estrategia (0,0) con igual frecuencia (𝑝1) que la estrategia (1,1) (𝑝4). Además, puede concluirse que, a mayor “M” o menor “m”, mayor frecuencia de las estrategias de othismos total (1,1) y no othismos total (0,0), puesto que la primera se vuelve más rentable al causar con mayor probabilidad la ruptura de la fuerza contraria cuando realiza othismos parcial, pero también, como respuesta a este aumento de la frecuencia de (1,1), la estrategia contraria (0,0) también se vuelve más rentable. Por otro lado, si aumentasen las bajas causadas por las líneas más abiertas frente a un oponente en othismos (“m”), lógicamente aumenta la rentabilidad de no hacer othismos, pero solo en los casos parciales (1,0) y (0,1), mientras que (1,1) se vuelve menos frecuente y, como consecuencia, también (0,0). Idealmente podría testarse este modelo matemático con las frecuencias observadas en batallas de falanges de la antigüedad, aunque para extraer la lógica de las estrategias de equilibrio hemos tenido que simplificar muchos otros factores que han sido determinantes en el resultado real de muchas batallas, como diferencias en el terreno, en el número total de efectivos disponibles por cada bando y su calidad, la presencia de otro tipo de unidades como peltastas, caballería, etc.
Conclusiones
Con esta aportación teórica he pretendido defender que, extrayendo los elementos básicos característicos de las batallas de falanges de hoplitas y dándolos todos por ciertos, la lógica estratégica profunda del enfrentamiento no puede producir una única estrategia ganadora funcional (el othismos en toda la línea o su opuesto, un enfrentamiento sin empuje con líneas más abiertas), sino que precisamente predice la diversidad de estrategias efectivamente empleadas en la línea de batalla. De hecho, asumiendo que durante la batalla se puedan replantear estrategias en las alas, lo esperable sería el tipo de fluctuaciones entre othismos y líneas más abiertas sin presión al avance en diferentes secciones de la línea de batalla que ya ha sido propuesto por autores como Matthew (2009) o Dahm (2010). En particular, el othismos representa una forma efectiva de romper la línea enemiga, flanquearla para inducir el pánico y provocar su retirada en desorden sólo si se ejerce desde alguna de las dos alas, pero no desde las dos a la vez como táctica única, lo que parece corresponderse con una disposición desigual del número de filas en las alas que se ha documentado en batallas como Leuctra (371 a.C.). Esta funcionalidad se mantiene incluso a pesar de que las bajas en las primeras filas de un ala aplicando othismos puedan ser muy superiores a las que tendrían con una formación más abierta que permite un uso más efectivo de las armas (m > n). El beneficio potencial de romper la línea enemiga simplemente compensa ese coste en bajas (M > m). Así pues, la panoplia del infante pesado en una batalla hoplítica no tiene por qué estar optimizada a las necesidades de supervivencia en combate de los hoplitas de las primeras líneas.
Bibliografía
- Azar, O.H. & Bar-Eli, M. (2011), “Do soccer players play the mixed-strategy Nash equilibrium?”, Applied Economics 43:25, 3591-3601.
- Bardunias, P. “The aspis. Surviving Hoplite Battle”, in : Ancient Warfare I.3 (2007), 11-14.
- Binmore, K. La teoría de juegos. Una breve introducción, Alianza Editorial, 2011.
- Cawkwell, G. L. Phillip of Macedon. London 1978.
- Dahm, M. “The shove” or not the “shove”: the othismos question”, en: Ancient Warfare IV.2 (2010), 48-53.
- Gibbons, R. Un primer curso de teoría de juegos, Antoni Bosch Ed., 1993.
- Hanson, V. D. The Western Way of War. Oxford 1989.
- Krentz, P. “The Nature of Hoplite Battle”, Classical Antiquity 16 (1985), 50-61.
- Krentz, P. “Continuing the othismos on the othismos”, Ancient History Bulletin 8 (1994), 45-49.
- Krentz, P. “Hoplite Hell: How Hoplites Fought”, in Men of Bronze: Hoplite Warfare in Ancient Greece, Kagan, D. & Viggiano, F. eds., Princeton University Press, 2013 [en esp. Hombres de bronce. Hoplitas en la antigua Grecia, Desperta Ferro Ediciones, 2017].
- Matthew, C. A. “When Push Comes to Shove: What was the Othismos of Hoplite Combat?”, in: Historia 58 (2009), 395-415.
- Palacios-Huerta, I, “Professionals Play Minimax”, Review of Economic Studies 20 (2003), 395-415.
- Ray Jr., F. E. Land Battles in 5th Century B.C. Greece. A History and Analysis of 173 Engagements, McFarland, 2009.
- Ray Jr., F. E. Greek and Macedonian Land Battles of the 4th Century B.C. Greece. A History and Analysis of 187 Engagements, McFarland, 2012.
Comentarios recientes