UN PRIMER CURSO DE LÓGICA PARA ESTUDIANTES DE FILOSOFÍA Miguel Molina Un primer curso de Lógica Para estudiantes de Filosofía Miguel Molina Toda la historia de la lógica es un intento por definir una noción aceptable de estupidez. Demasiado ambicioso. U MBERTO E CO Copyright c 2013 John Smith P UBLISHED BY P UBLISHER BOOK - WEBSITE . COM Licensed under the Creative Commons Attribution-NonCommercial 3.0 Unported License (the “License”). You may not use this file except in compliance with the License. You may obtain a copy of the License at http://creativecommons.org/licenses/by-nc/3.0. Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an “AS IS ” BASIS , WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. First printing, March 2013 Prefacio Índice general Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I Lógica I 1 ¿Lógica? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.1 Dos acertijos 1.1.1 1.1.2 Nurikabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 El oso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.2 Inferencias, proposiciones y argumentos 14 1.3 El problema de la calidad 17 1.4 Argumentos deductivos e inductivos 19 1.5 Lógica: primera aproximación 21 1.6 Una clase importante de argumentos válidos 21 1.6.1 1.6.2 La biblioteca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 Nigra sum, sed formosa: la forma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 1.7 ¿Qué es la lógica? 34 1.8 Ejercicios 36 2 Naturaleza, artificio y forma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 2.1 Las lenguas naturales 42 2.2 Lenguas artificiales 44 2.2.1 2.2.2 Las lenguas internacionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 Otras lenguas artificiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 9 2.3 Lenguajes formales 48 2.3.1 Lenguaje y metalenguaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 2.4 Lógica y lenguajes formales 56 2.5 Ejercicios 58 Lógica proposicional II 3 Sintaxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 3.1 Alfabeto 61 3.2 Fórmulas 64 3.3 El bloqueo de la ambigüedad estructural 66 3.3.1 Inducción sobre fórmulas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3.4 El teorema de lectura única 68 3.5 Árbol de formación de una fórmula 71 3.6 Ejercicios 73 4 Semántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 4.1 Verdadero, falso e interpretaciones 76 4.2 Tautologías, contradicciones y contingencias 78 4.3 Tablas de verdad 79 4.4 Asignaciones proposicionales e interpretaciones 81 4.5 Modelos y contramodelos 83 4.6 Vuelta a la biblioteca 86 4.6.1 4.6.2 Una advertencia importante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 La tabla de verdad en la biblioteca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 4.7 ¿Decir lo mismo? Equivalencia 87 4.8 ¿Será suficiente? Conjuntos adecuados de conectivos 89 4.9 Ejercicios 95 5 Conectivos lógicos y lenguaje natural . . . . . . . . . . . . . . . . . . . . . . . . . 97 5.1 El conectivo ¬ 5.1.1 5.1.2 5.1.3 La negación de proposiciones cuantificadas . . . . . . . . . . . . . . . . . . . . . . . . . . 99 La negación de proposiciones que expresan relaciones asimétricas . . . . . . 100 La negación de algunas proposiciones modalizadas que expresan creencia, posibilidad, etc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 5.2 El conectivo ∧ 101 5.3 El conectivo ∨ 102 5.4 El conectivo → 103 5.4.1 5.4.2 5.4.3 Condiciones suficientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 Condiciones necesarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 Condicionales expresados con un “y” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 5.5 El conectivo ↔ 105 5.6 Ejercicios 106 98 6 Consecuencia semántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 6.1 La validez en el lenguaje formal 109 6.2 La relación de consecuencia semántica 111 6.3 Conjuntos insatisfacibles y contradicciones 112 6.4 Conjunto vacío y tautologías 113 6.5 Monotonía 113 6.6 El condicional asociado 115 6.7 El teorema de deducción (versión semántica) 117 6.8 El “absurdo” 118 6.9 Ejercicios 119 7 Consecuencia sintáctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 7.1 Tras las huellas de los humanos 7.1.1 7.1.2 Pensar como la gente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 ¿Qué nos falta? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 7.2 El sistema de deducción natural para L P 143 7.3 Consecuencia sintáctica 147 7.3.1 Acerca de las derivaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 7.4 Heurística 149 7.5 Errores frecuentes al intentar hacer derivaciones 160 7.5.1 7.5.2 7.5.3 7.5.4 Creer en la magia . . . . . . . . . . . . . . . . . . . Invocar fórmulas bajo supuestos cerrados No cerrar supuestos . . . . . . . . . . . . . . . . . . Abusar del conocimiento semántico . . . . 7.6 Propiedades de la relación de consecuencia sintáctica 7.6.1 7.6.2 7.6.3 7.6.4 Consecuencias de conjuntos inconsistentes . Monotonía . . . . . . . . . . . . . . . . . . . . . . . . . . . . El teorema de deducción (versión sintáctica) El “absurdo” . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.7 Aparatos deductivos 7.7.1 7.7.2 7.7.3 Derivaciones en sistemas formales axiomáticos . . . . . . . . . . . . . . . . . . . . . . . 169 Inducción sobre la longitud de las derivaciones . . . . . . . . . . . . . . . . . . . . . . 170 Un sistema axiomático para la lógica proposicional . . . . . . . . . . . . . . . . . . . 170 7.8 Excurso filosófico: Lógica intuicionista 171 7.9 Ejercicios 179 123 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 161 163 163 163 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 164 164 165 167 Lógica de primer orden III 8 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 9 Sintaxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 9.1 Alfabeto 189 9.2 Fórmulas 194 9.3 El teorema de lectura única 199 9.4 Árbol de formación de una fórmula 199 9.5 Lenguajes de Primer Orden 200 10 Semántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 10.1 Interpretaciones 203 10.2 Estructuras 206 10.3 Valores de verdad bajo una interpretación 207 10.3.1 10.3.2 10.3.3 10.3.4 10.3.5 Fórmulas atómicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cuantificador universal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cuantificador existencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Comportamiento semántico de los conectivos proposicionales . . . . Evaluación semántica de un lenguaje L bajo una interpretación M 10.4 Modelos, fórmulas válidas, tautologías 212 10.5 Conjuntos satisfacibles e insatisfacibles 215 11 L PO y lenguaje natural . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 11.1 La elección de los predicados 221 11.2 La cuantificación 224 11.3 En la práctica 225 11.4 La igualdad 228 11.5 Excurso filosófico: Descripciones definidas según Russell 11.5.1 11.5.2 11.5.3 11.5.4 Planteamiento del problema Frege . . . . . . . . . . . . . . . . . . . Meinong . . . . . . . . . . . . . . . . Russell . . . . . . . . . . . . . . . . . . . 11.6 Excurso filosófico: Una versión del argumento ontológico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 208 210 211 211 229 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 231 231 232 233 11.6.1 La versión cartesiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 11.6.2 Objeciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 11.6.3 La falacia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237 12 Consecuencia semántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 12.1 Definición y primeros ejemplos 239 12.2 Propiedades de la consecuencia semántica en primer orden 242 12.3 La consecuencia semántica y la corrección argumental 244 12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell 246 12.4.1 La lógica aristotélica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246 12.4.2 Alcance de la lógica aristotélica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253 12.4.3 Implicaciones filosóficas según Russell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254 13 Consecuencia sintáctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257 13.1 Las reglas de inferencia 257 13.1.1 La igualdad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257 13.1.2 Los cuantificadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260 13.2 El sistema de deducción natural para L PO 267 13.3 Consecuencia sintáctica 269 13.4 Heurística 269 13.5 Propiedades de la consecuencia sintáctica 278 13.6 Excurso filosófico: Contextos indirectos 279 IV Metateoría 14 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283 15 Corrección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285 15.1 La demostración 285 15.2 Consecuencias de la corrección 292 16 Compacidad y completitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295 16.1 Compacidad 296 16.1.1 Compacidad de L P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297 16.1.2 El teorema de compacidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299 16.2 Completitud de L P 300 16.2.1 La idea de la demostración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301 16.2.2 El teorema de completitud para L P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310 16.3 En L PO 312 Epílogo: Lógica, ¿para qué? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313 Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323 Índice alfabético . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329 I Lógica 1 ¿Lógica? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 Dos acertijos Inferencias, proposiciones y argumentos El problema de la calidad Argumentos deductivos e inductivos Lógica: primera aproximación Una clase importante de argumentos válidos ¿Qué es la lógica? Ejercicios 2 Naturaleza, artificio y forma . . . . . . . . . . 41 2.1 2.2 2.3 2.4 2.5 Las lenguas naturales Lenguas artificiales Lenguajes formales Lógica y lenguajes formales Ejercicios 1. ¿Lógica? N esta primera parte intentaremos dar una respuesta a la pregunta “¿Qué es la lógica?”. Como el lector imaginará, no se trata de una pregunta que admita una respuesta a la vez correcta, comprensible para quien la desconoce a priori y que se pueda dar en pocas líneas. Así es que comenzaremos un recorrido tendiente a responderla, en el cual revisaremos variados elementos necesarios para ello. Por poco contacto que hayamos tenido con la ciencia de la lógica, sabemos que esta tiene relación con el razonamiento. Vamos, por tanto, a comenzar nuestro recorrido resolviendo algunos problemas y acertijos, con la esperanza de que esa actividad, que seguramente será divertida, nos ayude a aproximarnos a una comprensión cabal de qué es la lógica. E 1.1 1.1.1 Dos acertijos Nurikabe El Nurikabe es un juego inventado en Japón en el año 1991, aparentemente por la compañía Nikoli1 , en el que se parte de una grilla cuadrada en algunas de cuyas casillas hay números, y el objetivo es determinar cuáles casillas son blancas y cuáles negras según reglas dadas. La figura siguiente muestra la disposición inicial de un nurikabe de 5x5 y su solución. 5 4 1 4 5 4 1 4 Antes de dar las reglas que nos permitirán determinar cuáles cuadrados deben quedar negros y cuáles no, introduzcamos dos términos que nos serán útiles. 1 http://es.wikipedia.org/wiki/Nurikabe, consultada el 4 de agosto de 2013. Capítulo 1. ¿Lógica? 10 Diremos que las casillas negras representan agua, mientras que las blancas representan islas. Las reglas son: 1. Toda casilla debe quedar al final en negro (agua) o en blanco (o sea, formar parte de una isla o ser ella misma una isla). 2. Todas las casillas que representan agua deben quedar conectadas; es decir se debe poder ir desde cualquier casilla con agua hasta cualquier otra también con agua sin pasar jamás por una isla. La conexión se da a través de los lados. Si dos casillas con agua comparten un vértice pero no un lado, ese contacto no cuenta como conexión. 3. No debe quedar ningún cuadrado de 2x2 formado solamente por casillas con agua. 4. Cada casilla numerada debe estar en una isla formada por tantas casillas como indica su número. Las islas están formadas por casillas conectadas por un lado. Ninguna isla debe tener más de una casilla numerada en su interior. Observe que en la solución ofrecida se cumplen todas las condiciones impuestas por las reglas. Examinemos ahora la resolución de un nurikabe. En las figuras hemos agregado un sistema de coordenadas a la grilla (letras para las columnas, números para las filas), de modo que podamos referir a cada casilla individualmente. La disposición inicial es la siguiente: 5 2 2 1 3 3 4 3 2 1 A B C D E Podemos resolver el problema de descubrir cuáles casillas tienen agua siguiendo este razonamiento: Paso 1: Observe la casilla A2. Según la regla 4, esa casilla debe constituir por sí sola una isla. Por lo tanto, debe estar completamente rodeada de agua. Por eso, se deduce que las casillas A1, B2 y A3 tienen agua. 5 2 2 1 3 3 4 3 2 1 A B C D E Paso 2: Las casillas B5 y D5 separan casillas numeradas. Si no tuvieran agua, existirían islas con más de una casilla numerada en ellas, violando la regla 4. Por lo tanto, en B5 y D5 hay agua. 5 2 2 1 3 3 4 3 2 1 A B C D E 1.1 Dos acertijos 11 Paso 3: La regla 2 indica que todas las casillas que tienen agua deben estar conectadas. Para que las casillas con agua A1, B5 y D5 no queden aisladas, es necesario que haya agua en B1, B4 y D4. 5 2 2 1 3 3 4 3 2 1 A B C D E Paso 4: Por regla 2, en A4 no puede haber agua, para conformar la isla de A5. Entonces, la única forma de que el agua de A3 no quede aislada es que haya agua en B3. 5 2 2 1 3 3 4 3 2 1 A B C D E Paso 5: Por regla 4, las casillas C4 y C5 deben conformar una isla, de manera que en C3 debe haber agua. 5 2 2 1 3 3 4 3 2 1 A B C D E Paso 6: Por regla 4, las casillas E5, E4 y E3 deben conformar una isla, de manera que en D3 y E2 debe haber agua. 5 2 2 1 3 3 4 3 2 1 A B C D E Paso 7: Por regla 4, la casilla C2 forma parte de una isla de 3 casillas, que solo pueden ser C1, C2 y D2 o C2, D2 y D1. Y no hay más islas. En cualquiera de los dos casos, en la casilla E1 hay agua, y por tanto, en E1 hay agua. Capítulo 1. ¿Lógica? 12 5 2 2 1 3 3 4 3 2 1 A B C D E Paso 8: Por regla 2, el agua de las casillas E1 y E2 debe quedar conectada con el resto del agua que aparece en la grilla. La conexión puede hacerse o bien a través de E3, pero en este caso la isla de E5 quedaría con dos casillas, no con tres; o bien a través de D1 y C1, pero en este caso la isla de C2 quedaría con dos casillas, no con tres; o bien a través de D2. Esta es la única posibilidad de no violar las reglas. Entonces, hay agua en D2 y con esto queda resuelto el nurikabe propuesto. 5 2 2 1 3 3 4 3 2 1 A B C D E Reflexionemos sobre lo que acabamos de hacer. Estamos absolutamente seguros de que hemos resuelto el nurikabe. Además, repasando el razonamiento que hicimos para conseguirlo, nos convencemos fácilmente de que hemos hallado la única solución de este. En cada paso hemos estado “obligados” a optar como lo hicimos, de manera que no hay otra solución. Si se nos presenta la configuración inicial, y se nos dice que algunas casillas son blancas y otras son negras, respetando las reglas, podemos estar seguros, absolutamente seguros, a través del razonamiento hecho, de que si la configuración inicial es esa, y las reglas se cumplen, entonces las casillas negras son A1, B1, B2, A3, B3, B4, B5, C3, D2, D3, D4, D5, E1, E2, y las restantes son blancas. Es imposible que si es verdad que en un nurikabe de 5x5 la configuración inicial es la dada y las reglas se cumplen, la solución sea otra o no haya solución. Examinemos ahora un conocido problema. 1.1.2 El oso El problema del oso es muy famoso. Fue votado como uno de los diez acertijos más conocidos en la lista de correo Snark, dedicada a los juegos de ingenio2 , y considero poco probable que el lector no lo conozca. Sin embargo, será valioso analizarlo. El acertijo se enuncia así: Un oso camina 10 kilómetros hacia el sur, 10 hacia el este, y 10 hacia el norte, volviendo al punto del que partió. ¿Cuál es el color es el oso? Es muy probable que si el lector conoce el acertijo, recuerde que en la versión por él conocida aparecía un cazador. Pero aquí analizaremos el pelaje del animal que pasea tranquilamente, sin que nadie lo moleste. 2 Seguramente, la mejor lista de correo para compartir acertijos en español. Para inscribirse: http://mailman.uba.ar/mailman/listinfo/snark 1.1 Dos acertijos 13 Parece que de los datos no podemos inferir nada sobre el color del oso. Después de todo, saber que algo se movió así o asá no parece decir nada acerca de su color. Pero examinemos el enunciado con más detenimiento. Tiene algo extraño: se nos dice que el oso comienza y termina su recorrido en el mismo punto. Hagamos un diagrama, suponiendo que el oso parte de A: D A 10 km 10 km B 10 km C Obviamente, esto no puede ser. Aparentemente, el problema está mal planteado, ya que el oso no empieza y termina su recorrido en el mismo punto, sino en un punto que dista 10 Km de donde partió. Pero en realidad, el problema es nuestro, ya que este diagrama representa el recorrido del oso en un plano, y hace ya algún tiempo que la humanidad sabe que no vive en un planeta con forma de plato. Por lo tanto, una representación más adecuada sería la siguiente: N A B D C W E S Ahora vemos que no es verdad, en general, que el oso termine a 10 Km de donde empezó. Y también es obvio dónde puede empezar su recorrido el oso para cumplir las condiciones impuestas por el acertijo: N A=D B C W E S Capítulo 1. ¿Lógica? 14 Aparentemente, el oso partió del Polo Norte y volvió allí. Nunca estuvo a una distancia mayor a 10 kilómetros del polo. ¿Es necesariamente esto así? Tal vez el lector no resuelva problemas de geometría esférica todos los días, de modo que adelantamos la respuesta: No, el oso también puede moverse en las inmediaciones del Polo Sur. Considere lo siguiente: existe un paralelo en el hemisferio sur cuya circunferencia mide exactamente 10 kilómetros. El oso puede haberse encontrado 10 kilómetros al norte de ese paralelo al comenzar su recorrido. Al caminar 10 km al sur, llega a ese paralelo, luego lo recorre completamente caminando siempre hacia el este, con lo que vuelve al punto en que llegó a ese paralelo caminando 10 kilómetros, y al moverse al norte 10 kilómetros vuelve al punto de partida. La figura siguiente muestra una posible trayectoria del oso (en una escala exagerada): S W E N Y no hay más lugares donde pueda estar el oso para cumplir con el enunciado del acertijo. Entonces, ni siquiera sabemos dónde está el oso. Sin embargo, en la Antártida (que es donde se mueve el oso si está en el hemisferio sur) no hay osos. Por lo tanto, el oso se mueve en las inmediaciones del Polo Norte. Así que: ¿De qué color es el oso? La respuesta parece obvia: si está en las inmediaciones del Polo Norte, debe ser un oso polar, y por lo tanto, blanco. Es verdad que se considera que esa es la respuesta correcta al acertijo, y en cierto sentido, lo es. Pero, ¿realmente el oso tiene que ser blanco? En realidad, si pensamos bien, el problema es totalmente equivalente, en cuanto a lo relevante, a “Hay un oso en el Polo Norte o muy cerca del Polo Sur. ¿Cuál es su color?”. Nadie discutirá que es sumamente razonable responder que es blanco. Pero evidentemente, no es absolutamente seguro que el oso sea blanco, aun si está en el Polo Norte. Podría ser un oso grolar, un híbrido raro de oso polar y oso pardo, que tiene características de sus dos padres y su pelaje a veces no es blanco. Podría ser un oso pardo, perdido por allí. Podría ser de cualquier color, en realidad. Por improbable que parezca, podría ser un oso polar al que alguien haya pintado de rojo. Esto sin contar con que el enunciado del problema es compatible con que el oso esté en el hemisferio sur, en cuyo caso no tendríamos razón alguna para afirmar que es de un color u otro. Por supuesto, es muy poco razonable decir algo como que el oso es rojo. Pero no es imposible que el oso sea rojo, por más que haya caminado 10 kilómetros al sur, luego 10 kilómetros al este, luego 10 kilómetros al norte y haya vuelto a su punto de partida. 1.2 Inferencias, proposiciones y argumentos Revisemos lo que hemos hecho con el nurikabe y el problema del oso. En ambos casos hemos partido de una información dada (la disposición inicial y las reglas del nurikabe en un caso; que el animal cuyo color debíamos hallar era un oso -observe que si nos hubieran dicho que un mamífero hacía el recorrido que se le atribuyó al oso, no hubiéramos encontrado una respuesta tan razonabley el recorrido que hizo en otro), y hemos arribado a una conclusión. 1.2 Inferencias, proposiciones y argumentos 15 ¿Y qué es una conclusión? ¿Por qué algo es una conclusión? Parece claro que la conclusión es lo que afirmamos luego de examinar cuidadosamente la información proporcionada. Ese examen fue necesario porque hay una determinada relación entre la conclusión y la información que nos dieron, una relación que no es fácil de precisar, pero que podemos presentar, en una primera aproximación así: en caso de que la información proporcionada sea correcta, la conclusión es muy plausible. Vamos a llamar inferir a la actividad de extraer una conclusión de una información dada. La inferencia correspondiente será la información dada junto con su conclusión, siempre que distingamos la conclusión de la información dada. Es esta una definición muy amplia. Supongamos que estoy en mi casa, ya acostado, y siento hambre. Me levanto sin encender la luz y me dirijo a la cocina. Antes de llegar, siento un ruido de arrastre junto con un agudísimo dolor en el dedo meñique del pie derecho. Infiero que me llevé por delante un mueble. En este caso, buena parte de la información relevante para extraer la conclusión está presentada en una forma dolorosamente sensorial, no lingüística. Por otro lado, si al otro día le cuento a un amigo “Anoche estaba ya acostado y me vino hambre. Me levanto sin prender la luz, doy un par de pasos y ¡pah! sentí que me arrancaban el dedo chiquito del pie derecho...”, y mi amigo me interrumpe diciendo “¡Ja! Te llevaste un mueble por delante.”, él ha concluido lo mismo que yo, pero lo ha hecho desde información presentada en forma lingüística, o menos ampulosamente, mediante un lenguaje, en este caso, el español. Como veremos en breve, vamos a interesarnos exclusivamente por las inferencias en las que la conclusión surge o se extrae a partir de fragmentos lingüísticos, es decir, de expresiones de algún lenguaje, y llamaremos argumentos a estas inferencias. Desde este punto de vista, un argumento quedará determinado por un conjunto de expresiones lingüísticas: las que contienen la información dada, y la que contiene la conclusión. Nos interesa volver a presentar la inferencia del nurikabe bajo esta luz. Para hacerlo, definamos algunos términos: Por “nurikabe de 5x5” entendemos una grilla cuadrada de 5 casillas de lado, en la cual algunas casillas contienen números. En un nurikabe 5x5 etiquetamos las columnas como A, B, C, D y F (en ese orden) y las columnas como 1, 2, 3, 4 y 5 (en ese orden). Por “casilla xy” significamos la casilla que se encuentra en la columna x y en la fila y. Dos casillas diferentes se llamarán contiguas si comparten un lado, y diremos que dos casillas α y ω están conectadas por negras (blancas) si hay una sucesión de casillas negras (blancas) tal que cada casilla –excepto la primera– es contigua a la anterior, todas las casillas de la sucesión son negras (blancas) y la primera casilla de la sucesión es α y la última es ω. Podemos mostrar así la inferencia colocando la conclusión bajo una línea horizontal sobre la cual se encuentran las expresiones que contienen la información dada: Inferencia del nurikabe En un nurikabe de 5x5, en la casilla A2 hay un 1; en las casillas A5 y C5 hay un 2; en la casilla E5 hay un 3 y ninguna casilla, además de estas, contiene un número. Toda casilla del nurikabe es blanca o negra (y no ambas cosas). Todas las casillas negras están conectadas por negras No hay cuatro casillas negras que ocupen la intersección de dos filas consecutivas con dos columnas consecutivas. Si una casilla contiene el número n es blanca. Además, existen exactamente n − 1 casillas blancas que no tienen número y están conectadas con ella. Todas las casillas blancas que no contienen un número están conectadas por blancas con exactamente una casilla que sí contiene un número. Las casillas A2, A4, A5, C1, C2, C4, C5, D1, E3, E4, E5 son blancas; las restantes son negras. Capítulo 1. ¿Lógica? 16 Y podemos hacer lo mismo para la inferencia del oso: Inferencia del oso Un oso caminó 10 kilómetros al sur de su punto de partida, giró al este y caminó 10 kilómetros, giró al norte, caminó 10 kilómetros y volvió a su punto de partida. El oso es blanco Ahora veremos qué características tienen las expresiones lingüísticas que nos proporcionan la información necesaria para hacer inferencias. Hay una clase de expresiones que tienen la característica de que podemos decir de ellas que son verdaderas o falsas. La clasificación de las expresiones según los cánones de la gramática española no nos ayudará demasiado a identificarlas, pues si bien las oraciones llamadas asertivas normalmente cumplen la condición que nos llama la atención ahora –es decir, pueden ser verdaderas o falsas–, no son las únicas que la cumplen. Por lo tanto, apelaremos a nuestra condición de hablantes competentes de la lengua para identificarlas. Podemos hacer una lista en dos columnas, y reconocer inmediatamente que de las expresiones de la izquierda podemos decir que son verdaderas o falsas, mientras que de las expresiones de la derecha no podemos decir lo mismo. Con valor de verdad Sin valor de verdad Está lloviendo. Salió el sol. Partes el pan. Me duele. ¿Está lloviendo? Ojalá salga el sol. Por favor, parte el pan. ¡Ay! Los ejemplos podrían multiplicarse indefinidamente, pero no es necesario. La idea está suficientemente clara. Diremos que esas expresiones de las que podemos decir que son verdaderas o falsas expresan proposiciones. Es conveniente que nos detengamos un poco en este punto. Observe que no decimos que la expresión es la proposición, sino que expresa la proposición. Determinar qué es una proposición es un problema filosófico de importante calado, del que se ocupa la filosofía de la lógica. Sin profundizar en el problema, daremos la principal motivación para no identificar la proposición con la expresión lingüística que la expresa. Esta es que vamos a querer decir que las expresiones lingüísticas “Llueve”, “Está lloviendo”, “It’s raining”, expresan todas la misma proposición, aunque obviamente, como expresiones lingüísticas no son la misma. Podemos pensar que una proposición es aquello que puede ser verdadero o falso en una expresión lingüística de la que decimos que puede ser verdadera o falsa. La proposición sería el portador de la verdad o la falsedad. Por supuesto, todo esto puede parecer una sutileza inútil. En todo caso, el problema existe y no se conoce una solución que obtenga amplios consensos. Algunos filósofos piensan que las proposiciones son hechos, otros que son objetos abstractos, otros que son entidades mentales, otros se decantan por la opinión de que son clases de expresiones lingüísticas. Afortunadamente, para hacer lógica no es necesario saber qué es una proposición más allá de lo dicho: Una proposición es aquello que puede ser verdadero o falso, y derivativamente, decimos que una expresión lingüística es verdadera o falsa cuando lo es la proposición que esta expresa. Por eso, terminamos la discusión acerca de la naturaleza de las proposiciones en este mismo punto y continuamos con nuestro camino, no sin antes indicar al lector interesado que puede encontrar una somera discusión sobre el problema con referencias para profundizar en [Gra90]. 1.3 El problema de la calidad 17 ¿Y por qué nos dedicamos a hablar de proposiciones? Estamos interesados en las proposiciones porque vamos a acotar nuestro análisis a inferencias en las que la información aportada así como la conclusión están dadas a través de expresiones lingüísticas que expresan proposiciones, o sea, a argumentos. Es más, consideraremos que lo esencial en los argumentos no son las expresiones lingüísticas, sino las proposiciones que expresan. Que esto es razonable queda claro considerando los dos argumentos siguientes: Argumento 1 Está lloviendo. Debo salir a la calle No tengo el paraguas aquí Argumento 2 Llueve Tengo que salir a la calle Estoy sin mi paraguas Me mojaré Me voy a mojar Hay un sentido en el que nos gustaría decir que ambos argumentos son el mismo. Este sentido se podría expresar groseramente diciendo que se concluye lo mismo en ambos a partir de la misma información. Y si aceptamos que los argumentos son conjuntos de proposiciones con una destacada como conclusión, y que las proposiciones correspondientes son las mismas, aunque sus expresiones lingüísticas son diferentes, parece indiscutible que también debemos identificar ambos argumentos. De ahora en adelante, las expresiones lingüísticas nos interesarán fundamentalmente en tanto expresan proposiciones, y más aun, cometiendo un abuso de lenguaje, hablaremos de las expresiones como si fueran proposiciones. Diremos, por ejemplo: La proposición “Salió el sol” queriendo significar la proposición expresada por la oración “Salió el sol”. Continuando con este proceso de acercamiento gradual a nuestro objeto, reformulemos lo que es un argumento a la luz de lo que hemos dicho sobre proposiciones: Un argumento es un conjunto de proposiciones en el cual se distingue una como la conclusión. Las restantes se llaman premisas. De acuerdo con esto, el esquema general de un argumento será: Premisa 1 Premisa 2 .. . Premisa n Conclusión Es importante recordar que tanto las premisas como la conclusión son proposiciones. Por supuesto, los argumentos se expresan lingüísticamente, y así podemos referirnos a un determinado texto como un argumento. Pero es el mismo caso que el de las proposiciones, es decir, el argumento, desde nuestro punto de vista, no es el texto que lo expresa sino el conjunto de proposiciones expresadas por el texto, en el cual se destaca una como conclusión. Nos centraremos en los argumentos, ya que como veremos, de ellos es que se ocupa la lógica. 1.3 El problema de la calidad Cuando resolvimos los acertijos del nurikabe y del oso construimos sendos argumentos. Consideramos las proposiciones que aparecían en el enunciado del acertijo, las tomamos como premisas Capítulo 1. ¿Lógica? 18 y obtuvimos una conclusión. Pero, por supuesto, nos costó cierto trabajo hacerlo. ¿Para qué nos tomamos ese trabajo? La respuesta es que nos tomamos ese trabajo para asegurar la calidad del argumento. Veamos qué significa esto, a través de algunos ejemplos de argumentos de los cuales intentaremos decir algo sobre su calidad. Todo el dinero que tengo son tres monedas. Las monedas que existen son de 1, de 2, de 5 y de 10 pesos. Tengo 35 pesos. No hay dudas de que este argumento es muy malo, y no vacilamos en decir eso porque en caso de que las premisas sean verdaderas, es decir, si la información aportada por las premisas es correcta, entonces la conclusión debe ser falsa. Consideremos este otro argumento: Todo el dinero que tengo son tres monedas. Las monedas que existen son de 1, de 2, de 5 y de 10 pesos. Tengo 30 pesos. Este segundo argumento no parece ser tan malo como el anterior, pero sin embargo, parece bastante malo. La información que las premisas aportan no es incompatible con la ofrecida por la conclusión, como en el caso anterior. Sin embargo, la verdad de las premisas no hace plausible la conclusión. Más bien, parece poco razonable afirmar la conclusión en base a la información aportada por las premisas. Esto es así porque la única forma en que la conclusión sea verdadera dada la información aportada por las premisas es que tenga tres monedas iguales de 10 pesos cada una, y la información que las premisas dan es compatible con muchos escenarios en los que eso no se cumple. Nos parece una conclusión extremadamente poco segura, muy arriesgada. Veamos el siguiente argumento: Todo el dinero que tengo son tres monedas. Las monedas que existen son de 1, de 2, de 5 y de 10 pesos. Tengo menos que 13 pesos. Este argumento no parece tan malo como el último. Por supuesto, es una inferencia arriesgada, ya que la información aportada con las premisas es compatible con que tenga 13, 14, 16, 17, 20, 21, 22, 25, o 30 pesos, y en cualquiera de esos casos la conclusión sería falsa. Pero también es compatible con varios casos –no solo con uno, aquí radica la diferencia con la inferencia anterior– en los que la conclusión sería verdadera. Como sea, la conclusión no parece firmemente apoyada por las premisas, aunque el apoyo que recibe es mayor que en la inferencia anterior. Veamos otra inferencia aun: Todo el dinero que tengo son tres monedas. Las monedas que existen son de 1, de 2, de 5 y de 10 pesos. Tengo más que 3 pesos. Este argumento parece bastante bueno. La información aportada por las premisas parece apoyar en un grado muy alto la conclusión. En caso que las premisas sean verdaderas, la conclusión lo será excepto solo en un caso: cuando las tres monedas que tengo sean de 1 peso cada una. Es una conclusión arriesgada, pero “sentimos” que el riesgo que asume es pequeño. Y consideremos un último argumento con las mismas premisas: 1.4 Argumentos deductivos e inductivos 19 Todo el dinero que tengo son tres monedas. Las monedas que existen son de 1, de 2, de 5 y de 10 pesos. No tengo exactamente 10 pesos. Veamos cómo se articulan las premisas y la conclusión en este caso. Si tenemos tres monedas, cada una de las cuales es de 1, de 2 , de 5 o de 10 pesos. ¿Cómo podría ser falsa la conclusión? Un rápido análisis de las posibilidades nos convence de que es imposible que la conclusión sea falsa si las premisas son verdaderas. Eso indica que la calidad de este argumento es excelente, inmejorable. No arriesga nada, la verdad de la conclusión está asegurada si está asegurada la de las premisas. En la próxima sección, distinguiremos los argumentos que tienen esta característica de los demás. 1.4 Argumentos deductivos e inductivos Acabamos de ver que no todos los argumentos son igualmente “buenos”. Hay algunos en los que la verdad de las premisas no asegura la verdad de la conclusión, y entre estos hay “grados de bondad”, es decir, el grado de apoyo que las premisas prestan a la conclusión puede ser variable. Estos son muy importantes, y se encuentran en la base de las afirmaciones que, con un alto grado de certeza, hacen las ciencias naturales. Por ejemplo, cuando se predice que en el interior de un tubo de vacío, una moneda y una pluma de ave, dejadas caer desde la misma altura, llegarán al fondo al mismo tiempo, se está haciendo una inferencia que podríamos representar así: Las numerosas veces que se han dejado caer dos cuerpos en el interior de un tubo de vacío desde la misma altura han llegado al fondo al mismo tiempo. Esta pluma y esta moneda serán dejadas caer desde la misma altura en el interior de un tubo de vacío Esta pluma y esta moneda llegarán al fondo al mismo tiempo. Es este un argumento fortísimo, dado que muchísimas veces se ha repetido la experiencia (si la experiencia solo se hubiera hecho una vez, la inferencia no sería tan buena). No es razonable esperar que la pluma y la moneda no lleguen al mismo tiempo al fondo. Sin embargo, es claro que no es imposible que ese extrañísimo resultado se dé. Si bien las premisas apoyan la conclusión en un grado alto, no la apoyan totalmente. Y no solo la ciencia depende de inferencias de este tipo, sino también muchísimas decisiones que tomamos en la vida cotidiana: cuando salgo de Facultad y voy a la parada de siempre a esperar el ómnibus para volver a mi casa, lo hago basado en una inferencia que tiene como premisa que el 188 ha parado muchas veces allí en un horario determinado, y concluye que dirigiéndome a esa parada podré tomar un ómnibus que me lleve a casa. Por supuesto, también se trata de una inferencia muy segura, pero no totalmente segura. Podría pasar, por ejemplo, que se decida cambiar el recorrido del 188 o que se suprima la línea. Por otro lado, hay argumentos de los que no cabe decir que son más o menos seguros, o muy seguros, sino que son absolutamente seguros. La verdad de sus premisas asegura totalmente la de su conclusión. Es imposible que sean a la vez las premisas verdaderas y la conclusión falsa. Un ejemplo venerable es el que aparece en la memoria de tanta gente, asociado con alguna lección de lógica en la enseñanza secundaria: Todos los hombres son mortales Sócrates es hombre. Sócrates es mortal. Capítulo 1. ¿Lógica? 20 Observemos que la calidad de un argumento no tiene relación con la verdad o falsedad de las premisas y la conclusión consideradas aisladamente, sino meramente con la consideración de si la verdad de las premisas impone verdad a la conclusión. Por ejemplo: Todos los perros tienen plumas Sócrates es perro. Sócrates tiene plumas. Este argumento es excelente, en el siguiente sentido: tiene la misma virtud que el anterior, de que la verdad de las premisas hace imposible la falsedad de la conclusión. Frente a este argumento, si alguien quiere afirmar que la conclusión es falsa, solo le queda el camino de decir que alguna de las premisas lo es, ya que si las premisas fuesen verdaderas, necesariamente la conclusión lo sería. Eso no sucede con el argumento de la pluma y la moneda. Alguien puede a la vez aceptar que hasta el momento los cuerpos lanzados desde la misma altura han llegado al fondo al mismo tiempo, pero negar que eso sucederá la próxima vez que se lancen. No es una postura que parezca razonable, pero en principio, es posible que las premisas sean verdaderas y la conclusión falsa en ese caso. Vamos a introducir una distinción que a esta altura debe parecer muy natural y reviste una fundamental importancia. Diremos que un argumento es válido si es imposible que su conclusión sea falsa siendo verdaderas sus premisas. Otra forma de decir lo mismo es la siguiente: un argumento es válido si es necesario que su conclusión sea verdadera si sus premisas lo son. La validez es, en cierto sentido, un grado máximo de virtud de un argumento: las premisas dan apoyo total a la conclusión. Y como dado un argumento, sus premisas ofrecen apoyo total a su conclusión o no lo hacen, es una característica que los argumentos tienen o no tienen, no hay grados en ello. No hay argumentos más válidos que otros, solamente hay argumentos válidos y argumentos inválidos. Un argumento que, además de ser válido, tiene premisas verdaderas, se llama sólido. Por supuesto, los argumentos sólidos tienen conclusiones verdaderas. Las inferencias o argumentos que no son válidos tienen diversos grados de bondad. En este libro nos ocuparemos solamente de la cuestión planteada por la división de los argumentos en válidos e inválidos. Básicamente, estaremos interesados en la determinación de la validez de los argumentos. Cuando un argumento es válido, se lo llama deductivo. Caso contrario, lo llamaremos inductivo o no deductivo3 . No está de más repetir que esta cuestión no tiene nada que ver con la verdad de las premisas y la conclusión consideradas aisladamente, sino con la cuestión de si la conclusión puede ser falsa siendo verdaderas las premisas. Si la respuesta es “No”, el argumento es válido. Si es “Sí”, se trata de un argumento inductivo. El concepto introducido es tan importante que bien vale un recuadro: Un argumento es válido si es imposible que sus premisas sean verdaderas y su conclusión falsa, o dicho de otro modo, si es necesario que su conclusión sea verdadera si sus premisas lo son. A veces esto mismo se expresa diciendo que en los argumentos válidos trasmiten la verdad de las premisas a la conclusión, pero creemos que esta forma de hablar no es afortunada. Las premisas pueden perfectamente ser falsas, como hemos remarcado varias veces. Incluso pueden ser tales que en ningún caso pudieran ser verdaderas. Por supuesto, un argumento con premisas así será válido, 3 Esta clasificación de los argumentos no recoge consenso universal, en el sentido de que no todos los filósofos están de acuerdo en clasificar como inductivos a todos los argumentos no válidos. Es decir, hay clasificaciones que encuentran divisiones más finas que la que hemos planteado entre los argumentos no válidos. En estas clasificaciones, los inductivos son solo una clase de argumentos inválidos 1.5 Lógica: primera aproximación 21 porque es imposible que sus premisas sean verdaderas y su conclusión falsa, ya que es imposible que sus premisas sean verdaderas. 1.5 Lógica: primera aproximación La lógica es una ciencia, y en esta sección intentaremos aproximarnos a su objeto. Las ciencias pueden ser consideradas desde diversos puntos de vista, de los cuales dos muy prominentes son el que las presenta como conjuntos de teorías, un corpus organizado de conocimientos, y el que las presenta como una actividad humana inserta en la historia. Desde el punto de vista histórico, hay cierto consenso acerca de que la lógica como ciencia tiene sus orígenes en la obra de Aristóteles, quien dedicó una serie de tratados pioneros a su estudio. En estos tratados, Aristóteles intentaba demarcar los “buenos” argumentos de los “malos”, con independencia de la verdad o falsedad de sus premisas. Por supuesto, no es que Aristóteles no se interesara en la verdad de las proposiciones, sino que buscaba las condiciones bajo las que se podía confiar en el resultado de una inferencia, supuesta la verdad de las premisas. No interesan ahora los detalles de la lógica aristotélica, que fue sumamente influyente a través de la historia, al punto de que pudo considerarse superada recién en el siglo XIX, es decir, unos 2500 años después de los tiempos de Aristóteles. Sin embargo, este primer impulso es el que ha alentado fundamentalmente a la lógica desde siempre. Podemos decir que la lógica es una ciencia que se ocupa de los argumentos, centrándose en las formas de apoyo de las premisas a la conclusión. Tradicionalmente, la lógica se ha ocupado de distinguir los argumentos válidos de los inválidos y del estudio de los argumentos válidos -aunque en el propio Aristóteles se encuentran rudimentos de una lógica que se ocupa de argumentos inválidos-. Una lógica que se ocupara de los argumentos inductivos debería ser capaz de determinar la fuerza o bondad relativa de estos, los diversos grados -no absolutos- en que la verdad de las premisas apoya la de la conclusión y este proyecto, que ha tenido un enorme impulso en el siglo XX, es mucho más discutido que el de la lógica tradicional. Especialmente a partir de un famoso argumento de Hume, que pretende establecer que una inferencia inductiva nunca da razones para creer en su conclusión hay muchos filósofos que dudan incluso de la posibilidad de una lógica inductiva. A pesar de esto, es de destacar que actualmente se hacen ingentes esfuerzos en el sentido de desarrollar lógicas inductivas. Estos esfuerzos caen por completo fuera del interés de este libro, y además el lector debe estar advertido de que cuando se habla de “lógica” a secas, normalmente se está refiriendo a la lógica que se ocupa de la clasificación de argumentos en válidos e inválidos y al estudio de los primeros. Cuando se desea hablar de lógica entendiendo que se intenta la clasificación y calificación de los argumentos inválidos, se suele decir “lógica inductiva”. A esta altura del desarrollo, debe estar claro que la lógica de la que nos ocuparemos -de ahora en más, simplemente “la lógica”- clasificaría la inferencias que hemos hecho al principio, del nurikabe y del oso como inválida esta, válida aquella, y podría arrojar luz sobre algunas cuestiones que aun no sabemos cuáles son concernientes a la que es válida. Análogamente, clasificaría como inválidas todas las inferencias de las tres monedas menos la última, a la que clasificaría como válida. Podría, además, arrojar luz sobre esta inferencia. Nuestra caracterización de la lógica, como ciencia que se ocupa de la discriminación de argumentos válidos e inválidos, y del estudio de los argumentos válidos, está lejos de ser completa. Veamos algunos aspectos necesarios para seguir comprendiendo qué es la lógica. 1.6 Una clase importante de argumentos válidos Examinemos ahora algunos argumentos válidos, con el propósito de identificar alguna característica común que tienen muchos de ellos, y diferenciarlos de otros, también válidos. Para ello, volveremos nuestra atención a una familia de acertijos, inspirados en la obra del eminente lógico, Capítulo 1. ¿Lógica? 22 mago y escritor Raymond Smullyan, cuya lectura recomiendo con especial énfasis (el lector hallará referencias en la bibliografía). 1.6.1 La biblioteca Si el lector ha disfrutado de la estupenda novela El nombre de la rosa, de Umberto Eco, recordará que en ella el protagonista, Guillermo de Baskerville, debe resolver varios enigmas en un ambiente dominado por la presencia de una maravillosa biblioteca. Allí hay una rígida clasificación de las obras, con una sección dedicada a las heréticas, en la que las falsedad campea y cuya libre circulación se considera muy peligrosa. Para acceder a ellas, hay que solicitar un permiso que rara vez se otorga. Ficción por ficción, imaginemos que tenemos la suerte de llegar a una biblioteca medieval, dedicada solamente a guardar las obras de dos famosos escritores, Veratius y Mendacius. Ambos escribieron sobre temas muy arcanos, desconocidos en su totalidad por casi toda la humanidad. Es común abrir uno de esos códices y encontrar frases como “El día que murió Julio César un gladiador llamado Rufus encontró dos sestercios en la Vía Apia”, o “Dios prefiere las biblias en códice a las biblias en rollo”. En general, casi todo lo que escribieron está más allá de nuestras posibilidades de verificación. Pero sin embargo, la posesión de esas obras es muy valiosa, porque todo lo que escribió Veratius es verdadero y todo lo que escribió Mendacius es falso. Por eso, es muy importante, al leer uno de esos libros, saber quién fue su autor. Sea el que fuere, la lectura nos dará conocimiento –si es que hacemos la atribución de autoría correcta–. En esta biblioteca, los códices, manuscritos originales, están dispuestos en estantes, y no tienen una marca de autoría que sea confiable en principio. En general, en el primer folio dicen algunas cosas (escritas por el autor) que pueden permitir hacer la atribución. Nuestro problema es clasificar los libros por autor en cada estante, tarea que se ve dificultada porque ambos autores eran maestros calígrafos y –quizá por ser hermanos gemelos– las maravillosas letras unciales que gustaban trazar son indistinguibles. Recordemos que en esta biblioteca todo libro es de autoría de Veratius o de Mendacius, y que todo lo que dicen las obras del primero es verdadero, mientras que todo lo que dicen las del segundo es falso. Llamaremos “reglas de la biblioteca” a estas condiciones. Advertencia: en los problemas que siguen, la solución se encuentra inmediatamente bajo el planteo. Quizá el lector quiera resolverlos por sí mismo antes de leer la solución. Sería bueno que al menos lo intentara, para comparar sus razonamientos con los que ofrecemos. Un primer problema4 En un estante hay tres códices. El título de uno es “Argos”, el de otro “Belerofonte” y el del último “Casiopea”. Tomamos Argos y lo abrimos, con intención de leer el primer folio. Para nuestra decepción, ha sido atacado por la humedad. Solo llegamos a leer Argos $ Este libro fue escrito por ius En buena parte de donde figuraba un nombre encontramos algo ilegible. Abrimos Belerofonte, el que por suerte está mucho mejor conservado. Su primer folio dice 4 Este mismo problema, bajo otro ropaje, aparece en El hombre que calculaba, de Malba Tahan. 1.6 Una clase importante de argumentos válidos 23 Belerofonte En el primer folio de Argos su autor afirmo que fue escrito por Mendacius Finalmente, miramos el primer folio de Casiopea: Casiopea Belerofonte es un libro lleno de mentiras Nos interesa especialmente saber quién es el autor de Casiopea, ya que hace mucho tiempo queremos investigar sobre su tema, que es métodos de maquillaje de las nereidas. ¿Cómo podemos resolver este problema, si ninguno de los libros dice algo que sea patentemente falso, como por ejemplo, “Dos más dos es igual a cinco” –en cuyo caso sabríamos que el autor es Mendacius–, o patentemente verdadero, como “Esto es un ejemplo de escritura” –en cuyo caso sabríamos que el autor es Veratius? La clave está en imaginar qué es lo que podría haber originalmente en el folio que encontramos corrompido. Supongamos el autor de Argos fuese Veratius. Si así fuese, no podría escribir en su libro que el autor era Mendacius, porque estaría escribiendo algo falso. Ahora supongamos que el autor de Argos fuese Mendacius. ¡Tampoco podría escribir que el autor era él mismo, ya que Mendacius solo escribe cosas falsas! Y no hay otra posibilidad, ya que en la biblioteca todos los libros son o bien de Veratius o bien de Mendacius. O sea, en todos los casos posibles, el primer folio de Argos no podía decir que fue escrito por Mendacius. Hemos deducido que ese folio no afirmaba que el libro era de Mendacius, aunque la información dada en el problema no lo dice explícitamente. Es importante notar que sabemos que en el primer folio de Argos no decía que era de Mendacius, pero no sabemos si lo es o no. Sin embargo, esto nos permite resolver el problema de averiguar el autor de Casiopea: en Belerofonte se dice que el primer folio de Argos afirmaba que había sido escrito por Mendacius. Esto tiene que ser falso, es necesario que Belerofonte sea un libro lleno de mentiras. Y eso es exactamente lo que afirma Casiopea, de modo que este está diciendo una verdad, y por lo tanto su autor es Veratius. Ahora que hemos entendido cómo funcionan las cosas en esa biblioteca tan extraña, consideremos algunas situaciones particulares, de las cuales encontraremos unas sumamente sencillas y otras no tanto. En cada caso, luego de resolverlas, haremos alguna reflexión sobre lo que nos ha permitido hacer la inferencia conducente a la solución. Todo lo contrario En un estante se encuentran dos libros muy, muy viejos. Ambos han perdido su primer folio, ni siquiera sabemos sus títulos, de modo que los llamaremos 1 y 2. A continuación se muestra la primera oración de cada uno de ellos. Capítulo 1. ¿Lógica? 24 1 Dios existe 2 Dios no existe ¿Qué podemos inferir acerca de estos libros? Quizá haya entre los lectores algunos teístas, quienes pensarán que el primero fue escrito por Veratius. Tal vez haya algunos ateos, según los cuales el autor del primero es Mendacius. Es posible que haya agnósticos, quienes no sabrán qué decir acerca de quién es el autor de cada uno de ellos5 . Pero, por más que la creencia acerca de la existencia de Dios pueda dividir las opiniones, hay algo que está más allá de toda disputa: Uno de los libros fue escrito por Mendacius, y el otro por Veratius. Stricto sensu, esto es todo lo que podemos inferir a partir de los datos dados con absoluta seguridad. Es claro que la conclusión de que uno es de Veratius y el otro de Mendacius surge de que uno niega lo que el otro afirma. La proposición expresada por el segundo es la negación de la expresada por el primero, y recíprocamente. En un par así, necesariamente una de las proposiciones es verdadera y la otra falsa. Además, la palabra “no” en la construcción del enunciado es la que nos indica que se está expresando la negación de la proposición anterior. De modo que si el primer libro dice la verdad, el segundo miente, y recíprocamente. Por lo tanto, uno de ellos es de Veratius y el otro de Mendacius. El problema de resolver cuál de ellos es el de Veratius, queda para los libros de teología. Los dos mentimos En otro estante encontramos dos libros, titulados “Dragones” y “Esfinge”. Esfinge está tan deteriorado que solo es legible la parte superior de cada uno de sus folios, por lo que apenas si sabemos su título. Pensamos que la única posibilidad que existe de descubrir quién es su autor –excluyendo la de encontrar en él una expresión que podamos clasificar como verdadera o como falsa, lo que no suele suceder en las obras de autores como estos, que se dedican a temas abtrusos– es que otro libro se refiera a Esfinge. Ya hemos visto que, al igual que en la realidad, en esta ficción sucede que unos libros hablan de otros, de modo que al abrir Dragones encontramos que su primer folio tiene estas palabras: 5Y quizá haya algún lector de talante positivista, que adhiera al criterio empírico del significado y opine que en realidad, lo enunciado son pseudoproposiciones y por tanto, carecen de valor de verdad. A un tal lector le sugiero que sustituya los enunciados dados por “Hay vida en otros planetas” y “No hay vida en otros planetas”. 1.6 Una clase importante de argumentos válidos 25 Dragones Dragones es obra de Mendacius y Esfinge es obra de Mendacius Clasificar estos libros es fácil. Se comprende inmediatamente que Dragones no puede haber sido escrito por Veratius, porque en ese caso tendríamos a este autor escribiendo algo falso, al atribuir la autoría del libro que escribe a Mendacius. Ahora que sabemos que Dragones fue escrito por Mendacius, podemos determinar la autoría de Esfinge. Si Esfinge también fuese una obra de Mendacius, resultaría que este habría escrito una verdad en el primer folio de Dragones. Pero eso es imposible, de modo que Esfinge tiene que ser obra de Veratius. Por lo tanto, la respuesta es: El autor de Dragones es Mendacius, y el de Esfinge es Veratius. Esta inferencia se basó en el hecho fundamental –y previamente conocido por nosotros, como hablantes competentes del español– de que la proposición expresada en Dragones se construyó a partir de las proposiciones más simples “Dragones es obra de Mendacius” y “Esfinge es obra de Mendacius” conectadas con un “y”, y en esas condiciones, la proposición constituida sería verdadera si y solo si lo fueran ambas constituyentes. Es algo que nos puede parecer trivial, pero sin apelar a eso, hubiera sido imposible resolver el problema. Acá hay un mentiroso En otro estante encontramos otros dos libros, uno con el título de “Fe” y el otro titulado “Gracia”. Miramos el primer pliego de Fe, donde se lee: Fe Fe es obra de Mendacius o Gracia es obra de Mendacius Como ya tenemos cierta práctica en esto de inferir la autoría de cada libro, decidimos no abrir Gracia e intentar deducirla solo a partir de los datos que obtuvimos con Fe. Otra vez la solución es fácil: supongamos que Fe fuese obra de Mendacius. En ese caso, Mendacius habría escrito una verdad, ya que lo escrito significa que al menos uno de los dos libros es de su autoría. Pero no puede ser que Mendacius escriba una verdad y por lo tanto, el autor de Fe debe ser Veratius. Ahora bien, si Gracia también fuese obra de Veratius, este habría mentido en el primer pliego de Fe, ya que hubiera escrito algo que implica que al menos uno de los dos libros es de Mendacius, pero ninguno de los dos lo sería. Por tanto, Gracia tiene que haber sido escrito por Mendacius. La solución es entonces que Fe es obra de Veratius y Gracia es de Mendacius. En esta ocasión, lo que resultó fundamental para encontrar la solución fue el reconocimiento de que la proposición expresada en Fe se componía por “Fe es obra de Mendacius” y “Gracia es obra de Mendacius”, conectadas por un “o”, y de que en esas condiciones, la proposición constituida Capítulo 1. ¿Lógica? 26 sería falsa si y solo si lo fueran ambas constituyentes6 . Si yo soy, él también Y por fin encontramos un problema bastante más delicado. En una vitrina había dos libros, con los hermosos títulos “Hades” e “Infierno”, ambos con fuertes cierres metálicos. Luego de maniobrar un poco con ellos, encontramos que el primer pliego de Hades reza: Hades Si Hades es obra de Ueratius entonces Infierno es obra de Ueratius Con estos datos podemos inferir la autoría de ambos libros. ¿Cómo? (Se sugiere al lector pensar cuidadosamente este problema antes de leer la solución; y cuando vaya a leerla, hacerlo también con cuidado). Comenzaremos contando una breve anécdota. Cuando yo era pequeño, la ley no prohibía a los padres dar palmadas a los hijos. Según me contaron, antes de que cumpliera los dos años, una vez estaba con mis padres caminando por la calle, y bajé de la vereda a la calzada. Mi padre me levantó, me puso sobre la vereda y me dijo: “Si volvés a bajar a la calle, te daré una palmada”. Caminamos un poco más, yo volví a bajar a la calle. . . Inmediatamente averigüé que mi padre había dicho la verdad. O sea, me dio una palmada. Es obvio también que si yo hubiera bajado a la calle y mi padre no me hubiera dado la palmada, habría mentido. ¿Cuál es la moraleja? Bueno, hay varias, pero aquí no nos interesa ni la de que a veces las palmadas vienen bien, ni la de que los niños deben obedecer a los padres, sino otra: Al bajar a la calle estaba poniendo a prueba la veracidad de lo dicho por mi padre en una forma en que no podía quedar sin respuesta: si daba la palmada, había dicho la verdad; si no la daba, había mentido, lo que podemos resumir en: Bajas a la calle Te daré una palmada Si bajas a la calle, te daré una palmada Verdadero Verdadero Verdadero Falso Verdadero Falso Después consideraremos la posibilidad de que yo hubiera nacido con una predisposición genética a la obediencia y no hubiera vuelto a bajar a la calle, pero lo dicho por ahora basta para generar una estrategia que podría resolver el problema de la biblioteca que tenemos entre manos. La estrategia es la siguiente: Así como podríamos saber si mi padre había dicho la verdad al aseverar que si bajaba a la calle, entonces me daría una palmada imponiendo la condición de que se cumpliera lo que queda entre el “si” y el “entonces” (en ese caso, bajando a la calle), podríamos intentar averiguar si bajo la condición de que Hades sea obra de Veratius, se cumple que Infierno también lo es. Si logramos deducir que bajo esa condición Infierno es obra de Veratius, podremos afirmar que lo que dice el primer pliego de Hades es verdadero. Si logramos deducir que bajo esa condición Infierno no es obra de Veratius, podremos afirmar que lo que dice el primer pliego de 6 Así hemos entendido el “o” en este caso. A veces se usa el “o” para significar que lo expresado será verdadero si y solo si uno y solo uno de los constituyentes es verdadero. Hablaremos de eso más adelante. 1.6 Una clase importante de argumentos válidos 27 Hades es falso. Esto es análogo a bajar la calle para ver si se da la palmada o no. Con una diferencia: si bajamos a la calle, nos dan o no nos dan la palmada, es inevitable que averigüemos si la amenaza era verdadera. Pero si suponemos que el autor de Hades es Veratius, puede pasar que no logremos deducir que Veratius es también autor de Infierno ni que no lo es. En ese caso, nuestro intento, aunque bien encaminado, se habría perdido en el vacío. De todas formas, intentémoslo: Supongamos que Hades fue escrito por Veratius. Bajo esa suposición, lo que dice su primer pliego es verdadero. Dice algo equivalente a “Si Hades es obra de Veratius, Infierno también lo es". Entonces, tenemos que bajo la suposición de que Hades es obra de Veratius se dan estas dos cosas: 1. Hades es obra de Veratius (obviamente, esta es la propia suposición). 2. Si Hades es obra de Veratius, Infierno también lo es (esto lo acabamos de inferir de que sería algo escrito por Veratius, y por tanto, verdadero). Ahora bien, como bajo la suposición de que Hades fue escrito por Veratius se cumplen 1 y 2, también, bajo esa misma suposición, debe cumplirse: 3. Infierno fue escrito por Veratius (porque así entendemos que se comporta la expresión “si... entonces...” de 2 junto con 1). Entonces, recapitulemos: Hemos demostrado que bajo la suposición de que Hades fue escrito por Veratius, Infierno fue escrito por Veratius. Pero esto es lo que entendemos por si Hades fue escrito por Veratius, entonces Infierno fue escrito por Veratius. Hemos demostrado que lo que está destacado en la oración anterior es verdadero, de manera que el primer pliego de Hades dice una verdad. Por lo tanto, Hades fue escrito por Veratius. Y como lo escrito es que si Hades fue escrito por Veratius, entonces Infierno también lo fue, y efectivamente Hades fue escrito por Veratius, se sigue que Infierno también es obra de Veratius. La solución, por tanto, es que ambos libros fueron escritos por Veratius. Quizá el lector no esté del todo convencido. Habíamos advertido que era este un problema complicado. Continuemos pensando en él, para despejar algunos aspectos importantes. Habrá observado que intenté establecer una analogía entre mi traumática experiencia infantil y la estrategia seguida en la solución del problema. Parece que es correcto decir que una vez que bajé a la calle, era inevitable saber si lo que mi padre me había dicho era verdadero o no. Si me daba la palmada, era verdadero, si no me la daba, era falso. También podemos conceder que no era necesario que yo bajara a la calle para saberlo. Bastaría que tuviéramos la capacidad de saber una de estas dos cosas: 1. Bajo la condición de que yo bajaba a la calle, mi padre me daría la palmada. 2. Bajo la condición de que yo bajara a la calle, mi padre no me daría la palmada. Si sabíamos 1, lo dicho por mi padre hubiera sido verdadero, y si sabíamos 2, lo dicho por mi padre hubiera sido falso. Ahora bien, es bastante difícil que alguien supiera 1 o 2 si yo no bajaba a la calle. En el caso del problema pasa algo análogo, y afortunadamente podemos saber que 3. Bajo la condición de que Hades sea obra de Veratius, Infierno también lo es. Podemos saberlo porque la estructura del problema nos permite hacer una deducción que culmina en 3. Es verdad que esto nos da motivos para afirmar que lo expresado en el primer pliego de Hades es verdadero. Pero, podría decir alquien, ¿qué pasa si suponemos que el autor de Hades es Mendacius? ¿Acaso se concluye algo que nos obligue a rechazar que su autor es Mendacius? ¿Por qué no podemos decir que el autor de Hades es Mendacius, que por lo tanto lo que dice el primer pliego es falso y dejar indeterminada la autoría de Infierno o inclusive atribuírsela a Veratius o Mendacius, uno de los dos, a placer? Capítulo 1. ¿Lógica? 28 Una respuesta terminante sería que no podemos suponer que el autor de Hades es Mendacius, porque ya hemos demostrado que lo que dice el primer pliego de ese libro es verdad: Si el autor de Hades es Veratius, entonces el autor de Infierno es Veratius. Eso nos obliga a aceptar que Hades fue escrito por Veratius. Pero aun así, resta un sentimiento de extrañeza, porque no se ve cómo culminaría nuestro razonamiento si supusiéramos que Hades fue escrito por Mendacius. Intentaremos aclarar eso ahora. Si nuestro análisis del problema es correcto, Mendacius nunca podría escribir una proposición de la forma Si el autor de este libro es Veratius, entonces X donde X es cualquier proposición, porque si encontramos una proposición así escrita en un libro, razonamos en forma totalmente análoga a la anteriormente expuesta, y concluimos que el el libro fue escrito por Veratius y X es verdadera. Entonces, alguien podría pensar así: El hecho de que Mendacius nunca pueda escribir Si el autor de este libro es Veratius, entonces X indica que esa proposición, suponiendo que la escribiera Mendacius, sería siempre verdadera, sin importar lo que sea X. En ese caso, lo que tenemos es una proposición en la que lo que está entre el si y el entonces es falso, y la proposición resulta ser verdadera, sin importar si X es verdadera o falsa. ¿Será que todas las proposiciones del tipo Si A, entonces B donde A es una proposición falsa son verdaderas? Eso obligaría a aceptar que expresiones tan extrañas como Si el sol es un planeta, entonces la Tierra es un planeta, o Si el sol es un planeta entonces la tierra es una estrella o aun Si los chanchos vuelan, los burros estudian filosofía, son verdaderas. Aquí hay algo muy raro. Efectivamente, aquí hay algo raro. Para considerarlo adecuadamente retrocedamos un poco y veamos cómo resolvimos los problemas anteriores. En ellos, sabíamos bajo qué condiciones es verdadera y bajo qué condiciones es falsa una proposición constituida por dos proposiciones conectadas por un “y” o por un “o”. Ahora se trata de saber bajo qué condiciones es verdadera y bajo qué condiciones es falsa una proposición que se construye de la siguiente manera: Empezamos con la palabra “Si”, continuamos con una proposición p, a la que llamaremos el antecedente, colocamos la palabra “entonces” y terminamos con una proposición q a la que llamaremos el consecuente. Estamos entonces analizando una proposición de la forma Si p, entonces q Por lo que habíamos analizado, los casos en que el antecedente es verdadero no presentan problema. La proposición analizada es verdadera si tanto el antecedente como el consecuente son verdaderos, y es falsa si el antecedente es verdadero y el consecuente es falso. Pero el cuestionamiento hecho sobre el problema, al preguntar “¿Y qué pasa si Hades fue escrito por Mendacius?” apunta a que no está claro si la proposición analizada es verdadera o falsa en los casos en que el antecedente es falso. Y es un cuestionamiento muy inteligente, que ha hecho correr ríos de tinta. Vamos a dar aquí un algunos de argumentos tendientes a convencer al lector de que, cuando el antecedente es falso, la proposición analizada debe considerarse verdadera. Después agregaremos algunos comentarios. El primer argumento es el siguiente: Consideremos la proposición Si llueve y truena, entonces llueve. 1.6 Una clase importante de argumentos válidos 29 Por supuesto que estamos dispuestos a afirmar que esta proposición es verdadera, y no necesitamos para ello saber el estado meteorológico. Veámoslo en general: Supongamos que el antecedente es una proposición construida conectando dos proposiciones con un “y”, y el consecuente es una de esas mismas proposiciones. Si llamamos a esas dos proposiciones r y s, la proposición que estamos analizando será de una de las dos formas: 1. Si r y s, entonces r 2. Si r y s, entonces s La clave de este asunto es que parece obligado admitir que proposiciones de ese tipo tienen que ser siempre verdaderas, sin importar si r es verdadera o falsa y si s es verdadera o falsa. Supongamos entonces que r fuese verdadera y s falsa. En ese caso, tendríamos que el antecedente de 1 es falso, y su consecuente verdadero; pero hemos acordado que 1 es verdadera. Por otro lado, tenemos que el antecedente de 2 es falso y su consecuente falso, pero hemos acordado que 2 es verdadera. De aquí, si aceptamos que todas las proposiciones con la forma Si p, entonces q dependen, para ser verdaderas o falsas, únicamente de si p y q lo son, debemos aceptar que todas las proposiciones de esa forma con antecedente falso son verdaderas. Otro argumento es el siguiente: Supongamos que se da lo siguiente, que no es una proposición: Si A es el padre de B, entonces A nació antes que B. Esto no es una proposición, ya que A y B no son nombres, sino que están para indicar que los podemos sustituir por nombres. “A es el padre de B” no tiene valor de verdad. Pero si se sustituyen A y B por nombres de personas, se obtendrá una proposición. Y estamos muy inclinados a decir que sin importar por cuáles nombres de personas sustituyamos A y B en el esquema de oración destacado, obtendremos una proposición verdadera. Bien, sustituyamos A por “Sócrates” y B por “Wittgenstein”. Obtenemos una proposición del tipo analizado, con antecedente falso y consecuente verdadero. Pero habíamos acordado que la proposición obtenida sería verdadera. Si sustituimos A por “Sócrates” y B por “Tales”, obtenemos una proposición con antecedente y consecuente falsos, pero habíamos acordado que sería verdadera. Del mismo modo que en el argumento anterior, bajo la suposición de que todas las proposiciones con la forma de la analizada son verdaderas o falsas solo según si su antecedente y consecuente, debemos aceptar que todas las proposiciones con de esa forma con antecedente falso son verdaderas. Un último argumento: Supongamos que aceptamos lo siguiente: 1. Las proposiciones de la forma Si p entonces q solo dependen, para ser verdaderas o falsas, de cómo son p como q en cuanto a verdad o falsedad, y dependen de la verdad o falsedad de ambas, no de una sola de ellas. 2. Cuando p es verdadera, Si p entonces q es verdadera si q lo es y es falsa si q lo es. 3. En algunos casos, la proposición Si p entonces q es verdadera a la vez que la proposición Si q, entonces p es falsa. Las tres condiciones que acabamos de listar parecen aceptables. Tal vez no sea evidente, pero si las aceptamos estamos obligados a aceptar que las expresiones de la forma Si p, entonces q, en las que p es falsa, son verdaderas. Veámoslo: Si no aceptamos que esas expresiones serán verdaderas cuando p es falso, solo tenemos tres posibilidades, que supondremos de a una: Supongamos que aceptamos que la proposición Si p, entonces q será falsa si p es falsa y q verdadera, y será verdadera si tanto p como q son falsas. Nos quedaría este esquema: Capítulo 1. ¿Lógica? 30 p q Si p entonces q verdadera verdadera falsa falsa verdadera falsa verdadera falsa verdadera falsa falsa verdadera Pero esto viola la condición 3, como el lector sabrá apreciar. Dadas p y q cualesquiera, se le atribuye la misma calidad de verdadero o falso tanto a Si p, entonces q como a Si q, entonces p. Otra posibilidad sería aceptar el esquema siguiente: p q Si p entonces q verdadera verdadera falsa falsa verdadera falsa verdadera falsa verdadera falsa falsa falsa Pero nuevamente se viola la condición 3. De modo que sin aceptar que el antecedente falso haga que el compuesto sea verdadero solo nos queda probar este esquema: p q Si p entonces q verdadera verdadera falsa falsa verdadera falsa verdadera falsa verdadera falsa verdadera falsa Esta posibilidad no viola la condición 3, pero sí la condición 1, porque el valor de verdad de p no importa en este caso, y resultaría que para evaluar la verdad o falsedad de Si p entonces q solo habría que atender al consecuente, y en realidad, no sería distinto, desde el punto de vista de lo verdadero o lo falso, afirmar el compuesto que solo afirmar el segundo componente. Es necesario aclarar aquí que esta es una interpretación de la expresión “Si. . . entonces . . . ”, que se llama interpretación del condicional material. Hay otras interpretaciones, e históricamente este tipo de expresiones han provocado muchas controversias7 . Pero nadie ha podido dar una interpretación generalmente más adecuada -al menos para nuestros propósitos, que incluyen por lo menos abarcar los razonamientos comunes en las ciencias deductivas- que la que acabamos de ofrecer. Más adelante estudiaremos las precauciones que debemos adoptar al trabajar con el condicional material. Desde un punto de vista más general y profundo, no es este el lugar para discutir el problema, que básicamente se reduce a que las expresiones de ese tipo cumplen múltiples funciones en el español, y remitimos al lector interesado en introducirse al problema a [Sai90], donde se analiza extensamente la adecuación de la interpretación del condicional material sobre expresiones del tipo “Si . . . entonces . . . ” (en inglés, la mayor parte del análisis es pertinente para el español). Volviendo al problema, entendemos que si Mendacius escribiera “Si esta obra es de Veratius, entonces Infierno también lo es”, estaría expresando una proposición del tipo examinado con antecedente falso (ya que el antecedente afirma que el autor es Veratius, cuando en realidad es Mendacius), y acabamos de ver que estas proposiciones son verdaderas, de modo que no la podría 7 Estas controversias son milenarias. En [Mat61] se puede leer acerca de las diferentes interpretaciones que expresiones de este tipo recibieron en la escuela estoica. 1.6 Una clase importante de argumentos válidos 31 escribir. En general, Mendacius jamás podría escribir una proposición del tipo “Si esta obra es de Veratius, entonces X”, ya que sin importar qué proposición sea X, estaría escribiendo una verdad. También vemos que si yo no hubiera bajado a la calle, mi padre hubiera dicho la verdad, me diera la palmada o no. Todos o ninguno Y finalmente llegamos a un estante con dos libros, cuyos títulos son “Koiné” y “Lenguas”. En el primer pliego de Koiné se leía Koine Koine es obra de Ueratius si y solo si Lenguas es obra de Ueratius Pensando un poco, podemos darnos cuenta de que lo que esta oración expresa es que tanto Koiné como Lenguas fueron escritos por el mismo autor. Separemos el enunciado en dos partes Koiné es obra de Veratius si Lenguas lo es. O sea, según lo que dice, si Lenguas es obra de Veratius, Koiné también lo es. No puede ser que Lenguas sea obra de Veratius y Koiné de Mendacius. Koiné es obra de Veratius solo si Lenguas lo es. Esta expresión, “solo si” está diciendo que la única circunstancia bajo la que Koiné es obra de Veratius es la de que Lenguas lo sea. En otras palabras, no puede ser que Koiné sea obra de Veratius y Lenguas de Mendacius. Quedan excluidos los dos casos en los que los libros son de autores distintos. Por lo tanto, la proposición escrita en el primer pliego de Koiné equivale a la que afirma que ambos libros son del mismo autor. Supongamos entonces que Koiné fue escrito por Veratius. Como el enunciado escrito es verdadero, Lenguas también fue escrito por Veratius. Supongamos ahora que Koiné fue escrito por Mendacius. En este caso el enunciado es falso, y por lo tanto, Lenguas no puede haber sido escrito por él, sino que debe haber sido escrito por Veratius. Entonces, no podemos saber quién escribió Koiné, pero en todos los casos posibles Lenguas fue escrito por Veratius, y eso es lo que deducimos. 1.6.2 Nigra sum, sed formosa: la forma Después de esta maratón de acertijos que hemos resuelto, conviene recuperar el aliento reflexionando sobre lo que acabamos de hacer. ¿Qué hicimos al resolverlos? ¿Y por qué pudimos hacerlo? La respuesta a la primera pregunta debería ser obvia a esta altura: al resolverlos hicimos inferencias, planteamos argumentos. Además, podemos advertir que estos argumentos fueron deductivos8 . La respuesta a la segunda pregunta es bastante más compleja, y eso porque no está muy precisamente formulada. En realidad, lo que se pretende al plantearla es llamar la atención sobre un aspecto prominente en esos argumentos que llevaron a la solución de los problemas de la biblioteca. Ese 8 Queda para el lector dar una explicación de por qué esos argumentos son deductivos Capítulo 1. ¿Lógica? 32 aspecto se puede expresar así: las inferencias se basaron fundamentalmente en nuestro entendimiento de la función de ciertas palabras en expresiones más complejas9 . Y estas palabras son muy particulares, porque si bien es casi imposible encontrar un texto largo que no contenga alguna de ellas, si le preguntamos a alguien qué significan, es muy probable que lo pongamos en un aprieto. Las palabras y expresiones a las que me refiero son –considerando el acertijo en el que tienen un papel fundamental– no (Todo lo contrario), y (Los dos mentimos), o (Acá hay un mentiroso), si . . . entonces . . . (Si yo soy, él también) y . . . si y solo si . . . (Todos o ninguno). Como tal vez se haya quedado pensando en el significado de una palabra “no”, consultemos el diccionario. Por supuesto, el lector bien sabe que la palabrita “no” es salvajemente polisémica, de modo que nos quedaremos con la primera acepción según el Diccionario de la Real Academia: no. (Del lat. non). 1. adv. neg. U. para negar, principalmente respondiendo a una pregunta. Esa “U.” quiere decir “usado”. El diccionario nos dice para qué se usa. Es una palabra que se usa para negar. Y esto es algo que ya sabíamos, pero sucede que muchas veces es bueno reflexionar sobre las cosas que ya sabemos. Se usa para negar, y claramente, cualquier proposición se puede negar. La negación de una proposición es otra proposición. Y además, si una proposición es verdadera, su negación es falsa, y si una proposición es falsa, su negación es verdadera. Esta reflexión nos indica algo obvio: si una proposición es verdadera, la negación de su negación también lo será. De ese modo, este argumento es válido: Los perros son mamíferos. No es verdad que los perros no son mamíferos.10 Es válido porque es imposible que la premisa sea verdadera y la conclusión sea falsa, ya que esta es la negación de la negación de aquella. Por supuesto, este otro argumento también es válido: La Tierra es plana No es verdad que la Tierra no es plana. Estamos viendo que hay toda una familia de argumentos válidos: aquellos que constan de una premisa, y tienen como conclusión la negación de la negación de la premisa. Es fácil considerar que este es un paso trivial, pero en realidad, es imposible sobrestimar su importancia. Porque al darlo, nos estamos independizando del contenido concreto de las proposiciones, y aseguramos que cualquier inferencia que tenga una determinada forma será válida. Esa forma identificada es, siendo p cualquier proposición: p negación de la negación de p A partir de aquí, nos resulta natural requerir un modo cómodo y compacto de indicar la negación de una proposición a la que se está designando con p. Los lógicos han adoptado varios, y en este libro lo haremos anteponiendo el símbolo ¬ a la letra p. Así, podemos decir, por ejemplo, que todos los argumentos de la forma 9 Es importante remarcar que lo fundamental no son esas palabras en sí, sino la función que ellas cumplen contribuyendo a las condiciones de verdad de los enunciados en que se encuentran. 10 Observe las contorsiones lingüísticas necesarias para que la negación de la negación de “Los perros son mamíferos” quede expresada en una forma estilísticamente aceptable. 1.6 Una clase importante de argumentos válidos 33 p ¬¬p son válidos. Hemos trabajado partiendo de la palabra “no”, pero podemos hacerlo igualmente con las expresiones restantes sobre las que llamábamos la atención al principio. Cada una de ellas determina, en los contextos que hemos analizado, aspectos formales que tienen un impacto absolutamente central en la evaluación de algunos argumentos. El problema llamado “Los dos mentimos” gira alrededor de la palabra “y”. Allí funciona conectando dos proposiciones, y basamos nuestra inferencia en el hecho de que la proposición obtenida al conectar las dos anteriores por medio del “y” es verdadera si las dos que se conectan lo son y falsa en otro caso. Llamemos “conjunción” a esa conexión y simbolicemos la conjunción de dos proposiciones designadas con p y q como p ∧ q. El lector podrá convencerse fácilmente de que todos los argumentos que tengan las siguientes formas son válidos: Forma 1 p q Forma 2 Forma 3 Forma 5 p∧q Forma 4 ¬¬p q p∧q p∧q p q p∧q ¬(p ∧ q) ¬p Por ejemplo, un argumento de la forma 4 es válido porque siempre que ¬¬p y q sean verdaderas, serán ¬p falsa y q verdadera, o sea que tanto p como q serán verdaderas, y en ese caso, p ∧ q es verdadera. Observe que al intentar expresar de esta manera la última inferencia presentada, recurrimos a los paréntesis. Una reflexión ligera le mostrará qué hubiera ocurrido en caso de no colocarlos. Trataremos el punto más adelante. En el problema llamado “Acá hay un mentiroso” razonamos sobre lo que imponía la palabra “o” en ese contexto. Al igual que “y”, sirve para conectar dos proposiciones. Allí entendimos que la proposición que se obtenía sería verdadera si una de las conectadas lo era: es decir, que solo sería falsa si las dos conectadas eran falsas. Es este un sentido inclusivo. Por supuesto, en español a veces se usa la palabra “o” en un sentido exclusivo, significando que lo afirmado es verdadero solo cuando exactamente una de las proposiciones conectadas es verdadera. Un ejemplo claro de esto es cuando un padre le dice a un hijo, “Te compro la tableta o te doy dinero para que viajes con tus amigos.” Quizá el padre tiene dinero suficiente para hacer las dos cosas, pero está implícito que no hará las dos. Aclarado esto, consignemos que si llamamos disyunción a la conexión hecha por el “o” inclusivo y la simbolizamos mediante ∨, todos los argumentos con las formas siguientes serán válidos, como el lector sabrá reconocer: Forma 1 Forma 2 Forma 3 p∧q Forma 4 ¬p p∨q Forma 5 ¬p ¬q p q p∨q p∨q p∨q q ¬(p ∨ q) Por ejemplo, una inferencia de la forma 4 será válida, porque es imposible que q sea falsa siendo ¬p y p ∨ q verdaderas: si q fuera falsa, al ser ¬p verdadera, sería también falsa p. Así, p ∨ q sería falsa. El problema llamado “Si yo soy, él también” fue el más trabajoso, y por mucho. En él examinamos lo que sucedía con la proposición que se obtenía conectando otras dos por medio de la expresión “si . . . entonces . . . ”. Afirmamos que, al menos en ese contexto, entenderíamos que la proposición formada solo sería falsa en un caso: cuando la proposición que llamábamos antecedente fuese verdadera y la que llamábamos consecuente fuese falsa. Si llamamos “condicional” a esa Capítulo 1. ¿Lógica? 34 conexión que se establece, y simbolizamos como p → q a la proposición de antecedente p y consecuente q, todos los argumentos con las formas siguientes serán válidos: Forma 1 p p→q Forma 2 Forma 3 Forma 4 q ¬p ¬(p∨q) Forma 5 ¬q p→q q p→q p→q p→q ¬p Por ejemplo, todo argumento con la forma 5 será válido, ya que si ¬q y p → q son verdaderas, tenemos, por un lado, que q es falsa y por otro no se da a la vez que p sea verdadera y q falsa. Entonces tiene que ser p falsa, y por lo tanto, ¬p verdadera. Y el último acertijo ambientado en la biblioteca que consideramos, el titulado “Todos o ninguno” fue resuelto una vez que establecimos que la expresión “. . . si y solo si . . . ” conecta dos proposiciones de forma que la proposición formada es verdadera si las dos proposiciones conectadas son verdaderas o si las dos son falsas; y es falsa si entre las dos proposiciones conectadas una es verdadera y la otra falsa. Llamamos bicondicional a esa conexión. Simbolizándola mediante ↔, podemos ver que todos los argumentos de las formas siguientes son válidos: Forma 1 p q Forma 2 ¬p ¬q Forma 3 p ¬q Forma 4 p↔q q Forma 5 ¬p p∨q p↔q p↔q ¬(p ↔ q) p ¬(p ↔ q) Podríamos examinar la forma 5 considerando nuevamente el comportamiento de la disyunción, pero preferimos hacerlo de la siguiente manera: Observe la forma que numeramos 4 al ejemplificar la disyunción. Tiene el mismo esquema de premisas que esta, y conclusión q. Entonces, sabemos que si las premisas son verdaderas, q tiene que ser verdadera. Pero además, si las premisas son verdaderas, obviamente ¬p es verdadera, de modo que p es falsa. De modo que, al ser q verdadera y p falsa, es p ↔ q falsa, y por lo tanto, ¬(p ↔ q) verdadera. A esta altura, debería ser evidente que gracias a la identificación de la forma, tenemos la posibilidad de afirmar que algunas inferencias son válidas, de darles “certificado de calidad”, por decirlo de algún modo. Por ejemplo, podemos decir que el argumento Miguel se levantará temprano hoy si y solo si entra a trabajar temprano hoy. Miguel entra a trabajar temprano hoy. Miguel se levantará temprano hoy. es válido porque tiene la forma que se muestra bajo el número 4 en los ejemplos vistos sobre el bicondicional. Por supuesto, son infinitas las formas debido a las cuales un argumento puede ser válido. Hemos visto solo una pequeña colección de ellas. Lo fundamental de este apartado es que hay argumentos o inferencias que son válidos en virtud de su forma. 1.7 ¿Qué es la lógica? Acabamos de ver que hay inferencias o argumentos que son válidos en virtud de su forma. Una pregunta sumamente interesante es si todos los argumentos válidos lo son en virtud de su forma. Una ligera reflexión parece indicar que no es ese el caso. Considere el siguiente: 1.7 ¿Qué es la lógica? 35 Miguel tenía un perro llamado Sócrates. Miguel tenía un animal llamado Sócrates. Sin dudas, se trata de un argumento válido. No es posible que Miguel no tuviese un animal llamado Sócrates bajo la condición de que tenía un perro llamado Sócrates, porque los perros son animales. Pero el argumento es válido no gracias a su forma, sino a esa relación que se da entre la clase de los perros y la de los animales. Un ejemplo clásico en la literatura de argumento válido pero no en virtud de la forma es: Miguel es soltero. Miguel no está casado. ¿En qué se distingue la forma de ese argumento de la del siguiente? Miguel es bajo. Miguel no está acostado. Si bien, por razones que veremos más adelante, se debe ser muy cauto al dictaminar que un argumento válido no lo es en virtud de su forma, podemos advertir que hay argumentos válidos cuya validez no relacionamos con su forma. La distinción es importantísima, porque apunta a un rasgo central de la lógica, que destacaremos ahora, para terminar de caracterizar a esa ciencia, al menos en forma preliminar. Lógica es la ciencia que, a través de la consideración de la forma los argumentos, discierne entre válidos e inválidos y estudia las condiciones bajo las cuales, en virtud de su forma, un argumento es válido. Hemos hablado de “forma” de una manera muy laxa. Precisar la noción de forma será nuestra próxima tarea, antes de ingresar al estudio de la Lógica. Capítulo 1. ¿Lógica? 36 1.8 Ejercicios 1. Resolver el siguiente nurikabe. Explicitar el razonamiento hecho para resolverlo. 7 2 1 2 6 5 4 2 1 4 2 3 3 2 1 1 1 A B C D E F G 2. La vida del lógico y matemático Augustus De Morgan transcurrió en el siglo XIX. Se sabe que tuvo la siguiente particularidad: uno de sus cumpleaños fue en el año que era el cuadrado de la edad que estaba cumpliendo. ¿En qué año nació? ¿El razonamiento que resuelve este problema impone que necesariamente la respuesta sea la dada? ¿La respuesta se obtiene por una inferencia deductiva o inductiva? 3. De una secuencia se sabe que sus primeros términos son los que se muestran, y que todos sus términos son letras. ¿Cuál es el primer término que no se muestra? A, B, A, C, D, A, E, F, G, . . . Explicite la inferencia por la que dio la respuesta. ¿Es deductiva o inductiva? 4. En los ejercicios 2 y 3 usted respondió si las inferencias hechas para resolver los problemas planteados son deductivas o inductivas. ¿Realizó inferencias para saber si las inferencias que le permitieron resolver los problemas son deductivas o inductivas? En caso afirmativo, ¿estas segundas inferencias fueron deductivas o inductivas? ¿Debe hacer alguna inferencia para saberlo? ¿De qué tipo es esta última inferencia, si es que la hay? ¿Sugiere esto un regreso al infinito? ¿Podemos estar alguna vez seguros de que una inferencia es inductiva? ¿Y deductiva? Para llegar a la solución de algunos problemas es necesario hacer inferencias que tienen como objeto otras inferencias. Ejemplos famosos son los planteados en los dos ejercicios siguientes. 5. En una cárcel hay tres prisioneros y los carceleros prometen darle un premio a quien logre deducir el color de un disco que le colocan en la espalda en las siguientes condiciones: eligen discos de un conjunto de 5 entre los cuales hay 3 blancos y 2 negros, y le colocan uno en la espalda a cada prisionero. Ponen a estos en fila, de modo que el último de la fila ve los discos de sus dos compañeros, el del medio ve el disco del primero, y el primero no ve ningún disco. Los carceleros le preguntan al último de la fila si sabe de qué color es el disco que tiene en la espalda. Este responde “No sé.”, lo que es escuchado por sus dos compañeros. Seguidamente preguntan al del medio si sabe de qué color es el disco que tiene en su espalda. Este responde “No sé.”, lo que es escuchado por el primero de la fila. Finalmente, preguntan al primero de la fila si sabe de qué color es el disco que tiene en su espalda. Este responde que sí y dice cuál 1.8 Ejercicios 37 es el color. ¿De qué color era ese disco? 6. Un encuestador se dirige a una casa y es atendido por una mujer. Pregunta él: “¿Cantidad de hijos?” “Tengo tres hijas”, dice ella. “¿Cuáles son las edades de sus hijas?”, pregunta el encuestador. La mujer responde: “El producto de las edades es 36 y la suma es igual al número de ventanas del edificio de la esquina”. El encuestador se va, pero al rato vuelve y le dice a la mujer que los datos que le dio no son suficientes. La mujer piensa y le dice: “Tiene razón, la mayor tiene ojos azules”. Esto es suficiente para que el encuestador sepa las edades de los hijos. ¿Cuáles son esas edades? Los siguientes dos siguientes ejercicios están ambientados en la biblioteca donde solo se encuentran obras de Veratius y Mendacius, y todo lo escrito por el primero es verdadero mientras que todo lo escrito por el segundo es falso. 7. En la biblioteca encontramos tres libros en un estante. El primero, llamado Azur, tiene el primer folio ilegible. El segundo, titulado Baroco, dice en su primer folio: “Azur empieza diciendo que de los libros de su estante, exactamente dos fueron escritos por Mendacius”. El tercero, cuyo título es Camestrop, dice en su primer folio: “Baroco fue escrito por Mendacius”. ¿Quién escribió Camestrop? 8. En otro estante de la biblioteca hay tres libros. Uno de ellos dice que de los libros del estante, exactamente uno fue escrito por Mendacius, otro dice que de los libros del estante, exactamente dos fueron escritos por Mendacius y el último dice que los tres libros del estante fueron escritos por Mendacius. ¿Quién escribió cada uno?. 9. Uno de los libros de la biblioteca guarda el secreto de la vida. Los bibliotecarios no saben cuál es ese libro, pero sí saben que se trata de uno entre cinco, llamados Abbadon, Baal, Crocell, Decarabia y Empusa. No permiten acceder a ellos libremente, como a los demás libros, y han establecido la regla de que si alguien solicita uno, se le dará, pero con eso quedará impedido de acceder a los otros cuatro. Como queremos conocer el secreto de la vida, sobornamos a un bibliotecario, que accede a darnos información acerca de lo que está escrito en esos libros. Nos da una hoja donde se indica el libro y una frase textual copiada de él: Abbadon Decarabia no explica el secreto de la vida. Baal Crocell explica el secreto de la vida. Crocell En mis páginas se encuentra el secreto de la vida. Decarabia El secreto de la vida está explicado en mis páginas, o en las de Abbadon o en las de Baal. Empusa El secreto de la vida se explica en Baal o en Decarabia. Al leerla nos damos cuenta de que el bibliotecario solo extrajo oraciones que mencionaban el secreto de la vida pero no nos trajo nada que nos permita guiarnos en el problema de determinar la autoría. Se lo explicamos y nos dice que nos puede traer otros menos datos que la otra vez, porque teme que lo encuentren copiando de los libros, cosa que tiene prohibida. Nos trae lo siguiente: Abbadon Decarabia fue escrito por Veratius. Capítulo 1. ¿Lógica? 38 Baal Decarabia fue escrito por Mendacius. De hecho, de entre Abbadon, Baal, Crocell, y Decarabia, Baal es la única obra de Veratius. Crocell Empusa fue escrito por Veratius. ¿Qué libro debemos pedir para conocer el secreto de la vida? En los siguientes ejercicios se trabajará con textos no preparados especialmente para un curso de lógica, sino con otros propósitos. El mundo real queda ahí afuera. 10. Identifique qué se sostiene en los siguientes textos, y cuáles razones se dan como apoyo a la tesis sostenida. a) “Este país debe crear trabajos bien remunerados porque necesita achicar la brecha entre los más ricos y el resto de nosotros. En la última década, la diferencia entre el 20 % más rico y las clases más pobres se ha agrandado considerablemente. Si la diferencia llega a ser muy grande, la democracia estará en riesgo. Solo podemos superar este riesgo si logramos que los trabajadores puedan mantener cómodamente a sus familias”. b) “A lo largo y ancho del país, la gente está muriendo, víctima del flagelo de las drogas. La vida de esas víctimas se destruye, cuando no por las drogas mismas, por enfermedades como el SIDA, que frecuentemente advienen con el consumo. El tráfico de drogas provoca la violencia que vemos en nuestras ciudades. Bandas financiadas por el dinero de las drogas llevan el terror a nuestras calles. Nuestro sistema político también es una víctima. Las increíbles cantidades de dinero que manejan los zares de la droga inevitablemente corrompen a nuestra policía y nuestros gobernantes. Nuestra existencia como nación está en peligro. La guerra a las drogas es uno de los mayores problemas que nuestro país deberá enfrentar en los próximos diez años.” c) “El tema del aborto aparece en los medios casi todas las semanas. Se hacen manifestaciones, editoriales y discursos políticos. Varios candidatos están buscando sacar una ventaja política al abanderarse de un lado u otro en este tema polémico. El aborto pone en cuestión asuntos fundamentales que enfrentan nuestros ideales de humanidad y de libertad. A pesar de su importancia, este tema no debería ocupar un lugar central en las campañas políticas. Los candidatos difieren en muchos otros aspectos, algunos de los cuales son mucho más importantes para el destino del país que la política con respecto a la práctica del aborto. Si no resolvemos adecuadamente problemas como la seguridad y la cobertura de salud, tanto nuestros ideales de humanidad como de libertad se verán amenazados. No debería haber un criterio único para evaluar la aptitud de un gobernante en nuestro mundo complejo y vulnerable.” d) “La honestidad está a la baja en EEUU. Cada vez más gente admite que miente regularmente en su trabajo y en su hogar. Esas mentiras no son omisiones menores, falsedades triviales que se dicen para no herir sentimientos de otros, u ocultamientos en el dominio tradicional de la conducta sexual. Muchos trabajadores dicen que mienten regularmente en el trabajo. Este cambio en las actitudes de los ciudadanos comenzó cuando el presidente Johnson negó que fuera a expandir la guerra en Vietnam, justo antes de hacerlo. Fue alentado con las mentiras que llevaron a Nixon a renunciar a su presidencia. La creencia en que los gobernantes a todos los niveles mienten ha crecido. La revelación del presidente Clinton de que no había dicho “toda la verdad” acerca de su conducta sexual solamente confirmó lo que era algo ya muy extendido: la idea de que los políticos y otras figuras públicas mienten rutinariamente. ¿Por qué las figuras públicas –así como el resto de nosotros– sienten que deben mentir? La verdadera razón es que los estadounidenses no quieren oír la verdad. Los votantes no quieren que les 1.8 Ejercicios 39 digan que si les bajan los impuestos decaerán los servicios sociales. Los jefes no quieren que les digan que sus planes probablemente fallarán. Y los amigos no quieren oír que su alcoholismo está perturbando sus vidas. Si esta tendencia continúa, nuestro país estará en peligro. Necesitamos querer enfrentar a la verdad como ciudadanos, como empleados, como amigos. Si dejamos de penalizar a los que dicen la verdad, habrá más gente dispuesta a ser honesta.” 11. Identifique premisas y conclusión. Represente los siguientes argumentos con los símbolos que se han presentado informalmente en este capítulo. Los primeros cuatro argumentos representan hitos importantes en la historia de la filosofía. No están en la forma original presentada por sus autores, sino que su presentación se adapta a los propósitos de este curso. En todos los casos se trata de reconstrucciones que encuentran apoyo entre los estudiosos. a) Si la ética depende de la voluntad de Dios, entonces las cosas buenas son buenas porque Dios las quiere. Las cosas buenas no son buenas porque Dios las quiera. La ética no depende de la voluntad de Dios. [Platón (ca. 428 a.C./427 a.C.– 347 a.C.) en el Eutifrón. Este argumento hace honor a Platón en su indiscutida brillantez para encontrar problemas filosóficos. Lo que este argumento pone en cuestión es, en algún sentido, más básico que el problema del mal para los creyentes en un Dios providente y omnipotente. Las posibilidades parecen ser dos: Una es que las cosas buenas sean buenas porque Dios las quiere y en ese caso, si Dios quisiera la mentira, el asesinato y la violación ¿esas cosas serían buenas? (esto es inaceptable para Platón –y probablemente para cualquier persona decente, el grito del fanático es “Dios lo quiere”, seguido de una atrocidad-). Otra es que Dios quiera algunas cosas porque son buenas en sí (esto es lo que plantea el argumento), y en ese caso ¿quién manda acá, Dios o la Ética?]. b) Si Dios existe en el entendimiento y no en la realidad, es concebible un ser mayor que Dios. Es falso que se puede concebir un ser mayor que Dios. Dios existe en el entendimiento. Dios existe en la realidad. [San Anselmo (1033-1109) en el Proslogion. Esta es la primera versión del argumento ontológico (se llama “argumento ontológico” a aquel que pretende demostrar la existencia de Dios a partir de premisas a priori, es decir, independientes de la experiencia) a favor de la existencia de Dios, retomado posteriormente por filósofos célebres como Descartes, Leibniz, Spinoza y en nuestros días, Plantinga y nada menos que Gödel. Refutado por filósofos no menos célebres como Santo Tomás, Hume, Kant. Es uno de los argumentos más discutidos en la historia de la Filosofía] c) Si la existencia es una perfección y Dios, por definición, tiene todas las perfecciones, entonces Dios, por definición, debe existir. Dios por definición tiene todas las perfecciones. La existencia es una perfección. Por definición, Dios debe existir. [Descartes (1596-1650) en las Meditaciones metafísicas (1641). Descartes necesitaba a Dios para salir de los problemas que él mismo había generado con la duda metódica, al crear argumentos escépticos de una fuerza desconocida hasta entonces. Más allá del contexto histórico en que surge el cartesianismo, (con lo que a veces se intenta explicar la introducción de Dios) la función que este cumple en su sistema es la de garante de conocimiento. Esta es la versión cartesiana del argumento ontológico. A pesar de haber sido publicada 600 años después del primer argumento ontológico, es mucho más débil que esa primera versión. Presenta una falla que mostraremos más adelante en el curso.] d) Si tenemos conocimiento, entonces o algunas cosas son conocidas sin prueba o podemos probar toda premisa mediante premisas previas, y así sucesivamente. No podemos probar toda premisa mediante premisas previas y así sucesivamente pero tenemos Capítulo 1. ¿Lógica? 40 e) f) g) h) i) conocimiento. Algunas cosas son conocidas sin prueba. [Aristóteles (384 a. C. – 322 a. C.). Esta concepción aristotélica, que lleva directamente a los sistemas axiomáticos, ha sido probablemente una de las ideas más influyentes en la historia de la ciencia. El sistema axiomático más famoso y que fue considerado por dos milenios como el paradigma de la perfección científica es también un producto griego, los Elementos de Euclides. El libro más editado en la historia es por supuesto la Biblia, en segundo se encuentran los Elementos.] Si wu shu entonces miao o wu-wei. Pero no wu-wei. Además, si chung, entonces no miao. Y chung. Por lo tanto, no wu shu. (Como el lector políglota habrá advertido, los fragmentos lingüísticos en itálicas expresan proposiciones). [Mi-guel (n. 1970), oriental, por lo demás desconocido absolutamente. No sabemos qué diablos quiere decir este argumento]. Si Juan tiene una pareja irresponsable, entonces evita tener hijos o se prepara para afrontar los problemas de criar a un niño solo. Por lo tanto, Juan evita tener hijos ya que tiene una pareja irresponsable y no se prepara para afrontar los problemas de criar a un hijo solo. Te sentirás muy mal al envejecer. Si le das mucha importancia a la apariencia física, te sentirás muy mal al envejecer. Le das demasiada importancia a la apariencia física. Si respetaras mi opinión, buscarías mi consejo. No buscas mi consejo. No respetas mi opinión. Las parejas deben ser desestimuladas de casarse jóvenes. El matrimonio conlleva una gran adaptación. Si conlleva una gran adaptación y los jóvenes la encuentran difícil, deben ser desestimulados de casarse. Los jóvenes encuentran difícil la adaptación al matrimonio. 2. Naturaleza, artificio y forma I bien la lógica como ciencia comienza con los trabajos de Aristóteles ([Ari82] y [Ari95]), la preocupación por la calidad de los argumentos es anterior a él, como puede verse claramente en algunos pasajes de la obra de Platón1 . La evaluación de la calidad argumentativa tiene múltiples facetas, de las cuales la lógica es apenas una de ellas. Un argumento puede ser impecable desde el punto de vista lógico; es decir, sus premisas pueden apoyar en máximo grado a su conclusión, pero sin embargo, es posible que ese argumento no sea en absoluto convincente. Eso sucederá en el caso de que las premisas sean evidentemente falsas, por ejemplo. Otro caso en el que sucedería eso sería el siguiente: imagine a un teísta discutiendo con un ateo, intentando convencerlo de la existencia de Dios, y proponiendo para eso el siguiente argumento: S Dios existe o dos más dos es igual a cinco. Dos más dos no es igual a cinco. Dios existe. El argumento es, como el lector sabrá apreciar, válido. Impecable desde el punto de vista lógico. Pero no es de extrañar que el ateo no se sienta impresionado por él. Sencillamente responderá que la primera premisa es falsa. Si bien la primera premisa no es evidentemente falsa, no es en modo alguno más segura que la conclusión, de modo que quien dude de esta antes de enfrentarse al argumento, rechazará aceptar esa premisa cuando se la expresen. Así como hay argumentos que, aunque son impecables desde el punto de vista lógico, tienen muy poco valor persuasivo y cognitivo, como el acabamos de ver, también hay argumentos defectuosos desde el punto de vista lógico que se han mostrado extremadamente persuasivos. Un ejemplo que se ve frecuentemente en las redes sociales, también asociado con discusiones religiosas, es el siguiente: 1 Especialmente recomendable es la lectura del divertido diálogo titulado Eutidemo, que se encuentra en [Pla87], en el que se contraponen dos formas muy diferentes de argumentar: la sofística y la socrática o platónica. Se debe recordar al leerlo, por supuesto, que el autor del diálogo es parte interesada. 42 Capítulo 2. Naturaleza, artificio y forma Todas las cosas tienen una causa. Hay una causa de todas las cosas. Este último argumento ha convencido a mucha gente a través de la historia, y sigue haciéndolo hoy. Pero no es válido: perfectamente puede pasar que cada cosa tenga una causa (que es lo que afirma la premisa), y no haya algo que sea causa de cada una de las cosas. Si el lector tiene dudas, piense que cada ser humano tiene una madre, pero no hay nada que sea madre de cada uno de los humanos. La preocupación por la calidad lógica de los argumentos surge de que los humanos somos falibles y no lo sabemos todo. Debemos inferir, y a veces lo hacemos en formas que nos llevan de premisas verdaderas a conclusiones falsas, aun en casos en los que estamos convencidos de que la verdad de las premisas asegura la de la conclusión. No estamos pensando en los casos en que se proponen malos argumentos desde el punto de vista lógico con intención de engañar a los demás, que los hay. Estamos pensando en que simplemente, a veces caemos en error sin advertirlo. Y como la actividad inferencial y argumentativa está en la base de nuestra sobrevivencia y de las posibilidades de mantener la civilización, el control de la calidad argumental es de primordial importancia. 2.1 Las lenguas naturales Aristóteles no fue el primero en pensar en la calidad de los argumentos, pero sí fue el primero en hacerlo del modo sistemático y característico de la lógica. Siendo el más prominente intelectual de la civilización griega2 , la que había alcanzado un altísimo grado de desarrollo en las actividades intelectuales, Aristóteles tenía acceso a multitud de inferencias de diversos tipos y provenientes de diferentes campos. Se argumentaba en el ágora, en la matemática, en la filosofía. Aristóteles mismo tenía un proyecto de ciencia, y en él la inferencia válida tenía un papel explícito y central. La lógica aristotélica en sí no es nuestro centro de interés aquí –veremos más tarde que puede ser reinterpretada como un pequeño fragmento de la lógica que vamos a estudiar en este libro–, pero nos interesa remarcar algo obvio: las inferencias a las que Aristóteles tuvo acceso como material primario para iniciar sus reflexiones sobre la calidad argumental estaban expresadas en dialectos griegos. Es decir, en lenguas naturales. Es de notar que Aristóteles consideró que el pródromo necesario para embarcarse en el estudio de la calidad argumental era un examen cuidadoso de la lengua. Así, el primer libro del corpus de trabajos de Aristóteles sobre lógica se llama Categorías y en él se clasifican de diversas formas los vocablos. Este estudio se ha visto también como un tratado con fuertes tintes metafísicos, pero el hecho es que dio pie, por ejemplo, a vastas investigaciones gramaticales. En el curso de esa investigación, Aristóteles se percató de que le convenía apartarse, en cierta medida, del lenguaje natural para evaluar la calidad de los argumentos. Uno de los motivos que tuvo para ello es bastante obvio. Recordemos la famosa inferencia que todos sufrimos en la educación secundaria: Todos los hombres son mortales. Sócrates es hombre. Sócrates es mortal. Aristóteles advirtió que se trataba de un argumento válido, y más aun: advirtió que se trataba de un argumento válido en virtud de su forma. (Se trata de una forma que no vimos en el capítulo anterior pero estudiaremos más adelante). Si se sustituye “hombres” y “mortales” por el nombre de 2 Según la opinión del autor, Aristóteles es el más grande intelecto que la humanidad ha dado, y que especie humana es la que da los intelectos mayores que se conocen. 2.1 Las lenguas naturales 43 otros dos colectivos, y “Sócrates” por el nombre de otro individuo, sean estos los que fueren, la inferencia resultante será válida: Todos los estafadores son poetas. Empédocles es estafador. Empédocles es poeta. Aristóteles dio un paso fundamental al sustituir por letras los nombres de colectivos, afirmando que todas las inferencias de la forma Todos los A son B. s es A. s es B. son válidas. Este primer paso era un avance enorme, porque si algo es la forma, tiene que ser una estructura compartida por una clase de argumentos, y esta representación la muestra en forma mucho más clara que la repetición de una cantidad arbitraria de ejemplos en griego, en español o en cualquier lengua natural. Decimos que Aristóteles se apartó un poco del uso de su lengua materna porque, obviamente, la gente no anda diciendo por ahí cosas como “Todos los A son B”. Persiste el marco de la lengua natural, pero se han introducido elementos que no pertenecen a ella. Había además otros motivos de preocupación acerca la adecuación del lenguaje natural como instrumento para la evaluación argumental, algunos de los cuales fueron advertidos por el propio Aristóteles. Por ejemplo, en el lenguaje natural se dan fenómenos como la polisemia y la ambigüedad estructural. La polisemia puede ser utilizada para generar argumentos aparentemente buenos pero que en realidad son de pésima calidad, en los que se entiende una palabra de un modo en una premisa y de otro modo en la conclusión: El banco de la plaza tiene cuatro patas. Los bancos son instituciones financieras. Hay una institución financiera que tiene cuatro patas. La ambigüedad estructural puede hacer que una oración asertiva, correctamente construida desde el punto de vista gramatical, adopte una forma que impida saber qué proposición está expresando: Juan estudia filosofía y artes marciales o tarot. No sabemos si lo que esa oración expresa es que Juan estudia filosofía y además, al menos una de entre las dos otras disciplinas nombradas, o si la oración expresa que al menos una de estas dos posibilidades se cumple: Juan estudia filosofía y artes marciales a la vez y Juan estudia tarot. Estas características, que no parecen deseables para los propósitos de la evaluación argumental, al menos desde el punto de vista lógico (es muy posible que sean muy valiosas, por ejemplo, desde un punto de vista retórico) no son evitables en el marco de las lenguas naturales. No se puede someter a las lenguas naturales a reformas impulsadas por la conveniencia o el deseo de las elites intelectuales. Como dijo un gramático al emperador romano Tiberio, se puede dar ciudadanía a los hombres, pero no a las palabras3 . En reconocimiento de esta realidad, el aliento normativo de la Real Academia está muy debilitado, pretende ahora registrar los usos, ya no “limpia, fixa y da esplendor” a la lengua. 3 La única referencia que he encontrado de esta maravillosa anécdota es [Mül61] Capítulo 2. Naturaleza, artificio y forma 44 Las lenguas naturales no surgen de un convenio explícito entre los hombres, no tienen una sintaxis y una semántica regida por reglas fijas, no son inmutables. Se parecen a organismos o a especies de seres vivos, están sometidas a procesos de evolución natural. Permiten la metáfora, todos los tropos, la función poética. Y esta misma riqueza y ductilidad es la que los hace instrumentos de muy difícil manejo para el estudio de la corrección argumental desde el punto de vista lógico. 2.2 Lenguas artificiales Se podría decir que hasta la modernidad los hombres más avisados advirtieron, en algunos casos, las complejidades propias del uso de los lenguajes naturales. Por ejemplo, la Edad Media fue testigo del surgimiento de teorías muy refinadas, como las de la significación, de la suposición, de la distribución, que lograban en buena medida dar cuenta de esas complejidades. Hacia el siglo XIV se disponía de dispositivos teóricos que permitían tratar perfectamente la diferencia entre decir que los perros están comiendo carne, que los perros son una especie y que los perros son dos palabras4 . Con el advenimiento de la modernidad surge una actitud decididamente inconformista y revolucionaria con respecto al lenguaje natural. Hasta ese momento, los pensadores que habían considerado imperfectas las lenguas naturales, habían creído que las “imperfecciones” se debían a un proceso de degradación sufrido por una lengua perfecta originaria, seguramente la lengua que Adán hablaba en el paraíso, la lengua común de la humanidad antes de que Dios castigara la arrogancia humana en Babel. Con los nuevos esquemas de pensamiento aparece una fuerte denuncia de las limitaciones de las lenguas naturales, junto con el reclamo de la construcción de una lengua universal que superase esas deficiencias. No todos los pensadores cultivaron ambas facetas, la crítica y la propositiva, pero la época agudizó la primera y prohijó la segunda. Francis Bacon, en su obra Novum Organum5 , publicada en 1620, dedica una buena parte a la discusión de lo que llama “ídolos”. Estos son ilusiones, obstáculos o impedimentos de diversas clases que perturban o inclusive imposibilitan el razonamiento correcto. Bacon distingue cuatro clases de ídolos, entre las cuales hay una, los ídolos del foro, que está directamente relacionada con el lenguaje natural. Aforismo XLIII: Hay también ilusiones que surgen por acuerdo y de la asociación de los hombres entre sí, a las que llamaremos ídolos del foro (...). Los hombres se asocian a través del habla, y las palabras son elegidas para que se acomoden al entendimiento de la gente común. Y así un código pobre e inepto obstruye en forma increíble el entendimiento... Aforismo LIX: Pero los ídolos del foro son los que mayores perturbaciones causan, porque se han ocultado en el entendimiento a partir del convenio sobre palabras y nombres. Porque los hombres creen que su razón controla las palabras. Pero también es verdad que las palabras reaccionan y dirigen su fuerza contra el entendimiento: y así la filosofía y las ciencias se han vuelto sofísticas e improductivas. Y las palabras (...) disecan las cosas a lo largo de las líneas más obvias al sentido común. Y cuando un entendimiento más agudo, o una observación más cuidadosa intenta dirigir esas líneas en mejor acuerdo con la naturaleza, las palabras resisten. 4 Tal vez el lector eche de menos las comillas en la última oración. No fueron colocadas porque su utilización para distinguir entre uso y mención no fue conocida por los medievales. Ellos dirían que “los perros” está en suposición material. Quien haya leído la novela El nombre de la rosa, de Umberto Eco, recordará que en ella Guillermo resuelve un enigma a partir de un relato casual de Adso y de su conocimiento de la suposición material. 5 El título alude directamente a los trabajos sobre lógica de Aristóteles, cuya compilación es conocida como Organum, “instrumento”. Aristóteles no creía que la lógica fuese una ciencia, sino un pródromo necesario para todas las ciencias, un instrumento indispensable en todas ellas. 2.2 Lenguas artificiales 45 Aforismo LX: Los ilusiones que las palabras imponen al entendimiento son de dos clases. O bien son nombres de cosas que no existen (...) o bien son nombres de cosas que existen pero son confusas y están mal definidas (...)6 . Unos cuarenta años después, también en las islas británicas, aparecen los esbozos de lenguas filosóficas que, de tener éxito, superarían todas las maldiciones del lenguaje natural denunciadas por Bacon. George Dalgarno y John Wilkins son los nombres de quienes presentaron esos esbozos. La idea de las lenguas filosóficas, que explicaremos brevemente, está inspirada en algo que había ya llamado la atención de Descartes: a pesar de que un alemán y un francés hablan lenguas diferentes, ambos, frente a la cadena de caracteres 92357865 reconocen el mismo número, aunque nunca la hayan visto antes, y aunque cada uno en su lengua la nombre en forma diferente. El objetivo era lograr algo análogo con una lengua creada justamente con ese propósito: los nombres debían codificar de alguna manera sus referentes –Descartes, luego de considerar la idea, no la consideró realizable–. Esto se conseguiría de la siguiente manera: se clasificarían los conceptos, asociando un carácter a cada uno de ellos. Lo que sigue es un ejemplo totalmente ficticio, inventado solo con el propósito de que se comprenda la idea. Supongamos que hemos dividido las cosas en materiales e inmateriales. A “materiales” le asignamos el carácter µ. Supongamos además que convenimos en que las cosas materiales se dividen en varias especies, una de las cuales es “artefactos”. A esta especie le asignamos el carácter α. También los artefactos, como género, presentan especies: una de ellas podría ser “con mango”, a la que asignamos el carácter γ. A su vez, de aquí podrían surgir subdivisiones, una de las cuales podría ser “para golpear”, a la que le asignamos el carácter λ . Así, una lengua en la que el nombre de los martillos fuera µαγλ tendría a su favor que si alguien no sabe lo que es un martillo, el simple hecho de nombrárselo mediante esa palabra le explicará qué es. Esto muestra también la dificultad básica de la empresa. Como Dalgarno advirtió, antes de diseñar la lengua en sí se debe disponer de una clasificación adecuada de las cosas de las que se desea hablar. No podemos distraernos con las dificultades que presentan los proyectos taxonómicos, pero en resumen la dificultad de encontrar una clasificación adecuada parece irremontable –fue brillantemente utilizada por J. L. Borges en su escrito El idioma analítico de John Wilkins [Bor74], el que a su vez fue fermental, según consigna el autor, en la creación de Las palabras y las cosas [Fou02], de Michel Foucault. Pero además de la dificultad taxonómica, plagada de complicadísimas cuestiones metafísicas y gnoseológicas, parece inevitable dar la clasificación en una lengua natural, introduciendo los defectos que se querían evitar. El lector interesado puede saciar su curiosidad leyendo [Eco99]. Una de las mentes más brillantes del siglo, Leibniz, soñó con una lengua universal de propiedades asombrosas. Aunque el proyecto leibniciano presenta dificultades hermenéuticas y hay una copiosa literatura al respecto, existe consenso acerca de que se trataría de un sistema lingüístico basado en caracteres sobre los que se pudiese aplicar un cálculo de modo que solamente se pudieran producir proposiciones verdaderas. Si le suena familiar, no se asombre: la lógica matemática es hija de ese sueño de Leibniz, solo que este era muchísimo más complexivo. En palabras del propio Leibniz Todo razonamiento humano se realiza por medio de ciertos signos o caracteres. No solamente las cosas mismas, de hecho, sino ni siquiera las ideas de las cosas pueden siempre, ni deben, ser observadas distintamente, y por tanto, en lugar de éstas, por razones de brevedad, se utilizan signos. (...) Por esto se ha llegado a asignar nombres a los convenios, a las figuras y a las distintas especies de cosas, signos, signos a los números de la aritmética y a las magnitudes del álgebra... En la categoría de los signos, pues, incluyo las palabras, las letras, las figuras químicas, astronómicas, chinas, jeroglíficas, las notas musicales, los signos esteganográficos, 6 Los aforismos fueron traducidos de [Bac03] 46 Capítulo 2. Naturaleza, artificio y forma algebraicos, aritméticos y todos los otros que usamos en lugar de las cosas en nuestros razonamientos. Los signos escritos, o dibujados, o esculpidos, se llaman caracteres... Las lenguas comunes, aunque sirven para el razonamiento, no obstante están sometidas a innumerables equívocos, y no pueden ser utilizadas para el cálculo, de manera que se puedan descubrir los errores de razonamiento remontándose a la formación y a la construcción de las palabras, como si se tratase de solecismos o barbarismos. Esta ventaja admirabilísima hasta ahora solo la proporcionan los signos empleados por los aritméticos y los algebristas, para quienes todo razonamiento consiste en el uso de caracteres, y todo error mental equivale a un error de cálculo. Meditando profundamente sobre este tema, de pronto vi claro que todos los pensamientos humanos podían resumirse completamente en unos pocos pensamientos que deben considerarse como primitivos. Si luego se les asignan los caracteres a estos últimos, a partir de aquí se pueden formar los caracteres de las nociones derivadas, de donde siempre es posible extraer sus requisitos y las nociones primitivas que las componen, es decir, las definiciones y los valores, y por lo tanto, también sus modificaciones que se pueden derivar de las definiciones. Una vez hecho esto, quien se sirva de los caracteres así descritos a la hora de razonar o de escribir, o bien no cometerá nunca errores, o los reconocerá siempre por sí mismo, ya sean suyos o de otros, mediante comprobaciones muy simples. [Eco99] Para entender las motivaciones que Leibniz podría tener para sostener este grandioso proyecto, conviene recordar algunos elementos: Él fue uno de los creadores del cálculo diferencial e integral. Lo hizo en forma independiente de Newton, utilizando una notación mucho más práctica que este. La notación leibniciana estaba tan adecuadamente elegida –es, básicamente, la que se usa hoy universalmente– que facilitaba enormemente los cálculos. Produjo modelos aritméticos de la lógica aristotélica. Por ejemplo, si a animal se le asigna el número 2, a racional el 3, dado que hombre es, por definición, un animal racional, se le asignará el 6, producto de 2 y 3. La pregunta acerca de si el hombre es animal, racional, o las dos cosas, queda respondida al factorizar el 6. Además, Leibniz consideraba que la razón podría descubrir todas las verdades. La explicación de esto no nos interesa aquí, pero está intrínsecamente relacionada con su concepto acerca de cómo Dios había creado el mundo. No es objetivo de este libro decir más sobre las lenguas filosóficas, excepto que todos estos proyectos parecen tener un punto débil común, sobre el que pronto confluyó la crítica: necesitan codificar de alguna manera conceptos primitivos, y la identificación de estos presupone una estructura en la naturaleza que parece al menos, extremadamente dudosa, y es muy razonable pensar que el conocimiento humano puede organizarse de muchos modos diferentes, de modo que un objeto que se incluye en una clase por algunas propiedades, se considera también miembro de otra por otras propiedades. Un ejemplo simple aclarará el punto: si se desea tener un lenguaje en el que nombres diferentes correspondan a objetos diferentes, si se nombra al número 2 en una lengua filosófica por la propiedad de ser el menor par, debería prohibirse nombrarlo como el menor primo, o si no introduce esta interdicción, debería ser posible identificar ambos nombres como correferenciales. En el caso del lenguaje matemático parece razonable esperar esta posibilidad en principio, mediante el cálculo, aunque profundos descubrimientos del siglo XX arrojan una larga sombra de duda sobre este optimismo restringido a lenguajes que pretendan hablar “simplemente” de la aritmética. Pero además de este problema, ¿cómo hallar esos caracteres primarios, reales, que se relacionen directamente con la estructura de la realidad? ¿Cuáles son las propiedades básicas a partir de las cuales se pueden describir todas? Problemas aparentemente insuperables que bloquearon el camino 2.2 Lenguas artificiales 47 a la realización de los sueños de lenguas filosóficas universales. 2.2.1 Las lenguas internacionales Mencionamos brevemente aquí otro intento de apartarse del lenguaje natural, pero con propósitos diferentes a los de las lenguas filosóficas. Las lenguas internacionales son creaciones que se proponen con el único objeto de facilitar la comunicación entre personas con lenguas maternas diferentes. Es de observar que durante siglos, el latín cumplió esta función en Occidente. Pero en la época del auge de las lenguas internacionales –el siglo XIX–, el latín había dejado de cumplirla, y se consideraba impensable que alguna de las lenguas vivas pudiera hacerlo. De ese modo, algunas personas consideraron que la solución al problema de la comunicación de todos los humanos podría resolverse mediante una lengua artificial. Existen varias de estas lenguas, de las cuales tal vez las más importantes son el volapük y el esperanto. Toman raíces léxicas de diversas lenguas naturales, y tienden a tener gramáticas absolutamente regulares. El volapük, surgido en 1879, tuvo un momento de auge hacia fines del siglo XIX, pero las disensiones entre sus hablantes sobre la conveniencia o no de introducir reformas, y la competencia con el esperanto, surgido en 1887 con una gramática más sencilla, determinaron que paulatinamente se fuera reduciendo la comunidad que lo sostenía. Hoy se calcula que lo hablan menos de una centena de personas en el mundo. El esperanto conoció un éxito mucho mayor. Posiblemente más de un millón de personas lo hablen actualmente, y se supone que unos pocos miles lo han aprendido en su entorno familiar, no como resultado de un estudio; de modo que se los puede considerar hablantes nativos. Las lenguas internacionales sufren siempre la tensión de su transformación con el uso, como le sucede a las lenguas naturales. Desde determinado punto de vista, no es incorrecto decir que las palabras que usted está leyendo están escritas en latín transformado. Si bien el español tiene como ancestro al latín, no hubo un momento en el que la gente decidió crear el español, sino que surgió como resultado de un lento proceso natural, de un modo análogo a como una especie surge de otra como resultado de la evolución. Pero el español no es la única lengua romance. Si el esperanto diera origen a lenguas tan distantes como el español y el rumano, su propósito original se vería totalmente traicionado. Por ese motivo, las lenguas internacionales se normativizan fuertemente, y eso hace que, al decir de algunos, se parecen a las lenguas filosóficas en su rigidez, pero sin tener las ventajas que estas pretendían tener al vincular estrechamente morfología y semántica, mientras que, debido a esa rigidez, no poseen las ventajas expresivas del lenguaje natural. 2.2.2 Otras lenguas artificiales Existen otras lenguas artificiales, que tienen propósitos diferentes. Todos conocemos que algunas lenguas han sido creadas por motivos artísticos, tales como el sindarin o élfico gris, creado por Tolkien, que aparece en El señor de los anillos. Obviamente, no cumplen otra función aparte de su pertenencia a una obra literaria. Inclusive, sin propósitos artísticos, hay personas que crean lenguas. El lector puede encontrar un manual de construcción de lenguas artificiales en la página The Language Construction Kit, cuya URL es http://www.zompist.com/kit.html. Diferente es el caso de la lengua Lincos (nombre que abrevia la expresión latina lingua cosmica). Esta lengua, creada por Hans Freudenthal en 1960, tiene como propósito la comunicación con inteligencias extraterrestres. Se trata de un proyecto científico serio, no de una fantasía ovnivológica. El proyecto SETI rastrea desde hace años el cielo en busca de señales de exointeligencia. Si encontrásemos una señal electromagnética de la que la mejor explicación fuese que ha sido emitida por seres inteligentes, ¿cómo podríamos intentar comunicarnos con sus emisores? Dado que esos emisores presumiblemente sean muy diferentes a los humanos, la tarea no es sencilla. Lincos está pensada para poder “enseñarse”, y buena parte del programa consiste en la secuenciación Capítulo 2. Naturaleza, artificio y forma 48 de emisiones con ese fin. Es de destacar que la lengua comenzaría a enseñarse con términos de aritmética en base 2, y luego continuaría con las lógicas que vamos a estudiar en este libro. Esto es un reconocimiento implícito de la consideración –que tal vez no recoja unanimidades entre los filósofos– de que la aritmética y la lógica son universales, compartibles por todas las inteligencias del universo. 2.3 Lenguajes formales Los lenguajes formales no son lenguas naturales ni artificiales. No están pensados para ser hablados, ni para expresar todo. Son lenguajes que se crean con propósitos muy específicos. En nuestro caso, el propósito está relacionado con la evaluación de las inferencias o argumentos. Veamos la motivación que impulsó a Gottlob Frege, considerado el más grande lógico de la historia después de Aristóteles (veremos por qué, cuando estudiemos la lógica de primer orden) a crear un lenguaje formal, cuando se enfrentó a la tarea de evaluar inferencias que se daban en matemática: ...para que no pudiera introducirse inadvertidamente algo intuitivo, se debió llegar a suprimir toda laguna en la cadena de inferencias. Al procurar cumplir lo más rigurosamente posible con este requerimiento, me encontré, junto a todas las dificultades que surgen de la expresión, un obstáculo en la inadecuación del lenguaje: cuanto más complicadas eran las relaciones tanto menos podía alcanzar la exactitud requerida por mi propósito. De estas necesidades nació la idea de la presente conceptografía [este es el nombre que Frege dio a su sistema formal. Un sistema formal está basado en un lenguaje formal, como veremos]. Por lo tanto, esta debe servir para probar de la manera más segura la precisión de una cadena de inferencias... [Fre72] He aquí el propósito de Frege para crear su lenguaje formal. ¿Pero qué es un lenguaje formal? Según la caracterización que se hace en [Hun73], Un lenguaje formal es un lenguaje que puede ser completamente descrito sin hacer referencia a ninguna interpretación o apelación a significados. ¿Cómo puede ser eso? Obviamente, la forma de hacerlo es ver el lenguaje formal como un conjunto de cadenas de caracteres. Todo lo que cuenta es poder decidir si una cadena dada de caracteres pertenece o no al lenguaje, sin que la significación que se le pueda dar tenga algo que ver con esto. Observe que en las lenguas naturales y en las artificiales, las cadenas de caracteres –las palabras– forman parte del lenguaje en tanto significan algo. ¿Por qué querría uno hacer un lenguaje formal? se preguntará el lector. La respuesta es que, al menos en nuestro caso, al relegarse en su construcción toda consideración material, de contenido, la forma queda evidenciada en forma inequívoca. Para construir un lenguaje formal, entonces, se debe hacer lo siguiente: Dar un alfabeto, esto es, un conjunto de símbolos que servirán para construir las fórmulas de nuestro lenguaje, o sea, las cadenas símbolos que pertenecerán a él. Caracterizar inequívocamente las fórmulas, de manera que frente a cualquier cadena de símbolos, se sepa si es una fórmula o no. El lenguaje será el conjunto de las fórmulas. Observe que la caracterización de las fórmulas equivale al establecimiento de una sintaxis, o sea, a dar reglas de combinación de símbolos. Una vez hecho esto, según nuestros propósitos, podemos asignarle significados a las fórmulas, esto es, dar una semántica para el lenguaje. Pero el lenguaje formal queda establecido con prioridad a la semántica que se le asigna. Un mismo lenguaje formal puede soportar semánticas diferentes. 2.3 Lenguajes formales 49 Con las lenguas naturales no pasa esto, si existiera un lenguaje en el que las palabras se escribiesen exactamente como en español pero no significaran lo que significan en español, no diríamos que se trata del español. Veamos algunos ejemplos simples de lenguajes formales: Ejemplo 2.1 — Lenguaje formal 1. Alfabeto: {♣, ♦} Llamaremos “trébol” al símbolo ♣ y “diamante” al símbolo ♦. Fórmulas: Serán fórmulas todas las cadenas finitas en las cuales la cantidad de tréboles sea superior a la de diamantes. Ninguna cadena que no cumpla lo anterior será fórmula. Lo precedente describe en forma completa el lenguaje formal. Debido a la extrema precisión de su descripción, siempre podemos, sistemáticamente, saber si una cadena dada es fórmula (un elemento del lenguaje) o no lo es: ♣♣♦♥♣ no es fórmula porque uno de sus símbolos no pertenece al alfabeto del lenguaje. La cadena formada por cinco diamantes seguidos por infinitos tréboles no es fórmula porque no es finita. ♣ es fórmula. ♣♦ no es fórmula porque la cantidad de diamantes iguala a la de tréboles. Es posible obtener resultados generales sobre el lenguaje: Ejemplo 2.2 ¿Cuántas fórmulas con exactamente cuatro símbolos hay? Podemos razonar así: una posibilidad de tener una fórmula con cuatro símbolos es que todos sean tréboles. Eso da una única fórmula. Otra posibilidad es tener una fórmula con tres tréboles y un diamante. Hay cuatro fórmulas así, según el lugar que ocupe el diamante. No podemos tener fórmulas con otras cantidades, porque en ese caso los tréboles no superarían los diamantes. Por lo tanto, hay exactamente cinco fórmulas con cuatro símbolos. Es posible, aunque mucho más trabajoso, resolver el problema de cuántas fórmulas con k símbolos hay, siendo k un natural dado. Llamemos concatenar a la operación de formar una cadena a partir de dos dadas (en un orden) colocando la segunda a continuación de la primera. Por ejemplo, la concatenación de las cadenas ♦♦♣♦ y ♣♦ da como resultado ♦♦♣♦♣♦. Dos resultados sencillos cuya demostración encarecemos al lector es el siguiente: El resultado de concatenar dos fórmulas es una fórmula y si en una fórmula con al menos un diamante se elimina un diamante y un trébol, se obtiene una fórmula. Ejemplo 2.3 Si una fórmula comienza con dos diamantes contiguos, debe tener también dos tréboles contiguos. Supongamos que tenemos una fórmula así: ♦♦S1 S2 ...Sn donde S1 S2 ...Sn son los símbolos que siguen a los dos diamantes iniciales (sabemos que deben ser al menos tres porque si no, la cadena no es una fórmula), y que no hay dos tréboles consecutivos entre estos símbolos. Eso quiere decir que si recorremos esa cadena de símbolos, después de un trébol siempre encontraremos al menos un diamante, con la única excepción de símbolo final. En esas condiciones, hay al menos tantos diamantes como tréboles en la cadena examinada, excepto en un único caso: cuando S1 es un trébol, y luego se van alternando diamantes y tréboles hasta llegar a Sn , que es también un trébol, o sea, cuando la cadena S1 S2 ...Sn empieza con trébol, sigue con diamante, sigue con trébol, y así hasta que termina en trébol. Pero en este caso, en la cadena los tréboles superan a los diamantes por uno. Si agregamos los dos diamantes del principio, en la Capítulo 2. Naturaleza, artificio y forma 50 cadena total los diamantes superan a los tréboles y no es fórmula. Por otro lado, si no se alternan así, en la cadena examinada hay al menos tantos diamantes como tréboles, y por lo tanto, en la cadena total, que agrega dos diamantes al principio, hay más diamantes que tréboles. Entonces, si la cadena que empieza con dos diamantes es fórmula, debe tener dos tréboles contiguos en algún lado. Ejemplo 2.4 — Lenguaje formal 2. Alfabeto: {a, b} Fórmulas: Esta vez caracterizaremos las fórmulas en forma inequívoca, como debe ser, pero siguiendo un procedimiento distinto al seguido en el Lenguaje formal 1. Lo que haremos será lo siguiente: Daremos explícitamente las fórmulas más simples. Daremos reglas que permitirán construir fórmulas más complejas a partir de fórmulas de menor complejidad. Explicitaremos que las únicas fórmulas son las que se pueden obtener comenzando por las más simples de todas y aplicando las reglas sucesivamente hasta llegar a ellas. Cualquier cadena que no se pueda obtener mediante ese procedimiento, no será fórmula. Siguiendo el plan establecido, las reglas de formación son las siguientes: 1. 2. 3. 4. Las cadenas a y b son fórmulas. Si X es una fórmula, entonces aaX es una fórmula. Si X es una fórmula, entonces Xb es una fórmula. Todas las fórmulas se pueden obtener por las reglas anteriores. Este modo de caracterizar el lenguaje nos permite ir construyendo las fórmulas siguiendo un orden: a es fórmula, b es fórmula (Lo establece directamente la especificación). Si aplicamos la regla 2 a la fórmula a, obtenemos aaa. Si aplicamos la regla 3 a la fórmula a, obtenemos ab. Si aplicamos la regla 2 a la fórmula b, obtenemos aab. Si aplicamos la regla 3 a la fórmula b, obtenemos bb. Podemos seguir aplicando las reglas 2 y 3 a cada una de las fórmulas obtenidas en el paso anterior. Repitiendo el procedimiento, llegamos a obtener cualquier fórmula del lenguaje. Esto se puede mostrar con esta estructura arborescente: a aaa aaaaa b ab aaab aaab aab abb aaaab bb aabb aabb bbb 2.3 Lenguajes formales 51 En la parte superior tenemos las dos cadenas que se nos dice explícitamente son fórmulas. En el siguiente nivel, las fórmulas que podemos formar a partir de ellas con la aplicación de una regla; en el siguiente nivel, las que podemos obtener de estas últimas y así podríamos seguir. Toda fórmula tiene algún lugar en esa estructura de la que se muestran los primeros tres niveles. Se observa que la cadena aaa es fórmula y solo puede obtenerse de una manera: comenzando con la fórmula a y aplicando la regla 2. (Está claro que las fórmulas que quedan en niveles superiores en la estructura –o sea, más abajo si se piensa gráficamente– tienen más símbolos, de modo que esa cadena no aparece en ningún otro lugar). Por otro lado, la fórmula aaab se puede obtener de dos modos: comenzando con la fórmula a, aplicando la regla 2 y luego aplicando la regla 3 al resultado, o comenzando con la fórmula a, aplicando regla 3 y luego la regla 2 al resultado. Shift ⇑ SEGUNDA LECTURA Podemos probar resultados generales sobre este lenguaje, mediante un método que será importante en variadas ocasiones. Para comprender el método, hay que observar que la estructura arborescente es muy similar a un árbol genealógico. Cada fórmula tiene dos “hijos”, que son las fórmulas que resultan de aplicarle la regla 2 y la regla 3. Hemos observado que algunas fórmulas tienen más de un “padre”, como aaab, que desciende de aaa por regla 3 y también desciende de ab por regla 2. Supongamos ahora que hay una propiedad que cumple la característica siguiente: si una fórmula la tiene, sus hijos la tienen. En forma inexorable, es algo que se trasmite a los dos descendientes, siempre que el padre lo tenga. Se puede pensar, sobre la estructura arborescente, como algo que pasa en forma inevitable por las líneas hacia abajo. ¿Asegura eso que todas las fórmulas lo tienen? No, de ninguna manera, solo dijimos que si una fórmula tiene la propiedad, sus hijos la tendrán, pero eso no asegura que haya siquiera una fórmula que tenga la propiedad. Sin embargo, hay una condición bajo la cual se puede asegurar que todas las fórmulas del lenguaje tendrán la propiedad. Y es una condición obvia: si las fórmulas que están en la parte superior de la estructura tienen esa propiedad, entonces todas las fórmulas la tendrán. Al tenerlas las de la parte superior (a y b), la tendrán las que están en el segundo nivel para abajo, y estas la trasmitirán a las del tercer nivel, y así siguiendo. De esta manera, si queremos probar que una propiedad es tenida por todas las fórmulas, tenemos la posibilidad de hacerlo, aunque hay una infinidad de ellas. El método consistiría en: 1. Probar que las fórmulas más básicas, a partir de las cuales se construyen todas las demás, las que están en el tope de la estructura arborescente, (a y b en nuestro caso, pero esto es de aplicación general cuando el lenguaje formal se explicita en la forma en que lo fue este) cumplen la propiedad. 2. Probar que si una fórmula cualquiera tiene esa propiedad, sus descendientes la tienen (en nuestro caso, probar que si una fórmula cualquiera tiene la propiedad, las fórmulas que se obtienen al aplicar las reglas 2 y 3 a ella también la tienen). Apliquemos el método para probar que todas las fórmulas del lenguaje cumplen la siguiente propiedad: Si la fórmula tiene una b, a la derecha de esa b no hay ninguna a. Primero trabajamos sobre las fórmulas más simples, a y b, y vemos que se cumple: la fórmula a no tiene ninguna b, y la fórmula b no tiene ninguna a a la derecha de su única b. Ahora tenemos que demostrar que si una fórmula cualquiera tiene la propiedad, sus descendientes la tienen. No podemos tomar una fórmula específica, como aabb, para hacer la prueba, porque en ese caso no estaríamos probando que la propiedad es trasmitida por todas las fórmulas, sino solo que es trasmitida por la fórmula que elegimos. De modo que consideramos cualquier fórmula (la llamamos X) y suponemos que cumple la propiedad. Es decir: Capítulo 2. Naturaleza, artificio y forma 52 Sea X una fórmula que o bien no tiene ninguna b o bien no tiene ninguna a a la derecha de una b. ¿Cuáles son sus descendientes? Uno de ellos es aaX. Es claro que aaX también cumple la propiedad, es decir: o bien no tiene ninguna b (en el caso en que X no tuviera ninguna, ya que lo que hicimos fue agregar dos aes), o bien tiene bes, pero a la derecha de ellas se encuentra lo mismo que en X, es decir, ninguna a, porque agregamos las dos aes en el extremo izquierdo de la fórmula. El otro descendiente es Xb. Pero también es claro que Xb no tiene ninguna a a la derecha de una b, porque X no las tenía, y ahora lo que se ha hecho es agregar una b en el extremo derecho, de manera que a la derecha de una b cualquiera de Xb (excepto la que acabamos de agregar) hay lo mismo que había en X más una b, o sea, ninguna a, y a la derecha de la que acabamos de agregar no hay nada. De este modo, hemos demostrado que la propiedad es “hereditaria”, o sea, siempre que una fórmula la tenga, la trasmite a las que se pueden formar a partir de ella por aplicación de las reglas. Esto completa la demostración de que todas las fórmulas tienen la propiedad. Eso nos permite decir, sin ninguna clase de dudas, que aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaababbbbbbbbbb no es una fórmula. Ejemplo 2.5 — Lenguaje formal 3. Alfabeto: {a, b, c, d, e, f, g, h, i, X, O, V, F} Fórmulas: Serán fórmulas cualquier letra mayúscula seguida de una letra minúscula. Si X e Y son fórmulas, XFY es una fórmula. Todas las fórmulas se pueden obtener por el procedimiento descrito. Así, Oe es una fórmula, así como XaFVaFOeFVb. Shift ⇑ SEGUNDA LECTURA Llamemos “estrella” al símbolo F y demostremos lo siguiente: Ninguna fórmula tiene dos estrellas consecutivas. Para demostrar que ninguna fórmula tiene dos estrellas consecutivas, procedemos como en el ejemplo anterior: consideramos las fórmulas más básicas (que en este caso son 27, cada una de ellas formada por una de las tres letras mayúsculas seguida por una de las letras minúsculas) y demostramos que ellas cumplen la propiedad de no tener dos estrellas consecutivas. Esto es evidente, ya que estas fórmulas no tienen siquiera una estrella. Una vez probado esto, tendríamos que probar que la propiedad se conserva sobre la relación de descendencia. En este caso, un par de fórmulas da origen a una fórmula descendiente. O sea, habría que probar que si dos fórmulas, X e Y tienen la propiedad, la fórmula que con ellas se puede formar, o sea XFY, también la tiene. Intentémoslo: Sean X e Y fórmulas del lenguaje que no tienen estrellas consecutivas. Debemos probar que XFY tampoco tienen estrellas consecutivas. Aquí se nos presenta un problema: es claro que si el último símbolo de la fórmula X o el primero de la fórmula Y es una estrella, la fórmula XFY tiene estrellas consecutivas. ¿Será que estamos intentando demostrar una propiedad que no se cumple? No, la propiedad se cumple, pero para demostrarla, debemos demostrar que no ocurre lo que acabamos de decir, o sea, demostrar que ninguna fórmula empieza o termina con una estrella. Y a esta altura, ya sabemos cómo hacerlo. Demostración de que ninguna fórmula empieza o termina con una estrella: Ninguna de las 27 fórmulas básicas empieza o termina con una estrella, porque estas fórmulas no tienen estrellas. Sean X e Y fórmulas que no empiezan con estrellas. Entonces 2.3 Lenguajes formales 53 la fórmula XFY no empieza con estrella, porque empieza con el mismo símbolo que X, que hemos supuesto no es una estrella. Sean X y Y fórmulas que no terminan con estrella. Entonces XFY no termina con estrella, porque termina con el mismo símbolo que Y, que hemos supuesto no es estrella. Esto demuestra que ninguna fórmula del lenguaje empieza ni termina con estrella. Ahora podemos volver a la demostración de que ninguna fórmula tiene dos estrellas consecutivas: Sean X e Y dos fórmulas que no tienen estrellas consecutivas. Entonces la fórmula XFY solo puede tener estrellas consecutivas en el caso de que X termine en estrella o Y comience con una estrella. Pero sabemos que ninguna fórmula empieza o termina con estrella, por lo que XFY no puede tener dos estrellas consecutivas. Esto termina la demostración. Hemos trabajado con tres lenguajes formales, y una pregunta sumamente pertinente es: “Todo esto está muy bien, pero, ¿qué significan esas fórmulas?”. La respuesta es que en principio no significan nada. Estos lenguajes fueron elegidos para explicar qué son los lenguajes formales, y algunos métodos para trabajar con ellos. Pero cuando uno construye un lenguaje formal, normalmente lo hace para un propósito no meramente didáctico, sino que en verdad desea atribuir algún significado a las fórmulas. Por ejemplo, el lenguaje formal 3, el último que hemos visto, puede servir para describir disposiciones en una partida de tatetí: g h i d e f a b c Interprete las letras minúsculas como nombres de las casillas de un tatetí. Interprete además las letras mayúsculas como “tener una cruz marcada” para la X, “tener un círculo marcado” para la O, y “estar sin marcar” para la V. Así, la fórmula Oe significará que la casilla central del tablero está marcada con un círculo, y Va significará que la esquina inferior izquierda está sin marcar. Interprete además la estrella como un “y”. Entonces, XaFXeFXi significará que la diagonal que va de izquierda a derecha en sentido ascendente está marcada con cruces, lo que según las reglas del juego, quiere decir que las cruces ganan. De este modo, se pueden interpretar todas las fórmulas del lenguaje, inclusive una fórmula como OaFXa que “dice” que la esquina inferior izquierda está marcada tanto con un círculo como con una cruz. Por supuesto, en el transcurso de una partida normal, una fórmula así nunca representará una proposición verdadera. Si suponemos además que la fórmula muestra con el orden en que aparecen sus componentes el orden de las jugadas empezando con un tablero vacío, la fórmula XgFOdFXeFOcFXhFOiFXb representará una partida ganada por las cruces. Esto es evidente porque la fórmula contiene Xb, Xe y Xh, lo que significa que la columna central fue ocupada por las cruces. La posición final es Capítulo 2. Naturaleza, artificio y forma 54 X X O X X O O También se puede usar el lenguaje para especificar con toda precisión una situación dada en el tablero, y para eso usaríamos el símbolo V con el objetivo de señalar las casillas no marcadas. Ejercicio 2.1 a) Especificar completamente, con ayuda del lenguaje formal 3 y la interpretación hecha, la posición siguiente: X X O b) En la posición anterior, juega círculo. Muestre, valiéndose de fórmulas de nuestro lenguaje formal para expresarse, que cruz tiene una estrategia ganadora. Por supuesto, otras interpretaciones de este lenguaje formal son posibles. Podríamos interpretar que a, b, c, d, e, f, g, h, i representan los números naturales del 1 al 9 en ese orden, que X representa “cuadrado de”, que O significa “doble de”, que V significa “siguiente de” y que F significa suma. Así, la fórmula Vd significará el siguiente de d, o sea el 5, y Vi significará 10. La fórmula XaFObFVc se interpretará como 12 +2.2+4, o sea como 9. Observe que bajo esta interpretación, las fórmulas XaFObFVc, Vh, OcFVb tienen todas el mismo significado. Ejercicio 2.2 Encuentre tres fórmulas diferentes del lenguaje formal 3 que signifiquen el número 14 en la última interpretación dada. 2.3.1 Lenguaje y metalenguaje Para hablar se necesita un lenguaje. Nosotros, hispanoparlantes, hablamos normalmente en español, una lengua natural, y haciendo uso de los recursos que ella nos proporciona, hablamos de infinidad de cosas. Si bien los poetas suelen quejarse de la poca expresividad de las palabras, suelen decir que hay algo inefable que escapa a la posibilidad de ser expresado, las lenguas naturales son los medios más expresivos de que disponemos. Esa expresividad permite que hablemos, como lo venimos haciendo, de, entre otras cosas, los lenguajes formales. Todos los discursos están en un lenguaje, y a veces el discurso versa sobre un lenguaje. Se establecen así dos posiciones diferentes que un lenguaje puede ocupar: como objeto del discurso y como medio del discurso. Por ejemplo, si digo: 2.3 Lenguajes formales 55 En latín no hay palabras agudas. estoy usando el español como medio de expresión (obviamente, la oración está expresada en español) y estoy tomando al latín como objeto del que hablo. En casos así, cuando el discurso refiere a un lenguaje O y está expresado en un lenguaje M, se dice que el lenguaje O es el lenguaje objeto y que el lenguaje M es el metalenguaje. Por supuesto, ningún lenguaje es lenguaje objeto o metalenguaje de por sí, es algo relativo a ciertos discursos sobre lenguajes. En el caso anterior, el latín era el lenguaje objeto, y el español el metalenguaje, pero en Hispanica lingua barbara est. el lenguaje objeto es el español y el metalenguaje el latín. Inclusive puede suceder que el lenguaje objeto y el metalenguaje sean el mismo, como podrá comprobar el lector abriendo una gramática española escrita en español. Esta posibilidad es una muestra de la riqueza expresiva del español (de las lenguas naturales en general). Intente el lector dar una interpretación de alguno de los tres lenguajes formales que hemos visto que pueda servir para describir el propio lenguaje, y aunque no consiga demostrar que es imposible, será muy fácil que se convenza de ello. Es más, no pueden darse las reglas de construcción de un lenguaje formal en el propio lenguaje formal, por la obvia razón de que sería como intentar levitar tirándose del pelo. De este modo, se debe distinguir entre lenguaje y metalenguaje. La importancia será obvia más adelante, pero en particular podemos remarcar un aspecto. Cuando hablamos de un lenguaje formal, muchas veces enriquecemos el idioma español con expresiones que también simbolizamos. Supongamos que queremos decir que dos fórmulas del lenguaje formal 3 son equivalentes si en la última interpretación dada significan el mismo número. Entonces, Vh es equivalente a OcFVb. Para no estar escribiendo siempre “es equivalente a” creamos un símbolo, digamos ≈. Ahora podemos escribir Vh≈OcFVb Esto tiene apariencia de fórmula, pero claramente no lo es. El símbolo ≈ no pertenece al alfabeto del lenguaje, lo hemos introducido para tener un metalenguaje más cómodo. A partir del próximo capítulo, describiremos y estudiaremos dos lenguajes formales que son básicos para la lógica, y lo haremos en un español enriquecido con expresiones técnicas definidas para nuestros propósitos, a las que les atribuiremos símbolos. Será importante entonces distinguir entre las expresiones del lenguaje y las del metalenguaje. Relacionada con la distinción lenguaje – metalenguaje existe otra: la distinción uso – mención. Observe las siguientes oraciones: 1. Wittgenstein era bastante excéntrico. 2. Wittgenstein es muy difícil de pronunciar correctamente. Está claro que la primera palabra de ambas oraciones funciona en ellas de dos formas muy distintas. En la primera refiere a un hombre, el genial Ludwig Wittgenstein, quien, entre otras cosas, renunció a heredar una de las fortunas más grandes de Europa, amenazó con un atizador a Popper y pasó por largos períodos de aislamiento. Pero en la segunda, esa misma palabra no está refiriendo a un hombre, sino a una palabra, que es ella misma, y es justamente, el nombre de Wittgenstein. Se dice que en la oración 1 la palabra en cuestión se está usando, y en la oración 2 se está mencionando. Los medievales dirían que la palabra en cuestión está en 1 en suposición formal, y en 2 en suposición material, y no llevarían la distinción a la forma de escribir ambas oraciones. Capítulo 2. Naturaleza, artificio y forma 56 Nosotros sí lo hacemos. Cuando mencionamos una palabra o expresión, y no la usamos, al escribir la encerramos entre comillas. Así, lo correcto es escribir7 “Wittgenstein” es muy difícil de pronunciar correctamente. Es claro que usamos “Wittgenstein” para referirnos a la propia palabra que está entrecomillada. Así, podemos escribir correctamente “Wittgenstein” es un apellido. ¿Estará bien escrita la siguiente oración? XaFXeFXi es una fórmula. ¿No debería ir la fórmula entre comillas, recomendación que no he seguido nunca en este capítulo, cuando hablaba de fórmulas? La respuesta podría ser la siguiente: Podría hacerse así, por supuesto, la fórmula se está mencionando y no usando. Pero al ponerle comillas lo que haríamos sería indicar que no estamos refiriendo a lo que la fórmula refiera, sino a la fórmula misma. Es decir, usaríamos la fórmula entre comillas como un nombre de la fórmula. Y ya que las fórmulas no pertenecen (naturalmente) a nuestro metalenguaje, que es el español, podemos optar por enriquecer este diciendo que en el metalenguaje, las fórmulas son nombres de sí mismas. Así evitamos nombrar a las fórmulas encerrándolas entre comillas. Cuando las escribimos directamente, en medio de un texto en español, las estamos nombrando. Y seguiremos esa práctica, que es muy cómoda. 2.4 Lógica y lenguajes formales Habíamos hecho una primera caracterización de la lógica como la ciencia que se ocupa de discernir y estudiar las inferencias o los argumentos válidos en virtud de su forma. También observamos que la enorme expresividad de las lenguas naturales tiene como contrapartida inevitable la existencia de fenómenos que pueden entorpecer el logro de los objetivos declarados de la lógica. Al comienzo de nuestro estudio de los lenguajes formales, vimos una cita de Frege que ampliaremos con otra proveniente del mismo texto, el prólogo de la Conceptografía, donde después de explicar las razones que lo llevaron a crear un lenguaje formal, apartándose del lenguaje natural para el análisis de las inferencias, precisa, con una bella y acertada comparación, la relación entre el lenguaje natural y el formal que acababa de crear, y establece un programa para la ciencia: Creo poder hacer muy clara la relación de mi conceptografía con el lenguaje común si la comparo con la que hay entre el microscopio y el ojo. Este último, por el campo de su aplicabilidad y la movilidad con que se sabe adaptar a las más diversas situaciones, posee gran superioridad frente al microscopio. Considerado como aparato óptico, muestra sin duda muchas imperfecciones, las cuales pasan desapercibidas, por lo común, solo como consecuencia de su estrecha relación con la vida mental. Pero tan pronto como los propósitos científicos establecen mayores exigencias en la precisión de las distinciones, el ojo resulta insuficiente. Por el contrario, el microscopio es lo más apropiado para tales fines, aunque, por ello, no es utilizable para otros. Así, esta conceptografía ha sido ideada como un auxiliar para determinados propósitos científicos y no se la puede sentenciar porque no sirva para otros. Si de algún modo 7 Las recomendaciones de la Real Academia española no son estas. Indica que cuando una palabra sea mencionada, se la escriba con un tipo diferente al del resto del texto. Aparentemente, es la práctica corriente en lingüística. En filosofía el uso que hemos indicado es universal, y para casos más complicados, que los hay, se utiliza una creación de Quine llamada quasi quotation con sus marcas particulares. 2.4 Lógica y lenguajes formales 57 corresponde a estos fines, no importa que se puedan echar de menos verdades nuevas en mi trabajo. Me consolaría, sobre todo, la conciencia de que también un desarrollo del método hace prosperar a la ciencia. Pues Bacon consideró preferible inventar un medio por el cual se pudiera descubrir fácilmente cualquier cosa, a descubrir algo particular, y, por cierto, todos los grandes progresos científicos han tenido su origen en un perfeccionamiento del método.[Fre72] Frege dice que la ciencia de la lógica necesita de un lenguaje formal, establece una comparación entre este y el lenguaje natural, y expresa la esperanza de que su método promueva el avance de la ciencia. A pesar de que su libro no fue inmediatamente reconocido como la obra invalorable que es, actualmente podemos decir que Frege es, sin dudas,uno de los más grandes lógicos de la historia, probablemente la persona que más hizo avanzar a la lógica desde los tiempos de Aristóteles. La senda que marcó, al inventar un lenguaje formal capaz de examinar una enorme clase de inferencias como examina el microbiólogo sus especímenes con el microscopio, es la que ha seguido esta ciencia hasta hoy. Tan profundo es el impacto de su obra, que podemos caracterizar a la lógica de la siguiente manera: La lógica es la ciencia que se ocupa de la identificación y el estudio de los argumentos válidos mediante la utilización de lenguajes formales. En el próximo capítulo comenzaremos el estudio de la primera de las dos lógicas que vamos a tratar en este libro, y tendremos que empezar, obviamente, construyendo un lenguaje formal apto para llevar adelante la identificación referida. Capítulo 2. Naturaleza, artificio y forma 58 2.5 Ejercicios Los ejercicios 2 a 4 figuran en [Hun73] 1. Estos símbolos pertenecen a un lenguaje formal de importancia central en la historia de la lógica. Averigüe de qué se trata. 2. El lenguaje W se define de la siguiente forma: Alfabeto: {4, } Fórmulas: cualquier cadena finita de símbolos del alfabeto W que comience con 4 es una fórmula. ¿Es W un lenguaje formal? 3. El lenguaje X se define de la siguiente forma: Alfabeto: {a, b, c, d, e, f, g} Fórmulas: toda cadena finita de símbolos del alfabeto de X que dé lugar a una palabra del castellano es una fórmula. ¿Es X un lenguaje formal? 4. El lenguaje Y se define de la siguiente forma: Alfabeto: {a, b, c, d, e, f, g} Fórmulas: toda cadena finita de símbolos del alfabeto de Y que no dé lugar a una palabra del castellano es una fórmula. ¿Es Y un lenguaje formal? 5. Considere un lenguaje cuyo alfabeto quede determinado así: Alfabeto: {|, ||, |||, ||||} Sean fórmulas aquellas cadenas finitas tales que sus símbolos contiguos difieren solo en una barra. a) Muestre que hay fórmulas de cualquier longitud mayor que 1. b) Muestre que todas las fórmulas de cinco símbolos que contienen todos los símbolos del alfabeto tienen repetido el primer o el último símbolo. 6. Suponga que: (i) se define un lenguaje con un alfabeto finito, (ii) se establece que una cadena finita determinada es fórmula, (iii) se establece que serán fórmulas todas las cadenas que se obtengan agregando dos símbolos diferentes (siempre los mismos) al final de una fórmula ya disponible en cualquier orden, y (iv) todas las fórmulas pueden obtenerse por este procedimiento a partir de la cadena finita dada. a) Muestre que si existe una fórmula de 5 símbolos, no puede existir una fórmula de 16 símbolos. b) Suponga que hay una fórmula de 5 símbolos. ¿Cuántas fórmulas de 6, 7, 8 y 9 símbolos hay cuyo segmento inicial sea idéntico al de la fórmula dada? 7. Suponga que se define un lenguaje con un alfabeto finito, se establece que una cadena finita determinada es fórmula y que serán fórmulas todas las cadenas que se obtengan agregando dos símbolos al final de una fórmula ya disponible o las cadenas que se obtengan eliminando 4 símbolos del principio de una fórmula ya disponible (si tiene 5 o más símbolos), y que todas las fórmulas pueden obtenerse por ese procedimiento. Suponga además que “aabbccc” es una fórmula. ¿Podría ser “ccccmm” fórmula? II Lógica proposicional 3 Sintaxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 3.1 3.2 3.3 3.4 3.5 3.6 Alfabeto Fórmulas El bloqueo de la ambigüedad estructural El teorema de lectura única Árbol de formación de una fórmula Ejercicios 4 Semántica . . . . . . . . . . . . . . . . . . . . . . . . . . 75 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 4.9 Verdadero, falso e interpretaciones Tautologías, contradicciones y contingencias Tablas de verdad Asignaciones proposicionales e interpretaciones Modelos y contramodelos Vuelta a la biblioteca ¿Decir lo mismo? Equivalencia ¿Será suficiente? Conjuntos adecuados de conectivos Ejercicios 5 Conectivos lógicos y lenguaje natural 97 5.1 5.2 5.3 5.4 5.5 5.6 El conectivo ¬ El conectivo ∧ El conectivo ∨ El conectivo → El conectivo ↔ Ejercicios 6 Consecuencia semántica . . . . . . . . . . 109 6.1 6.2 6.3 6.4 6.5 6.6 6.7 6.8 6.9 La validez en el lenguaje formal La relación de consecuencia semántica Conjuntos insatisfacibles y contradicciones Conjunto vacío y tautologías Monotonía El condicional asociado El teorema de deducción (versión semántica) El “absurdo” Ejercicios 7 Consecuencia sintáctica . . . . . . . . . . . 123 7.1 7.2 7.3 7.4 7.5 7.6 Tras las huellas de los humanos El sistema de deducción natural para L P Consecuencia sintáctica Heurística Errores frecuentes al intentar hacer derivaciones Propiedades de la relación de consecuencia sintáctica Aparatos deductivos Excurso filosófico: Lógica intuicionista Ejercicios 7.7 7.8 7.9 3. Sintaxis A sintaxis de un lenguaje formal lo determina completamente, indicando cómo podemos combinar los símbolos para obtener fórmulas. Por eso, para definir un lenguaje formal lo primero que se debe establecer es cuál es el conjunto de símbolos con que contamos, y luego debemos explicitar las reglas de combinación para la obtención de fórmulas. L 3.1 Alfabeto El alfabeto será el conjunto de símbolos de que dispondremos para la construcción de fórmulas, y tanto este como las reglas de combinación deben darse teniendo en cuenta los propósitos para los que se crea el lenguaje formal. En nuestro caso, el propósito es poder distinguir las inferencias válidas en virtud de su forma, en tanto esa forma dependa de la función de palabras y expresiones como “no”, “y”, “o”, “si...entonces...” y “...si y solo si”, como habíamos visto en el capítulo 1. Debemos entonces definir el alfabeto. ¿Qué cosas queremos incluir en él? Para decidirlo, debemos preguntarnos qué tendremos que representar con los símbolos de nuestro lenguaje formal. Hemos visto que nos interesa poder representar proposiciones o enunciados. Ahora bien, a este respecto se presenta una complicación. Hay ciertas proposiciones que consideraremos como más básicas que otras, en el sentido de que no podremos, con nuestro lenguaje, representar un análisis de ellas. Un ejemplo aclarará el punto: Si consideramos las proposiciones 1. Llueve. 2. Llueve y truena. es claro que 2 es más compleja que 1, ya que 2 aparece como el resultado de conectar dos proposiciones, 1 y 3. Truena. a través de la palabra “y”, cuya función ya hemos discutido informalmente. O sea que un análisis de 2 nos muestra que está compuesta por proposiciones más básicas, a saber 1 y 3, y estas últimas Capítulo 3. Sintaxis 62 proposiciones no arrojan como resultado proposiciones más simples al ser analizadas. Obsérvese que la simple complejidad gramatical no es un indicador fiable en esta cuestión: Consideremos 4. Llueve en Montevideo. 5. Llueve a baldes en Montevideo. ¿Qué pasa si intentamos encontrar componentes más simples de estas proposiciones? Podríamos creer que 4 es, en realidad, algo que desde el punto de vista lógico equivale a “Llueve y llueve en Montevideo”, pero es obvio que este análisis lo que hace es decir que 4 equivale a 1 y 4 conectadas por un “y”. La aparición de 4 para explicar 4 hace que el análisis sea insatisfactorio, y que consideremos que, desde nuestro punto de vista, 4 no es analizable. Con 5 pasa algo idéntico, ya que si se piensa con cuidado, no podemos decir que 5 sea equivalente a “Llueve y llueve a baldes y llueve en Montevideo” (entre otros motivos, porque podría llover a baldes en Pando, pero mansamente en Montevideo, con lo que diríamos algo verdadero al decir la última expresión entrecomillada, pero 5 sería falso). Es por esto que consideramos que 5, desde el punto de vista proposicional, no admite ulteriores análisis. Aceptamos entonces que necesitaremos representar proposiciones o enunciados que no sean analizables, es decir, los que consideraremos más básicos. Como resulta intuitivamente evidente que hay una cantidad infinita de tales proposiciones (en realidad, es muy fácil generar un esquema que arroje como resultado infinitas de tales proposiciones ¿podrá el lector hallar uno?), requeriremos que nuestro lenguaje tenga infinitos símbolos para representarlas. Estos símbolos serán llamados letras proposicionales o letras de enunciado, y tendrán todos la misma forma: una letra “p” con un subíndice añadido. Incluiremos en nuestro alfabeto todos los símbolos que constan de una letra “p” y un subíndice que sea un numeral natural. Nada obsta para que se represente una proposición compleja mediante una letra proposicional. Podemos representar 2 simplemente como p1 . Pero en muchos casos, obrar de esta manera no nos permitirá capturar el funcionamiento lógico de lo que tengamos entre manos. Por ejemplo, si alguien dice Llueve y truena. Si llueve me quedo en casa. Por lo tanto, me quedo en casa. La representación de “Llueve y truena” como p1 no será adecuada, porque no captura la proposición “Llueve” que tiene un papel fundamental en el argumento. Pero si el argumento fuera Llueve y truena. Si llueve y truena me quedo en casa. Por lo tanto, me quedo en casa. al representar “Llueve y truena” como p1 no se perdería nada en cuanto a la evaluación del argumento. Aun en caso de que estemos trabajando una situación en la que solo aparezcan p1 , p2 y p3 , debemos recordar que nuestro alfabeto incluye a p4 , p5 ,. . . y en general, a cualquier letra “p” subindizada con un número natural. Por supuesto, esto no es suficiente. Sabemos que es posible construir proposiciones nuevas a partir de otras proposiciones, conectándolas de maneras muy diversas en lenguaje natural, pero que comparten la característica siguiente: 3.1 Alfabeto 63 El valor de verdad de la proposición resultante de conectar las proposiciones dadas depende de los valores de verdad de las proposiciones constituyentes. En nuestro ejemplo anterior, el valor de verdad de 2 depende de los valores de verdad de 1 y 3. Es por esto que agregaremos a nuestro alfabeto símbolos que sirvan para poner de manifiesto esas conexiones. Los símbolos que agregaremos para este cometido serán: ¬ (negador) ∧ (conjunción) ∨ (disyunción) → (condicional) ↔ (bicondicional) los cuales son llamados “constantes lógicas”1 . Podría parecer que ya tenemos todos los símbolos necesarios. Pero recordemos este enunciado, que ya consideramos cuando hablamos sobre el lenguaje natural: 6. Juan estudia filosofía y artes marciales o tarot. Un análisis muestra que el valor de verdad de 6 dependería del valor de verdad de Juan estudia filosofía, que representaremos con p1 . Juan estudia artes marciales, que representaremos con p2 . Juan estudia tarot, que representaremos con p3 . Aparentemente, podemos representar 6 como 7. p1 ∧ p2 ∨ p3 Pero esto es totalmente insatisfactorio, porque estamos reflejando el fenómeno de la ambigüedad estructural en nuestro lenguaje, como mostraremos. ¿Cuáles son las condiciones de verdad de 6, representado por 7? No hay forma de decidirlo. Podemos entender el enunciado de dos maneras: 1. El enunciado expresa que al menos una de estas dos posibilidades se da: a) Juan estudia filosofía y artes marciales. b) Juan estudia tarot. 2. El enunciado expresa que se cumplen estos dos hechos: a) Juan estudia filosofía, y además b) Juan estudia artes marciales o tarot. Obsérvese que si alguien adhiere a la interpretación 1, dirá que el enunciado es verdadero en el caso de que Juan solo estudie tarot, pero no filosofía ni artes marciales, y quien opte por la interpretación 2, dirá que es falso en ese caso. Si no deseamos que la ambigüedad estructural quede reflejada en nuestro lenguaje formal, debemos hacer algo al respecto. Nuestra solución2 consistirá en la introducción de nuevos símbolos: los paréntesis derechos e izquierdos, que nos permitirán distinguir entre las dos posibilidades de arriba con expresiones así: 1 Este nombre deriva de que su comportamiento —su significado– es invariable, como se verá al estudiar la semántica del lenguaje. 2 Hay otras soluciones, entre las cuales destaca la llamada “notación polaca”, que prescinde de los paréntesis y de introducir otros símbolos para resolver el problema. Se genera así un lenguaje formal diferente al que presentaremos aquí. Ármese el lector de paciencia, de mucha paciencia, si algún día debe leer un libro que utilice la notación polaca. Capítulo 3. Sintaxis 64 Para la primera interpretación: (p1 ∧ p2 ) ∨ p3 Para la segunda: p1 ∧ (p2 ∨ p3 ) (Esto no es exacto, como se verá un poco más adelante, pero en este momento el detalle no tiene importancia). Hemos terminado el listado de los símbolos de nuestro alfabeto: Alfabeto de la lógica proposicional Consta de los siguientes símbolos: Letras proposicionales Conectivos proposicionales Paréntesis p1 , p2 , p3 , ... ∧, ∨, →, ↔, ¬ (, ) 3.2 Fórmulas Para proseguir debemos responder la siguiente pregunta, y con ella entramos de lleno en los problemas de sintaxis, o sea, en el estudio de las formas en que vamos a permitir que los símbolos se combinen. ¿Qué distingue las cadenas de símbolos que son fórmulas de aquellas que no lo son? Intuitivamente, es claro que una cadena como ¬p1 “debería” ser una fórmula, y una como pq → ∧ no. Sin embargo, por más que parezca suficiente manejarse a un nivel intuitivo examinando cada caso, eso no es satisfactorio. Por un lado, podríamos enfrentarnos a cadenas de símbolos muy complejas, ante las que nuestra intuición no nos ayudara; y por otro, necesitamos un criterio claro y objetivo que nos permita, en todos los casos, determinar si una cadena dada es una fórmula o no, sin ambigüedades de tipo alguno. Nuestro alfabeto ha sido elegido con el propósito de representar determinadas estructuras proposicionales, a través de cadenas de símbolos cuyo conjunto será nuestro lenguaje, al que llamaremos L P. Para construir L P, recordemos que la negación de una proposición es una proposición, que la conjunción de dos proposiciones es una proposición, así como su disyunción, su implicación y su doble implicación. Por eso, resulta razonable exigir lo siguiente: 1. 2. 3. 4. 5. 6. Las letras proposicionales serán fórmulas. Si A es una fórmula, ¬A también será una fórmula. Si A y B son fórmulas, (A ∧ B) también será una fórmula. Si A y B son fórmulas, (A ∨ B) también será una formula. Si A y B son fórmulas, entonces (A → B) también será una fórmula Si A y B son fórmulas, entonces (A ↔ B) también será una fórmula3 . ¿Por qué en 3–6 se introducen paréntesis? (Considerar qué sucedería si se fuera a aplicar la regla 4 sobre p ∧ q y r sin los paréntesis).4 . Por esto dijimos que la representación de una proposición como p1 ∧ (p2 ∨ p3 ) no era exacta, ya que le faltan los paréntesis exteriores. Esto es decir, básicamente, que si partimos de las letras proposicionales, y aplicamos negaciones y conectivos binarios (cuidando la colocación de paréntesis) a lo que ya tengamos y vayamos obteniendo, nunca obtendremos algo que no sea una fórmula. Pero en realidad, nuestra intuición es más fuerte: nos dice que no solamente no obtendremos algo que no sea una fórmula, sino además 3 Obsérvese que A y B no pueden pertenecer al lenguaje, sino que se usan para representar cualquier elemento del lenguaje. Son metavariables, y, como tales, pertenecen al metalenguaje. 4 En caso de que p ∧ q fuese una fórmula. Según lo que estamos discutiendo, no lo es, pues le faltan los paréntesis exteriores. 3.2 Fórmulas 65 que cualquier fórmula se puede obtener mediante ese procedimiento consistente en partir de letras proposicionales e ir aplicando negaciones y conectivos binarios, ya que las proposiciones o bien son inanalizables o bien son compuestos en los términos que venimos tratando. De esa manera, tenemos una caracterización completa de fórmula: Fórmula es aquello que puede obtenerse a partir de ese procedimiento, y toda fórmula se puede obtener con este procedimiento. Con esto in mente, presentamos la siguiente Definición 3.2.1 [Secuencia de formación en L P] Una secuencia de formación (S. F.) es una secuencia finita en la que cada elemento cumple lo siguiente: i O bien es una letra proposicional ii O bien es de la forma ¬A, siendo A un elemento anterior en la propia secuencia iii O bien es de la forma (A ∧ B) siendo A y B elementos anteriores en la propia secuencia iv O bien es de la forma (A ∨ B) siendo A y B elementos anteriores en la propia secuencia v O bien es de la forma (A → B) siendo A y B elementos anteriores en la propia secuencia vi O bien es de la forma (A ↔ B) siendo A y B elementos anteriores en la propia secuencia Por ejemplo, una secuencia de formación, en la que al lado de cada elemento se ha justificado su inclusión, es la siguiente: 1. 2. 3. 4. 5. 6. 7. p1 (Es letra proposicional. Definición de S. F. i) p5 (Es letra proposicional. Definición de S. F. i) ¬p1 (Definición de S. F. ii aplicada al elemento 1) (p1 ∧ ¬p1 ) (Definición de S. F. iii aplicada a los elementos 1 y 3) (p5 → (p1 ∧ ¬p1 )) (Definición de S. F. v aplicada a los elementos 2 y 4) p3 (Es letra proposicional. Definición de S. F. i) ((p5 → (p1 ∧ ¬p1 )) ∨ p3 ) (Definición de S. F. iv aplicada a los elementos 5 y 6) La idea tras esta definición es la siguiente: de la discusión anterior, resulta claro que aquellas cadenas que deseamos sean fórmulas son exactamente aquellas que pueden obtenerse a través de secuencias de formación. Por lo tanto, definimos: Definición 3.2.2 — Fórmula de L P. A es una fórmula de L P si y solo si existe una secuencia de formación en L P de la cual A es el último elemento. Así, podemos demostrar rigurosamente que una cadena dada es una fórmula exhibiendo una secuencia de formación de la cual la cadena dada sea el último elemento. Supongamos que queremos demostrar que la cadena ((p1 → (p1 ∧ p1 )) ∨ (p2 ∨ p3 )) es una fórmula. Ejercicio 3.1 Justificar que lo siguiente se trata de una secuencia de formación, explicitando en cada elemento, qué ítem de la definición 3.2.1 asegura que la construcción es correcta. 1. 2. 3. 4. 5. 6. 7. p1 (p1 ∧ p1 ) (p1 → (p1 ∧ p1 )) p2 p3 (p2 ∨ p3 ) ((p1 → (p1 ∧ p1 )) ∨ (p2 ∨ p3 )) Capítulo 3. Sintaxis 66 Esto demuestra que la cadena dada es una fórmula del lenguaje L P. 3.3 El bloqueo de la ambigüedad estructural Acabamos de demostrar que una cadena de símbolos, ((p1 → (p1 ∧ p1 )) ∨ (p2 ∨ p3 )), es una fórmula, exhibiendo una secuencia de formación. Pero ¿es esta la única secuencia de formación que la tiene como último elemento? Obviamente no. Por ejemplo, esta también es secuencia de formación de la misma fórmula: 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. p1 (Es letra proposicional. Definición de S. F. i) ¬p1 (Definición de S. F. ii aplicada al elemento 1) p17 (Es letra proposicional. Definición de S. F. i) (p1 ∧ p1 ) (Definición de S. F. iii aplicada a 1) (p1 ∨ ¬p1 ) (Definición de S. F. iv aplicada a 1 y 2) (p1 → (p1 ∧ p1 )) (Definición de S. F. v aplicada a 1 y 4) p2 (Es letra proposicional. Definición de S. F. i) p3 (Es letra proposicional. Definición de S. F. i) (p2 ∨ p3 ) (Definición de S. F. iv aplicada a 7 y 8) (p3 → (p2 ∨ p3 )) (Definición de S. F. v aplicada a 8 y 9) ((p1 → (p1 ∧ p1 )) ∨ (p2 ∨ p3 )) (Definición de S. F. iv aplicada a 6 y 9). Esta nueva secuencia de formación contiene elementos que en algún sentido, caen fuera de nuestro interés. Pero hay algo bastante profundo que podemos observar aquí. Si rastreamos cómo se construyó la fórmula en la última secuencia, vemos que el onceavo elemento, o sea nuestra fórmula, se construyó con los elementos (p1 → (p1 ∧ p1 )) (número 6) y (p2 ∨ p3 ) (número 9). A su vez, el elemento número 6 se construyó con los elementos p1 (número 1) y (p1 ∧ p1 ) (número 4), mientras que el elemento número 9 se construyó con los elementos p2 (número 7) y p3 (número 8). Por su parte, el elemento número 4 fue construido a partir de p1 (número 1). No hemos explicado cómo se construyeron los elementos numerados con el 1, el 7 y el 8 pero obviamente, son letras proposicionales, elementos básicos que no han sido construidos a partir de otros. Los elementos que nos parecían inútiles no aparecen en este análisis. Es más, si miramos la primera secuencia de formación para esta fórmula, que parece ser de máxima economía –en el sentido de que ninguna secuencia más breve será de formación para esa fórmula–, y si hacemos el mismo trabajo, encontramos que la fórmula se ha construido usando exactamente los mismos elementos (Pruébelo el lector). Sin embargo, esto no tendría por qué haber sido así si no hubiéramos tomado ciertos recaudos relacionados con la utilización de paréntesis. Veámoslo con un ejemplo de otro lenguaje formal, que ya conocemos. Reconsideremos el Lenguaje formal 2 del capítulo anterior. Ese lenguaje tenía como alfabeto el conjunto {a, b} y podríamos reformular su definición de fórmula así: Una secuencia de formación (S.F) es una secuencia finita en la que cada elemento cumple lo siguiente: i ii iii iv O bien es a O bien es b O bien es de la forma aaA, siendo A un elemento anterior en la propia secuencia O bien es de la forma Ab, siendo A un elemento anterior en la propia secuencia. Definimos igualmente fórmula como cualquier elemento final de una secuencia de formación. 3.3 El bloqueo de la ambigüedad estructural 67 Es claro que la cadena aaab es fórmula, ya que podemos presentar esta secuencia de formación: 1. a Definición de S.F. i 2. aaa Definición de S.F. iii aplicada a 1 3. aaab Definición de S.F. iv aplicada a 2. Pero también podemos presentar esta secuencia de formación para la misma fórmula: 1. a Definición de S.F. i 2. ab Definición de S.F. iii aplicada a 1 3. aaab Definición de S.F. iv aplicada a 2. Observamos que en la primera secuencia de formación, aaab ha sido construida usando la cadena aaa, y en la segunda, esta cadena no aparece, sino que lo hace ab, la cual no aparece en la primera. Esto está íntimamente relacionado con el fenómeno que ya hemos mencionado un par de veces y que llamamos ambigüedad estructural. Supongamos que no hubiéramos incluido los paréntesis en nuestro lenguaje, y que hubiésemos definido secuencia de formación así: Secuencia finita en la que cada elemento 1. 2. 3. 4. 5. 6. O bien es una letra proposicional O bien es de la forma ¬A, siendo A un elemento anterior en la propia secuencia O bien es de la forma A ∧ B siendo A y B elementos anteriores en la propia secuencia O bien es de la forma A ∨ B siendo A y B elementos anteriores en la propia secuencia O bien es de la forma A → B siendo A y B elementos anteriores en la propia secuencia O bien es de la forma A ↔ B siendo A y B elementos anteriores en la propia secuencia En este caso, la cadena p1 ∧ p2 ∨ p3 (que, según vimos, habíamos propuesto como traducción a nuestro tentativo lenguaje formal de, por ejemplo, “Juan estudia filosofía y artes marciales o tarot”, estructuralmente ambigua) sería una fórmula: 1. 2. 3. 4. 5. p1 p2 p3 p1 ∧ p2 p1 ∧ p2 ∨ p3 ¿Cómo es que se refleja la ambigüedad estructural en este lenguaje formal tentativo que venimos manejando? Observe que según esta secuencia de formación, la fórmula es la disyunción de p1 ∧ p2 y p3 . Sin embargo, tenemos otra secuencia de formación para la misma fórmula: 1. 2. 3. 4. 5. p1 p2 p3 p2 ∨ p3 p1 ∧ p2 ∨ p3 Capítulo 3. Sintaxis 68 Según esta secuencia de formación, la fórmula es algo que debería ser muy diferente: la conjunción de p1 con p2 ∨ p3 . Debería ser diferente, pero no lo es en este lenguaje tentativo. Para evitar esto fue que se introdujeron los paréntesis en el alfabeto del lenguaje L P. Pero, ¿cómo podemos estar seguros de que ninguna fórmula de L P es ambigua en el sentido que venimos tratando? En el caso particular que estudiamos, se trataba de una fórmula que podía ser leída como una conjunción y también como una disyunción. Deberíamos demostrar un teorema que nos asegurase que en el lenguaje L P ninguna fórmula puede ser leída de dos maneras diferentes. ¿De qué herramientas disponemos para ello? Shift ⇑ 3.3.1 SEGUNDA LECTURA Inducción sobre fórmulas Para contestar esa pregunta, repasemos algunas consideraciones ya hechas en el capítulo anterior. Habíamos visto allí que en los casos en que tenemos una especificación de las fórmulas del lenguaje proporcionada a través de una lista o descripción de algunas fórmulas básicas, y de reglas para la construcción de fórmulas a partir de otras, y una cláusula que especifique que toda fórmula se puede obtener a partir de las más básicas por aplicación sucesiva de las reglas de construcción, podíamos demostrar que todas las fórmulas del lenguaje tienen una propiedad determinada si demostramos que todas las fórmulas básicas tienen esa propiedad, y que cada vez que se construye una fórmula a partir de algunas que tienen esa propiedad, la fórmula construida también la tendrá. Aplicado a nuestro lenguaje L P, eso resulta en lo siguiente: Supongamos que queremos demostrar que todas las fórmulas de nuestro lenguaje tienen una propiedad P. Si demostramos que Todas las fórmulas que son una única letra proposicional tienen la propiedad P. Siempre que la fórmula A tenga la propiedad P, la fórmula ¬A tendrá la propiedad P. Siempre que las fórmulas A y B tengan la propiedad P, la fórmula (A B) –siendo uno cualquiera de estos símbolos: ∧, ∨, → o ↔– tendrá la propiedad P. habremos demostrado que todas las fórmulas de L P tienen la propiedad P. Esto es así porque, evidentemente, en esas condiciones, cualquier término de una secuencia de formación tendrá la propiedad P. Este procedimiento se conoce como inducción sobre fórmulas. 3.4 El teorema de lectura única Quisiéramos demostrar que toda fórmula de L P tiene la propiedad de admitir una única lectura. No nos conviene en este punto un abordaje demasiado directo, sino que será mejor demostrar un par de resultados relativos a los paréntesis en las fórmulas –a fin de cuentas, la introducción de paréntesis fue motivada por el deseo de evitar las lecturas múltiples–. Comencemos entonces, demostrando algo muy fácil, a lo que le pondremos el humilde mote de “Lema”. Lema 3.4.1 — Paréntesis derechos e izquierdos. En toda fórmula del lenguaje L P hay la misma cantidad de paréntesis derechos que de paréntesis izquierdos. 3.4 El teorema de lectura única Demostración: Es claro que las fórmulas que son una letra proposicional tienen la misma cantidad de paréntesis izquierdos y derechos, cero de cada uno de ellos. Supongamos que tenemos una fórmula A con la misma cantidad de paréntesis izquierdos y derechos. Claramente, la fórmula ¬A tiene también la misma cantidad de paréntesis izquierdos y derechos que A, y en A estas cantidades son iguales. Supongamos ahora que tenemos dos fórmulas A y B, en cada una de las cuales la cantidad de paréntesis izquierdos iguala a la de paréntesis derechos. Consideramos la fórmula (A B) siendo uno cualquiera de estos símbolos: ∧, ∨, → o ↔, y vemos que tiene la misma cantidad de paréntesis derechos e izquierdos: Si A tenía m paréntesis derechos y m paréntesis izquierdos, mientras B tenía n paréntesis derechos y n izquierdos, en la nueva fórmula están los mismos símbolos que en A y B más un paréntesis derecho, uno izquierdo y , por lo que en (A B) habrá m + n + 1 paréntesis izquierdos y la misma cantidad de paréntesis derechos. Demostraremos ahora otro lema que nos dirá que si partimos una fórmula en dos partes, izquierda y derecha –ninguna de las dos vacía–, o bien la parte izquierda es una cadena que consta solo de negadores, o bien tiene más paréntesis izquierdos que derechos. Ejemplo 3.1 Podemos dividir la fórmula ¬¬¬((p1 ∧ p2 ) → p3 ) en una parte izquierda, ¬¬, y una derecha, ¬((p1 ∧ p2 ) → p3 ). En este caso la parte izquierda consta solo de negadores. Otra posibilidad es que la parte izquierda sea ¬¬¬((p1 ∧ p2 ) → y la derecha p3 ). En este caso la parte izquierda consta de dos paréntesis izquierdos y uno derecho. Lema 3.4.2 — Partes derechas e izquierdas de las fórmulas. Si en una fórmula de más de n símbolos se considera la cadena formada por los primeros n de ellos –a la que llamaremos “parte izquierda de la fórmula”– se tiene que o bien esa cadena consta solamente de negadores o bien en esa cadena hay más paréntesis izquierdos que paréntesis derechos. Demostración: Es claro que no tenemos que probar nada sobre las letras proposicionales, porque no pueden dividirse en parte derecha e izquierda. Supongamos que tenemos una fórmula A tal que cada vez que se divide en parte derecha e izquierda, o bien la parte izquierda consta solo de negadores o bien la parte izquierda tiene más paréntesis izquierdos que derechos. Consideremos la fórmula ¬A y dividámosla en una parte izquierda y una derecha. La parte izquierda que hemos obtenido es o bien el negador que la encabeza o bien una parte izquierda de A precedida de un negador. En el primer caso, es claro que la parte izquierda tiene solo negadores. En el segundo caso, si la parte izquierda de A que consideramos solo tiene negadores, lo mismo pasa con la parte izquierda de ¬A. Si la parte izquierda de A que consideramos tiene más paréntesis izquierdos que derechos, lo mismo pasa con la parte izquierda de ¬A, ya que solo difieren en un negador. Supongamos ahora que tenemos dos fórmulas, A y B, que cumplen la propiedad que venimos considerando: cualquiera de sus partes izquierdas consta solo de negadores o tiene más paréntesis izquierdos que derechos. Formemos la fórmula (A B), siendo uno cualquiera de los conectivos binarios, y dividamósla en una parte izquierda y una derecha. Tenemos varios casos: La parte izquierda de (A B) que consideramos es (. En este caso obviamente consta de más paréntesis izquierdos que derechos. La parte izquierda de (A B) que consideramos es (X siendo X una parte izquierda de A. Tanto si X consta solo de negadores como si X tiene más paréntesis izquierdos que derechos, (X tiene más paréntesis izquierdos que derechos. 69 Capítulo 3. Sintaxis 70 La parte izquierda de (A B) que consideramos es (A o (A . En ambos casos la cantidad de paréntesis izquierdos supera en 1 a la cantidad de paréntesis derechos en esa parte izquierda, ya que según el lema 3.4.1, la cantidad de paréntesis izquierdos y derechos en A –que es una fórmula– es la misma. La parte izquierda de (A B) que consideramos es (A X siendo X una parte izquierda de B. Si X consta solo de negadores, por la misma razón que en el caso anterior, la cantidad de paréntesis izquierdos supera en 1 a la de paréntesis derechos en (A X. Si X tiene más paréntesis izquierdos que derechos, y la diferencia entre esas cantidades es k, es claro que en (A X hay k + 1 paréntesis izquierdos más que derechos. La parte izquierda de (A B) que consideramos es (A B. En este caso, como A y B son fórmulas, por el lema 3.4.1, tienen la misma cantidad de paréntesis izquierdos que derechos, de modo que en (A B la cantidad de paréntesis izquierdos supera en 1 a la de paréntesis derechos. ¿Por qué nos hemos tomado el trabajo de demostrar estos tediosos lemas? La respuesta es que juntos dan un corolario que nos será fundamental para demostrar que hemos evitado completamente la ambigüedad estructural: Dado que ninguna fórmula consta solo de negadores o tiene más paréntesis izquierdos que derechos, Corolario 3.4.3 Ninguna parte izquierda de una fórmula es una fórmula. Estamos en condiciones de demostrar que no hay ninguna fórmula de nuestro lenguaje que admita dos lecturas diferentes. Eso es exactamente lo que establece el Teorema 3.4.4 — Lectura única. Toda fórmula de L P tiene una y solo una de las siguientes formas: 1. 2. 3. 4. 5. 6. pk (o sea, es una letra proposicional) ¬A, siendo A una única fórmula. (A ∧ B), siendo A y B fórmulas únicas. (A ∨ B), siendo A y B fórmulas únicas. (A → B), siendo A y B fórmulas únicas. (A ↔ B), siendo A y B fórmulas únicas. Observemos, antes de demostrarlo, que nos asegura lo que su título pregona: toda fórmula puede leerse de una manera única y determinada. Si una fórmula es de la forma 2, diremos que su conectivo principal es una negación, y también que la fórmula es una negación. Si es de la forma 3, diremos que su conectivo principal es una conjunción y también que la fórmula es una conjunción; y análogamente con las formas 4–6. Así, estamos seguros, por ejemplo, de que ninguna conjunción es también una disyunción. Procedamos ahora a la demostración: Demostración: Es obvio que cualquier fórmula debe tener una de las formas 1–6, ya que todos los elementos en una secuencia de formación son de alguna de esas formas. El problema es mostrar que ninguna fórmula tiene más de una de esas formas. Es claro además que si una fórmula tiene la forma 1 (es una variable proposicional) no tiene ninguna de las otras formas, y lo mismo si tiene la forma 2 (es una negación) no tiene ninguna de las otras formas. Además, si pn =pm , obviamente n = m, y si ¬A = ¬X, obviamente A = X. Supongamos ahora que tenemos una fórmula que podemos expresar de dos maneras en un par de las formas 3–6, es decir, una fórmula que se puede escribir como (C D) y también como (E F), donde y son conectivos binarios, C, D, E y F fórmulas. Mostraremos 3.5 Árbol de formación de una fórmula 71 que debe ser C = E, = y D = F: Como las cadenas (C D) y (E F) son iguales, también son iguales las cadenas que se obtienen al quitar los paréntesis iniciales de cada una: C D) = E F) Pero entonces es claro que si C y E fueran distintas, C sería parte izquierda de E o E sería parte izquierda de C, lo que es imposible por el Corolario 3.4.3 dado que ambas son fórmulas. Entonces E = C, y por lo tanto D) = F) Pero de aquí es inmediato = y entonces D) = F) y nuevamente, si D y F fuesen diferentes, una sería parte izquierda de la otra, lo que es imposible. Por lo tanto, D = F. 3.5 Árbol de formación de una fórmula Podemos, a partir de este resultado, idear un procedimiento que nos garantizará, dada una fórmula, obtener una secuencia de formación para ella que sea “mínima”, es decir, en la que no se introduzcan elementos innecesarios, a la vez que nos proporciona una comprensión perspicua de la estructura sintáctica de la fórmula examinada. Ese procedimiento es la construcción de un árbol de formación. Consideraremos el árbol generado por una fórmula como un diagrama construido mediante las siguientes reglas: 1. En la raíz del árbol se coloca la fórmula en cuestión. 2. Como es una fórmula, o bien: a) Es una letra proposicional (en cuyo caso no tiene descendientes) b) Es de la forma ¬A, en cuyo caso tiene como descendiente a A. c) Es de la forma (A ∧ B), (A ∨ B), (A → B), (A ↔ B), en cuyo caso tiene como descendientes a A y a B. 3. Se repite el proceso con los descendientes obtenidos, hasta que solo queden letras proposicionales en los nodos terminales del árbol. Ejemplo 3.2 Árbol de formación de la fórmula (((p1 ∧ ¬p2 ) → p4 ) ↔ (p2 ∨ p1 )) Capítulo 3. Sintaxis 72 (((p1 ∧ ¬p2 ) → p4 ) ↔ (p2 ∨ p1 )) ((p1 ∧ ¬p2 ) → p4 ) (p2 ∨ p1 ) (p1 ∧ ¬p2 ) p4 p2 p1 p1 ¬p2 p2 Se observa que los árboles de formación desafían la ley de la gravedad: convencionalmente, la raíz está arriba, y los descendientes de cada nodo se colocan debajo de él. Disponiendo del árbol, se puede construir una secuencia de formación sin elementos innecesarios, cuyos elementos serán los nodos, comenzando por los más bajos, y teniendo siempre el cuidado de no incluir nunca un nodo hasta tanto no se hayan incluido todos sus descendientes. Los nodos del árbol (incluyendo la propia fórmula) se llaman subfórmulas de la fórmula dada. Son los componentes mínimos requeridos para una secuencia de formación cuyo último elemento sea la fórmula dada. Es claro que todas las subfórmulas de una fórmula son, a su vez, fórmulas y que toda fórmula es subfórmula de sí misma. Ejemplo 3.3 ¿Es (p1 → p2 ) subfórmula de (¬p1 → p2 )? El árbol de formación de esta última fórmula es: (¬p1 → p2 ) ¬p1 p2 p1 Como en ningún nodo del árbol se encuentra (p1 → p2 ), la respuesta es negativa. Sin embargo, sí es subfórmula de ¬(p1 → p2 ), como muestra el siguiente árbol: ¬(p1 → p2 ) (p1 → p2 ) p1 p2 3.6 Ejercicios 3.6 73 Ejercicios 1. ¿Son fórmulas de L P las siguientes cadenas? (En caso de que lo sean, demostrarlo a través de una secuencia de formación; en caso de que no lo sean, justificarlo). a) p385716 b) pi c) (p ∧ q) d) (A → B) e) (p12 ∨ p11 )¬p4 f ) ((¬(p12 ∨ p11 ) ↔ ((¬p4 ∧ p3 ) → p5 ))) 2. Presentar el árbol de formación y una secuencia de formación de las siguientes fórmulas: a) (¬(p2 ∨ p1 ) → p3 ) b) ¬((p2 ∨ p1 ) → p3 ) c) (¬¬(p1 ∧ ¬p1 ) → (¬¬(p1 ∨ ¬p1 )) d) (¬((((p2 ∨ p3 ) ∨ p2 ) ∨ p3 ) ∨ p2 ) ∨ p3 ) e) ¬¬(¬p1 ↔ ¬p2 ) f ) ((p1 ∧ p2 ) ∨ ¬¬¬¬(p1 → p14 )) g) (p1 → (p1 → (p1 → (p1 → p1 )))) 3. Suponga que tiene una fórmula de L P, y que la coloca entre paréntesis (es decir, coloca un paréntesis izquierdo precediéndola y un paréntesis derecho siguiéndola). ¿Es la cadena así obtenida una fórmula de L P en algún caso? Justifique. 4. Escriba una fórmula que no pueda aparecer como quinto elemento de ninguna secuencia de formación. 5. ¿Puede una fórmula constar de cinco letras proposicionales diferentes y de cinco pares de paréntesis, además de otros símbolos que no sean letras ni paréntesis? Explique. 6. Si una fórmula tiene doce paŕes de paréntesis y cinco conjunciones, ¿Cuál es el máximo de disyunciones que puede tener? ¿Y de negaciones? 7. ¿Cuáles son los símbolos de los que pueden aparecer repeticiones contiguas en una fórmula? Explique. 8. ¿Cuáles símbolos no pueden aparecer contiguos en una fórmula? Explique. 9. Busque información sobre la notación polaca para la lógica proposicional. Traduzca a ella cinco fórmulas que aparezcan en esta sección de ejercicios. 4. Semántica E acuerdo a la caracterización de la lógica que hicimos, nuestro propósito al construir el lenguaje formal L P que presentamos, es lograr distinguir algunas inferencias como correctas. En nuestro marco, que una inferencia sea correcta significa que si sus premisas son verdaderas, entonces necesariamente conclusión también debe serlo. Esto es suficiente para mostrar que debemos considerar el problema de asignar valores de verdad a los correlatos formales de las proposiciones, ya que necesitamos establecer un criterio que nos permita distinguir, al menos en ciertos casos1 , aquellas inferencias en las que es imposible que las premisas sean verdaderas y la conclusión falsa, de aquellas en las que puede darse que la conclusión sea falsa aunque las premisas sean verdaderas. Es por esto que no basta simplemente con “otorgar” un valor de verdad a todas las fórmulas, sino que, para nuestros propósitos, esto debe hacerse teniendo en cuenta algunas restricciones muy fuertes. Consideremos la siguiente inferencia de cuño platónico: D Si el conocimiento es sensación, entonces los cerdos tienen conocimiento. Los cerdos no tienen conocimiento. El conocimiento no es sensación. Alguien podría decir que las dos premisas son verdaderas y que la conclusión es falsa. Sin embargo, hay algo que rechazamos en esta posibilidad, ya que tenemos la fuerte intuición de que la inferencia es correcta, es decir que, sin tomar partido sobre si las premisas son verdaderas o no, no nos parece admisible que si las premisas fuesen verdaderas, no lo fuese la conclusión. Es más, supongamos que alguien nos dice: Si el conocimiento es sensación, entonces los cerdos tienen conocimiento. Los cerdos no tienen conocimiento. 1 En ciertos casos porque esto depende de la capacidad expresiva del lenguaje que construyamos. Habrá inferencias correctas cuya corrección no se podrá capturar con el lenguaje de la lógica proposicional, y sí con otros lenguajes más ricos. Capítulo 4. Semántica 76 Ni siquiera necesitamos que nos explicite oralmente que su opinión es que el conocimiento no es sensación. Lo suponemos, porque aceptamos que esa opinión es consecuencia lógica de lo que ya nos ha dicho. Si luego agregara El conocimiento es sensación. entenderíamos que ha habido algún tipo de error. Tal vez, en un caso así, pensemos que hemos oído mal, o que nuestro interlocutor ha pronunciado mal alguna oración, o que ha dicho las cosas a la ligera, sin pararse a pensar en sus dichos. Si le hacemos notar que creemos que hay un error y nuestro interlocutor se obstina en mantener que las premisas son ambas verdaderas y que la conclusión (El conocimiento no es sensación) es falsa, no dudaríamos en decir que su razonamiento no es correcto, que está transgrediendo, de alguna manera, la lógica. Ahora bien; ¿qué es lo que nos impide aceptar que existe la posibilidad de que esas premisas sean verdaderas y a la vez, esa conclusión falsa? De acuerdo a anteriores discusiones, lo que nos compele a asegurar que bajo la condición de que las premisas sean verdaderas, la conclusión también lo será, es el comportamiento o significado que asignamos a la construcción “Si... entonces...” y a la palabra “no”. Las funciones de esa construcción y de esa palabra, –ambas pertenecientes al lenguaje natural–, son representadas en nuestro lenguaje formal mediante las conectivas → y ¬2 , y si deseamos que esta formalización sea fructífera a la hora de representar las relaciones entre los valores de verdad que otorgamos a diversas fórmulas –para poder distinguir algunas inferencias como correctas–, es necesario que tengamos en cuenta esas funciones al dar los significados a nuestras fórmulas. Las cuestiones del significado se consideran en la semántica del lenguaje, que es lo que abordaremos a continuación. Queda claro por lo tanto que la semántica de nuestro lenguaje formal deberá ocuparse de la correspondencia entre fórmulas y valores de verdad, y que deberá hacerlo no de cualquier manera, sino de acuerdo al comportamiento que esperamos tengan los conectivos lógicos. 4.1 Verdadero, falso e interpretaciones Consideremos entonces dos objetos (no entraremos en la discusión filosófica acerca de la naturaleza de estos objetos) a los que llamaremos “verdadero” y “falso”, designaremos respectivamente con las letras V y F, y serán llamados valores de verdad3 . Las fórmulas “toman” valores de verdad a través de valuaciones, como indica la siguiente Definición 4.1.1 — Valuación de L P. Una valuación de L P es una asignación de un único valor de verdad a cada fórmula de L P. Notación 4.1. Si A es una fórmula, y v una valuación, representaremos con v(A) el valor de verdad que la valuación v asigna a la fórmula A. Por supuesto, existen infinitas valuaciones; una valuación (a la que podemos llamar v) es tal que v(A) =V para toda fórmula A; otra valuación u es tal que u(A) =F para toda fórmula A; otra valuación w es tal que w(A) =V si A es una fórmula en la que aparece p1 y w(A) =F si A es una fórmula en la que p1 no aparece, etc. Veremos en breve que ninguna de estas valuaciones tiene relevancia para nuestros intereses. Consideremos nuevamente el argumento platónico. Si 2 Observe que no se representan las palabras “si”, “entonces”, “no”, sino las funciones que cumplen en los enunciados. 3 V y F no son, por supuesto, símbolos del lenguaje. Esta presentación de la semántica necesita de estos dos objetos extralingüísticos (con respecto al lenguaje objeto). 4.1 Verdadero, falso e interpretaciones 77 representamos El conocimiento es sensación con p1 , Los cerdos tienen conocimiento con p2 , el argumento se puede representar así: (p1 → p2 ) ¬p2 Si el conocimiento es sensación, entonces los cerdos tienen conocimiento. Los cerdos no tienen conocimiento. ¬p1 El conocimiento no es sensación. Hay infinitas valuaciones que asignan valor V a (p1 → p2 ) y a ¬p2 , a la vez que asignan valor F a ¬p1 . Estas valuaciones no respetan el comportamiento de los conectores que está en la base del funcionamiento lógico del argumento. Por lo tanto, nuestra tarea será cumplida observando en cada caso el comportamiento de los conectivos, para fundar la semántica de nuestro lenguaje formal solamente en aquellas valuaciones que sí respeten ese comportamiento. Consideremos la negación. De acuerdo a discusiones previas, si una valuación asigna valor V a una fórmula A, esperamos que asigne valor F a la fórmula ¬A, y esta condición sea recíproca. Con respecto a la conjunción, esperamos que, si una valuación asigna valor de verdad V a las fórmulas A y B, entonces asigne valor de verdad V a la formula (A ∧ B), y recíprocamente, si asigna valor de verdad V a (A ∧ B), entonces asigne valor de verdad V tanto a A como a B, y hay consideraciones similares para los restantes conectivos, que ya hemos discutido en un nivel informal. Las valuaciones que nos interesan realmente son las que cumplen con las condiciones arriba sugeridas, a las que llamaremos interpretaciones y esto amerita la siguiente Definición 4.1.2 — Interpretación de L P. Una interpretación I de L P es una valuación de L P que cumple las siguientes condiciones (para fórmulas A y B cualesquiera): 1. I(¬A) =V si y solo si I(A) =F. 2. I(A ∧ B) =V si y solo si I(A) = I(B) =V. 3. I(A ∨ B) =F si y solo si I(A) = I(B) =F. 4. I(A → B) =F si y solo si I(A) =V e I(B) =F 5. I(A ↔ B) =V si y solo si I(A) = I(B) Para hacernos una idea concreta acerca de cómo funcionan las interpretaciones, examinemos el siguiente argumento, presentado con su formalización adjunta: Existe una ley moral objetiva. Si existe una ley moral objetiva, entonces hay una fuente de la ley moral. Si hay una fuente de la ley moral, entonces Dios existe. p1 (p1 → p2 ) (p2 → p3 ) Dios existe. p3 (El argumento es de C. S. Lewis, quien al exponerlo, elimina la posibilidad de otras fuentes de ley moral diferentes de Dios). Sin importar si consideramos las premisas verdaderas o falsas, es intuitivamente claro que si las premisas son verdaderas, entonces la conclusión debe serlo. Intuitivamente, estamos frente a un argumento válido. Las interpretaciones logran capturar esa intuición. Supongamos que I es una interpretación que cumple: I(p1 ) = I((p1 → p2 )) = I((p2 → p3 )) = V (o sea, que asigna valor de verdad V a todas las premisas). En ese caso, se cumple que I(p3 ) =V (o sea, I no puede, siendo una interpretación, asignar valor de verdad F a la conclusión, dado que asignó V a las premisas, lo que indica el buen funcionamiento de las interpretaciones para capturar la idea de corrección lógica), por lo siguiente: Capítulo 4. Semántica 78 De I(p1 ) =V e I((p1 → p2 )) =V se infiere que I(p2 ) = V porque I es interpretación, y tenemos que I((p1 → p2 )) =V. Mirando como tratan las interpretaciones el condicional (Definición 4.1.2 (4)), vemos que tiene que darse una de las siguientes posibilidades: 1. I(p1 ) = I(p2 ) =V 2. I(p1 ) = I(p2 ) =F 3. I(p1 ) =F, I(p2 ) =V Pero 2 y 3 no pueden ser porque tenemos que I(p1 ) =V. Un razonamiento análogo muestra que siendo I(p2 ) =V (como acabamos de demostrar) I((p2 → p3 )) =V tiene que ser I(p3 ) = V como pretendíamos que sucediese si el sistema se comporta en la forma esperada. Ejercicio 4.1 Argumentar, a través de interpretaciones de L P, que el argumento platónico que concluye que el conocimiento no es sensación con el que se inicia el capítulo, es válido. 4.2 Tautologías, contradicciones y contingencias Es en el sentido que acabamos de ver que las interpretaciones recogen nuestras intuiciones lógicas. Es natural por tanto, que aquellas cosas que llamamos a veces “verdades lógicas”, puedan ser vistas bajo la luz de las interpretaciones. Sin necesidad de hacer viajes interplanetarios consideramos verdadera la siguiente proposición: Hay vida en Urano o no hay vida en Urano Esa proposición es traducible por la fórmula (p7 ∨ ¬p7 ). Es obvio que una interpretación I puede asignar tanto I(p7 ) =V como I(p7 ) =F. Pero si I(p7 ) =V, como I es interpretación, será I((p7 ∨ ¬p7 )) =V; y si I(p7 ) =F, como I es interpretación, será I(¬p7 ) =V, con lo que, recordando nuevamente que I es interpretación, sabemos que I((p7 ∨¬p7 )) =V. Hemos concluido que cualquier interpretación asigna valor V a la fórmula (p7 ∨ ¬p7 ). Así como hay fórmulas que son verdaderas bajo toda interpretación, otras son falsas bajo toda interpretación (el lector podrá probar fácilmente que la fórmula (p5 ∧ ¬p5 ) lo es), y hay otras que son verdaderas bajo unas interpretaciones y falsas bajo otras, como cualquier letra proposicional. Es una distinción sumamente importante y queda recogida en la siguiente Definición 4.2.1 — Tautología, contradicción, contingencia. Una fórmula A es una tautología si I(A) =V para toda interpretación I. contradicción si I(A) =F para toda interpretación I. contingencia si existen un par de interpretaciones, I y J, tales que I(A) =V y J(A) =F. 4.3 Tablas de verdad 4.3 79 Tablas de verdad Nos enfrentamos ahora al problema de determinar si una fórmula dada es una tautología, una contradicción o una contingencia, y en este último caso, bajo qué “condiciones” es verdadera y bajo qué “condiciones” es falsa, o sea, cuáles interpretaciones le asignan valor V y cuáles le asignan valor F. Consideremos la fórmula ((p1 ∧ p2 ) → p1 ). Intuitivamente parece tratarse de una tautología (habíamos utilizado proposiciones de este tipo en nuestra discusión informal acerca del condicional material, y habíamos dicho que debían ser siempre verdaderas). Pero ¿cómo probarlo? Lo más natural es considerar los valores de verdad que una interpretación podría otorgar a los “elementos mínimos” o sea, las letras proposicionales p1 y p2 , y con ellos, encontrar los valores de verdad de cada subfórmula de la fórmula dada. Esto nos lleva al siguiente estudio por casos: Al inicio tenemos que decidir cuántos casos consideraremos. Como el valor de verdad que la fórmula obtendrá en una interpretación solo depende de los valores de verdad que esta asigne a las letras proposicionales que aparezcan en la fórmula, solo debemos concentrarnos en considerar todas las combinaciones posibles de valores de verdad para esas letras proposicionales. En nuestro caso, en la fórmula aparecen dos letras proposicionales, p1 y p2 , lo que nos da cuatro combinaciones posibles: p1 V V F F p2 V F V F ¿Qué sucedería si en vez de dos letras proposicionales tuviésemos tres? En ese caso, las combinaciones posibles serían ocho: p1 V V V V F F F F p2 V V F F V V F F p3 V F V F V F V F De acuerdo a un hecho básico de combinatoria, si tenemos n letras proposicionales, debemos considerar 2n combinaciones posibles de sus valores de verdad. Observe el lector que el número de combinaciones crece muy rápidamente con el de letras proposicionales. Por ejemplo, con 10 de estas se tendrían 210 = 1024 combinaciones. Una forma muy cómoda de encontrar todas esas combinaciones es la siguiente: colocadas las letras proposicionales en un renglón, como hicimos antes, se determina la cantidad de combinaciones que necesitamos examinar. Imaginemos que son 64 combinaciones (porque tenemos 6 letras proposicionales). Eso nos indica que utilizaremos 64 renglones bajo las letras proposicionales, y los llenaremos así: bajo la primera letra proposicional considerada, colocaremos dos bloques: uno de 32 uves y otro de 32 efes (en general, la cantidad de uves y efes es la mitad de la cantidad de combinaciones a considerar). Luego se va duplicando la cantidad de bloques como se muestra a continuación. Bajo la segunda letra proposicional considerada, irán 4 bloques: uno con 16 uves, seguido de uno de 16 efes, al que le seguirá otro de 16 uves, terminando con uno de 16 efes. Bajo la tercera letra proposicional se colocarán 8 bloques alternados de uves y efes que constarán de 8 renglones cada uno. Bajo la cuarta letra proposicional Capítulo 4. Semántica 80 deben ir 16 bloques alternados de uves y efes con 4 renglones cada uno. Bajo la quinta letra se alternarán bloques de dos renglones cada uno, y bajo la última las uves y las efes se alternarán de renglón en renglón. Es usual que se haga de modo que en el primer renglón se lean todas uves y en el último todas efes. Si el lector observa los ejemplos dados, verá que es el procedimiento que hemos seguido. Con esto in mente volvamos a la fórmula que teníamos entre manos, colocando bajo sus letras proposicionales valores de verdad que evidencien todas las combinaciones posibles de estos: ((p1 V V F F ∧ p2 ) V F V F → p1 ) V V F F Obviamente, la última columna debe repetir la primera, ya que ambas se encuentran bajo la misma letra proposicional. De lo estudiado en sintaxis, sabemos que la fórmula es un condicional. O sea, el segundo conectivo que aparece en ella es el principal, por lo que será el último que se evaluará. El condicional conecta (p1 ∧ p2 ) y p1 . Para poder evaluarlo debemos conocer los valores de verdad asignados a (p1 ∧ p2 ), los que colocaremos bajo el conectivo ∧, y a p1 , que ya los tenemos. Recordando que una conjunción solo es verdadera si sus dos conyuntos lo son, completamos la columna bajo el conectivo ∧, tomando en cuenta los valores de verdad atribuidos a los conyuntos, que son p1 y p2 : ((p1 V V F F ∧ V F F F p2 ) V F V F → p1 ) V V F F Ahora solo resta evaluar los valores de verdad que se asignan a toda la fórmula, colocándolos bajo su conectivo principal, el condicional. Para hacerlo, recordamos que un condicional es falso solo cuando su antecedente es verdadero y su consecuente falso, y consideramos los valores ya asignados al antecedente, (p1 ∧ p2 ), que se encuentran bajo el conectivo principal de esta subfórmula, ∧, y su consecuente, p1 , que se encuentran en la última columna: ((p1 V V F F ∧ V F F F p2 ) V F V F → V V V V p1 ) V V F F La columna correspondiente al conectivo principal de la fórmula, compuesta únicamente de uves, indica que se trata de una tautología. Hemos analizado todas las combinaciones posibles de valores de verdad para p1 y p2 , y en todas ellas el valor de verdad asignado a la fórmula es verdadero. Para realizar tablas de verdad es necesario recordar el comportamiento semántico de los conectivos, que presentamos ahora en forma de tabla, siendo A y B fórmulas cualesquiera: 4.4 Asignaciones proposicionales e interpretaciones ¬ F V A V F (A V V F F ∧ V F F F B) V F V F (A V V F F ∨ V V V F (A V V F F B) V F V F → V F V V 81 B) V F V F (A V V F F ↔ V F F V B) V F V F Consideremos ahora la fórmula ((p1 ∨ p2 ) → p1 ). Un tratamiento similar nos muestra que se trata de una contingencia: ((p1 V V F F ∨ V V V F p2 ) V F V F → V V F V p1 ) V V F F La presencia tanto de uves como efes bajo el conectivo principal indica que se trata de una contingencia. Estos dos ejemplos nos han mostrado dos cosas fundamentales. La primera es un método sistemático para clasificar fórmulas en tautologías, contradicciones, contingencias y para determinar cuáles interpretaciones asignan V a una contingencia y cuáles le asignan F. Este método se llama “método de tablas de verdad” y fue introducido por Wittgenstein e, independientemente, por Post. Consiste en el cálculo sistemático y ordenado de los valores de verdad de las subfórmulas de la fórmula en consideración bajo todas las combinaciones posibles de atribuciones de valores de verdad a las letras proposicionales que en ella aparecen, como muestran los ejemplos dados. Es importantísimo recordar, al aplicarlo, que se deben considerar todas las combinaciones posibles de asignación de valores de verdad a las letras proposicionales, para lo que hemos mostrado un procedimiento sistemático. La segunda cosa fundamental que intuimos en este ejemplo es que una interpretación queda totalmente determinada una vez que asignamos valor de verdad a todas las letras proposicionales. Con esto queremos decir que si sabemos que una valuación es una interpretación y conocemos los valores de verdad que asigna a las letras proposicionales, entonces, podemos encontrar el valor de verdad que asigna a cualquier fórmula. Definición 4.3.1 — Asignación proposicional. Una asignación proposicional es una asigna- ción de un único valor de verdad a cada una de las letras proposicionales. Notación 4.2. Si pk es una letra proposicional y j una asignación proposicional, representaremos con j(pk ) el valor de verdad que la asignación proposicional j asigna a la letra proposicional pk . 4.4 Asignaciones proposicionales e interpretaciones Vamos a demostrar que teníamos una intuición correcta al suponer que asignando valores de verdad a las letras proposicionales, estamos, implícitamente, asignando valores de verdad a todas las fórmulas del lenguaje. Así, lo que vamos a demostrar es que una interpretación determina y queda determinada por una asignación proposicional. Teorema 4.4.1 Determinación recíproca de asignaciones e intepretaciones Dada una interpretación I, existe una única asignación proposicional j tal que j(pk ) = I(pk ) para toda letra proposicional pk . Dada una asignación proposicional j, existe una única interpretación I tal que j(pk ) = I(pk ) para toda letra proposicional pk . Capítulo 4. Semántica 82 Shift ⇑ SEGUNDA LECTURA Demostración: Es obvio que la primera parte del teorema se cumple. Una interpretación I dada, como asigna valores de verdad a todas las fórmulas, en particular, asigna valores de verdad únicos a cada letra proposicional. La asignación proposicional j que asigna los mismos valores que I a cada letra proposicional es la buscada y es la única que cumple lo pedido. Demostrar la segunda es más complicado. Partimos de una asignación proposicional j y debemos demostrar que existe una única interpretación I que asigna los mismos valores de verdad que j a cada letra proposicional. Dividiremos la demostración en dos partes: Primero demostraremos que existe una interpretación que asigna a cada letra proposicional el mismo valor de verdad que j, y luego demostraremos que esa interpretación es única. 1. Existencia: Sea A cualquier fórmula. Según el teorema 3.4.4, de lectura única, A tiene un conjunto único de subfórmulas, entre las que se encuentran algunas letras proposicionales. Sea I tal que asigna el mismo valor que j a esas letras proposicionales, y a las subfórmulas de A (de las cuales una es la propia A) los valores que les corresponden según las reglas de las interpretaciones, calculados a partir de los valores dados a las letras proposicionales. El procedimiento es equivalente a hacer el árbol de formación de las fórmulas, asignar el valor de verdad a los nodos terminales, que son letras proposicionales, según los valores que j les asigna, e ir subiendo por las ramas respetando las constricciones de las interpretaciones hasta llegar a la fórmula A. Es obvio que haciendo esto sobre todas las fórmulas, obtenemos una interpretación I que asigna los mismos valores que j a todas las letras proposicionales. 2. Unicidad: Supongamos que hay dos interpretaciones I y J tales que asignan el mismo valor de verdad a todas las letras proposicionales. Mostraremos que deben asignarle el mismo valor de verdad a todas las fórmulas de L P. Para eso, introduciremos una nueva forma de hablar: diremos que dos interpretaciones coinciden sobre un conjunto de fórmulas si asignan el mismo valor de verdad a todas las fórmulas de ese conjunto. En estos términos, queremos demostrar que si dos interpretaciones coinciden sobre el conjunto de las letras proposicionales, coinciden sobre L P. Para hacerlo, introduzcamos otro concepto: el grado de una fórmula. Este será la cantidad de conectivos que tenga, y si A es una fórmula, notaremos su grado como gr(A). Así, gr(p12 ) = 0, gr((¬p5 ↔ p104 )) = 2, etc. Obviamente, las únicas fórmulas de grado 0 son las letras proposicionales. Procedamos ahora a la demostración. Supongamos que I y J coinciden sobre el conjunto de las letras proposicionales y no coinciden sobre un conjunto no vacío de fórmulas y llegaremos a una contradicción así: En el conjunto de las fórmulas sobre el que I y J no coinciden (o sea, asignan valores distintos) hay algunas que tienen el grado mínimo. Todas las fórmulas de grado menor que ellas reciben el mismo valor de verdad por I y por J. Sea A una de las fórmulas de grado mínimo sobre las que I y J no coinciden. Nuevamente, según el Teorema 3.4.4, una y solo una de las siguientes posibilidades se cumple: a) A = pk (o sea, es una letra proposicional). Esto es imposible, porque I y J difieren sobre A pero coinciden sobre las letras proposicionales. b) A = ¬X, siendo X una fórmula determinada. Esto es imposible, porque como gr(X) < gr(A), se tiene I(X) = J(X) y consecuentemente, al ser I y J interpretaciones, debe ser I(¬X) = J(¬X), o sea, I(A) = J(A). c) A = (X Y ), siendo un elemento de {∧, ∨, →, ↔} y X e Y fórmulas determinadas. Esto es imposible, porque al ser gr(X) < gr(A) y gr(Y ) < gr(A), se tiene I(X) = J(X) e I(Y ) = J(Y ). Como I y J son interpretaciones, debe ser I((X Y )) = J((X Y )), o sea, I(A) = J(A). Hemos demostrado así que ninguna de las opciones es posible, de modo que las interpreta- 4.5 Modelos y contramodelos 83 ciones I y J, si coinciden sobre todas las letras proposicionales, deben coincidir sobre todo L P. Esto nos permite, cuando queremos dar una interpretación, dar simplemente una asignación proposicional. La única interpretación que coincide con la asignación proposicional dada sobre las letras proposicionales se llama interpretación inducida por la asignación proposicional. Notación 4.3. I j es la interpretación inducida por la asignación proposicional j. O sea, I j cumple: Es interpretación. Es una extensión de j a todo el lenguaje (es decir, se comporta como j sobre las letras proposicionales y además da valor de verdad a todas las fórmulas). Es la única extensión de j que es a la vez una interpretación. Ejemplo 4.1 Consideremos la asignación proposicional j que asigna valor de verdad V a p1 y F a todas las demás letras proposicionales. ¿Qué valor de verdad asigna I j a la fórmula (p1 ∧ (¬p31 → p1 ))? El problema se reduce a hallar un renglón de la tabla de verdad: (p1 V ∧ V (¬ V p31 F → V p1 )) V Concluimos que le asigna valor de verdad V, y es claro que podríamos haber determinado el valor de verdad asignado a cualquier fórmula del lenguaje por la interpretación inducida por la asignación proposicional dada. 4.5 Modelos y contramodelos Examinemos ahora las “condiciones” bajo las que una proposición es verdadera un poco más en detalle. Supongamos que un político dice que la educación mejora si se dictan más horas de clase y se crean más institutos de enseñanza. Parece claro que lo que dice no es una verdad lógica ni una contradicción, como podemos verificar fácilmente con el método de las tablas de verdad, una vez traducida la proposición a la fórmula ((p1 ∧ p2 ) → p3 ): ((p1 V V V V F F F F ∧ V V F F F F F F p2 ) V V F F V V F F → V F V V V V V V p3 ) V F V F V F V F Este análisis muestra que esta proposición es una contingencia. Ahora bien, ¿en qué casos lo que dijo es verdadero? El mismo análisis muestra que: Es falso si p1 y p2 son ambas verdaderas (es decir, si se dictan más horas de clase y además se crean más institutos de enseñanza) y p3 es falsa (es decir, si la educación no mejora). Todas las asignaciones proposicionales en las que p1 y p2 sean verdaderas y p3 sea falsa, harán falsa la fórmula en su interpretación inducida. Capítulo 4. Semántica 84 Es verdadero si p1 o p2 son falsas, y también es verdadero en cualquier caso en que p3 sea verdadera. Todas las asignaciones proposicionales que hagan p1 falsa, o p2 falsa, o p3 verdadera (o más de una condición a la vez) harán verdadera la fórmula en su interpretación inducida. Definición 4.5.1 — Modelos y contramodelos. Las interpretaciones que asignan el valor de verdad V a una fórmula se llaman modelos de la fórmula, y las que le asignan el valor de verdad F se llaman contramodelos de la fórmula. Los modelos de un conjunto de fórmulas son las interpretaciones que son modelo de todas las fórmulas del conjunto. Por lo tanto, todas las interpretaciones son modelos de cualquier tautología, así como son contramodelos de cualquier contradicción. Ejemplo 4.2 — Búsqueda de modelos y contramodelos de una fórmula. Hallemos los modelos y contramodelos de la fórmula ((p1 → p2 ) ∧ p3 ) ((p1 V V V V F F F F → V V F F V V V V p2 ) V V F F V V F F ∧ V F F F V F V F p3 ) V F V F V F V F Modelos Contramodelos Contramodelos Contramodelos Modelos Contramodelos Modelos Contramodelos Se observa que hemos encontrado tres filas que indican modelos y cinco que indican contramodelos. Sin embargo, todas las interpretaciones existentes son o bien modelos o contramodelos, no solamente ocho de ellas. Lo que la tabla nos indica es: (Primer renglón): Las infinitas interpretaciones inducidas por las asignaciones proposicionales que cumplen j(p1 ) = j(p2 ) = j(p3 ) = V , sean cuales sean los valores que asignen a las restantes letras proposicionales, son modelos de ((p1 → p2 ) ∧ p3 ). (Quinto renglón): Las infinitas interpretaciones inducidas por las asignaciones proposicionales que cumplen j(p2 ) = j(p3 ) = V , j(p1 ) = F, sean cuales sean los valores que asignen a las restantes letras proposicionales, son modelos de ((p1 → p2 ) ∧ p3 ). (Séptimo renglón): Las infinitas interpretaciones inducidas por las asignaciones proposicionales que cumplen j(p1 ) = j(p2 ) = F, j(p3 ) = V , sean cuales sean los valores que asignen a las restantes letras proposicionales, son modelos de ((p1 → p2 ) ∧ p3 ). Todas las demás interpretaciones son contramodelos de ((p1 → p2 ) ∧ p3 ). Con respecto a los conjuntos finitos de fórmulas, es inmediato el siguiente Teorema 4.5.1 Una interpretación I es modelo de un conjunto finito de fórmulas {A1 , ...,An } si y solo si es modelo de la fórmula (A1 ∧ ... ∧ An )a . a Por supuesto, estamos expresándonos de forma poco rigurosa, ya que no hay fórmulas con esa forma. Nos referimos a cualquier conjunción de conjunciones de las fórmulas dadas. La demostración queda como ejercicio para el lector. 4.5 Modelos y contramodelos 85 Ejemplo 4.3 — Búsqueda de modelos de un conjunto. Encontrar un modelo del conjunto {(((p5 ∨ p11 ) → p11 ) ∧ p11 ), p11 , (p11 ∨ p8 ), ¬p12 } Según el teorema anterior, podríamos hacer la tabla de verdad de la conjunción de esas cuatro fórmulas y seleccionar las interpretaciones que sean sus modelos. Pero ese sería un procedimiento largo y tedioso, y tenemos otra forma de hacerlo aplicando un poco de ingenio. Es claro que si una interpretación I es modelo del conjunto, debe ser 1. I(p11 ) =V. 2. I(¬p12 ) =V, por lo que I(p12 ) =F. No es trabajoso verificar que una interpretación que cumple 1 y 2 es modelo de todas las fórmulas del conjunto, y que cualquier interpretación que no cumple 1 o 2 no es modelo de todas las fórmulas del conjunto. Entonces, los modelos del conjunto dado son las I j tales que j(p11 ) =V y j(p12 ) =F. Por supuesto, puede suceder que un conjunto de fórmulas no tenga modelos. Si alguno de los elementos del conjunto es una contradicción, eso es inmediato, pero no es el único caso en el que puede suceder, como se ve en el siguiente Ejemplo 4.4 — Un conjunto que carece de modelos. El conjunto {p1 , ¬p2 , (p1 ↔ p2 )} no tiene modelos, como muestra el siguiente razonamiento: Si una interpretación I fuese modelo del conjunto, debería ser I(p1 ) =V I((p1 ↔ p2 )) =V Para que esas dos condiciones se cumplan, debería ser I(p2 ) =V pero en ese caso tendríamos I(¬p2 ) =F por lo que ninguna interpretación I puede asignar el valor de verdad V a las tres fórmulas del conjunto. Introducimos ahora un par de términos técnicos que serán muy usados en el resto del curso: Definición 4.5.2 — Conjuntos satisfacibles e insatisfacibles. Un conjunto de fórmulas que tiene al menos un modelo se dice satisfacible. Si no tiene modelos, se dice insatisfacible. 86 4.6 Capítulo 4. Semántica Vuelta a la biblioteca 4.6.1 Una advertencia importante En esta sección aplicaremos el método de las tablas de verdad para resolver los problemas de la biblioteca, vistos en 1.6.1, a través de la búsqueda de modelos. Pero antes de hacerlo, nos conviene introducir algunos cambios importantes en la forma de trabajar. Hasta ahora hemos sido muy cuidadosos con el uso de nuestro lenguaje formal. Pero en la mayoría de los contextos, tanta escrupulosidad no es algo cómodo ni esclarecedor. Por ese motivo comenzaremos a trabajar, en ciertas circunstancias, de otra manera. La primera modificación que vamos a hacer refiere a las letras proposicionales. El objetivo de tomarlas como una “p” subindizada no era otro que el de poder distinguirlas de cualquier otra cosa y asegurarnos de tener una provisión infinita de ellas. Pero en muchos contextos, estamos interesados en una proposición particular, y lo mismo nos da si la representamos como p514 o simplemente como p. En realidad, no nos da lo mismo, porque es más fácil escribir la “p” sola que la “p” con el subíndice. Por supuesto, si queremos representar otra proposición diferente en el mismo contexto, no podemos usar la “p”, pero sí podemos usar la “q”, por ejemplo. De esa manera, escribiríamos (p514 → p514 ) como (p → p), mientras que escribiríamos (p514 → p32 ) como (p → q). Además de esto, introduciremos una modificación en cuanto al uso de paréntesis. Estos fueron introducidos con el fin de bloquear la ambigüedad estructural, que podría producirse al combinar fórmulas mediante conectivos binarios. Ahora bien, si tenemos una fórmula que no presentamos combinada con otra, ni vamos a combinar con otra, sus paréntesis externos no evitan ninguna ambigüedad ya que esta no puede producirse. Por eso, en vez de (p514 → p32 ) escribiremos, por ejemplo, p → q; pero si queremos escribir lo que en lenguaje formal es ((p514 → p32 ) ∧ p15 ), reintroducimos los paréntesis que ahora quedan como internos y eliminamos los externos: (p → q) ∧ r. En todo caso, es fundamental tener clarísmo, sin ninguna clase de dudas, el correlato en lenguaje formal de lo que estamos escribiendo. 4.6.2 La tabla de verdad en la biblioteca Los problemas de la biblioteca que hemos planteado en el primer capítulo pueden resolverse a través de una búsqueda de modelos realizable con el método de las tablas de verdad, como se muestra en [Smu95b] y [Smu09], con una narrativa diferente. El método consiste en encontrar una proposición que, dadas la condiciones del problema, deba ser verdadera y las condiciones bajo las cuales es verdadera. Como la proposición debe ser verdadera, esas condiciones deben cumplirse. El primer paso consiste en encontrar la forma de una proposición que, siempre que se cumplan las condiciones de la biblioteca, y dado lo escrito en un libro, deba ser verdadera. Por lo tanto, debe portar información sobre las reglas de la biblioteca (el hecho de que todo lo escrito por Veratius es verdadero, todo lo escrito por Mendacius es falso, y que todos los textos han sido escritos por uno de estos dos escritores) y sobre los datos que se dan en el problema concreto, ya que esa es la información necesaria para deducir quién ha escrito cada libro. Supongamos que un libro, al que llamaremos A, expresa una proposición cuyo valor de verdad no conocemos, la que simbolizaremos con p. ¿Qué es lo que sabemos con total certeza? Obviamente, la respuesta pasa por las reglas de la biblioteca: sabemos que p es verdadera si A fue escrito por Veratius, y p es falsa si A fue escrito por Mendacius. Sabemos además que A fue escrito o bien por Veratius o bien por Mendacius. Todo esto es lo mismo que decir que p es verdadera si y solo si A fue escrito por Veratius. O sea, el valor de verdad de la proposición “A fue escrito por Veratius” y el valor de p son el mismo: ambas son verdaderas o ambas son falsas. Entonces, tenemos lo siguiente: 4.7 ¿Decir lo mismo? Equivalencia 87 En un libro de la biblioteca llamado A se expresa la proposición p. Sea VA la proposición “A fue escrito por Veratius”. Entonces la proposición (L) VA ↔ p es verdadera. Podemos, en muchos casos, buscar los modelos de (L), que nos darán la solución al problema. Ejemplo 4.5 En uno de los problemas habíamos encontrado dos libros, Dragones y Esfinge. En Dragones se leía: “Dragones es obra de Mendacius y Esfinge es obra de Mendacius”. Sean VD la proposición “Dragones fue escrito por Veratius” y VE la proposición “Esfinge fue escrito por Veratius”. Es claro que la proposición “Dragones fue escrito por Mendacius” se simboliza como ¬VD , y la proposición “Esfinge fue escrito por Mendacius” como ¬VE . Además, la proposición expresada en Dragones se puede simbolizar como ¬VD ∧ ¬VE . Consecuentemente, la proposición VD ↔ (¬VD ∧ ¬VE ) debe ser verdadera. Confeccionemos su tabla de verdad: VD V V F F ↔ F F V F (¬ F F V V VD V V F F ∧ F F F V ¬ F V F V VE ) V F V F Se observa que los únicos modelos de la fórmula son las asignaciones que hacen falsa VD y verdadera VE . La solución es, por tanto, que Dragones fue escrito por Mendacius y Esfinge por Veratius, conclusión a la que habíamos llegado sin utilizar un procedimiento mecánico. 4.7 ¿Decir lo mismo? Equivalencia El hecho de que la semántica del lenguaje de la lógica proposicional concierna únicamente con la asignación de valores de verdad a cada fórmula tiene consecuencias de muy largo alcance. Una de ellas es que desde el punto de vista semántico dos fórmulas que respondan a la misma tabla de verdad serán indistinguibles. Considere la siguiente tabla: p V V F F q V F V F A V F V V ¿Qué fórmula A tiene esa tabla de verdad? La respuesta no es única. Como el lector podrá verificar, las siguientes fórmulas podrían estar en el lugar de A: p→q (p ∨ p) → (q ∧ q) ¬p ∨ q ¬(p ∧ ¬q) y por supuesto, otra infinidad de fórmulas responden a esa misma tabla. ¿Qué es lo que estamos diciendo? Podemos reformularlo así: hay fórmulas que tienen exactamente los mismos modelos. Cuando dos fórmulas tienen los mismos modelos diremos que son equivalentes y consideraremos Capítulo 4. Semántica 88 como equivalentes entre sí a todas las contradicciones, o sea, las fórmulas que no tienen modelos. Definición 4.7.1 La fórmula A es equivalente a la fórmula B si y solo si todos los modelos de A son modelos de B y recíprocamente (por supuesto, si ni A ni B tienen modelos, esto se cumple trivialmente). Notación 4.4. Si A es equivalente a B, escribiremos A ≡ B. Es trivial verificar que la equivalencia es, justamente, lo que se llama una relación de equivalencia en L P, o sea: Toda fórmula es equivalente a sí misma: A ≡ A para toda fórmula A. Si la fórmula A es equivalente a la fórmula B, B es equivalente a A: Si A ≡ B, entonces B ≡ A. Si la fórmula A es equivalente a la fórmula B, y B es equivalente a la fórmula C, A es equivalente a C: Si A ≡ B y B ≡ C, entonces A ≡ C. Mostremos que las fórmulas p → q y (p ∨ p) → (q ∧ q) son equivalentes: p V V F F q V F V F p→q V F V V (p ∨ p) V V F F → V F V V (q ∧ q) V F V F La tabla conjunta muestra que tienen los mismos modelos. La equivalencia resulta en indistinguibilidad semántica. Por ejemplo, consideremos la fórmula r → (p → q). Hagamos su tabla de verdad para conocer su comportamiento semántico. r V V V V F F F F → V F V V V V V V (p V V F F V V F F → V F V V V F V V q) V F V F V F V F Es claro que (p → q) es subfórmula de la fórmula que acabamos de estudiar. Construyamos una nueva fórmula sustituyendo en r → (p → q) la subfórmula (p → q) por la fórmula (p ∨ p) → (q ∧ q) que, como sabemos es, equivalente a ella. Obtenemos: r → ((p ∨ p) → (q ∧ q)) ¿Cuál será su tabla de verdad, o sea, cuál será su comportamiento semántico, o dicho de otra manera, cuáles serán sus modelos? Es claro que podríamos hacer la tabla, que será más compleja que la anterior, pero una ligera reflexión nos muestra que no necesitamos hacerla. Esto es así porque al ser p → q y (p ∨ p) → (q ∧ q) fórmulas que tienen los mismos modelos, presentarán exactamente los mismos valores de verdad en los mismos lugares de la tabla, con lo que resultará que los modelos de r → (p → q) y de r → ((p ∨ p) → (q ∧ q)) serán exactamente los mismos. Dado que este ejemplo se puede generalizar tenemos el siguiente resultado: 4.8 ¿Será suficiente? Conjuntos adecuados de conectivos 89 Si en una fórmula sustituimos una subfórmula por una fórmula equivalente a esta, obtenemos una fórmula equivalente a la original. Supongamos que A y B son fórmulas equivalentes. ¿Habrá alguna fórmula del lenguaje cuyo comportamiento semántico indique esta equivalencia? El hecho de que dos fórmulas sean equivalentes se manifiesta en la tabla de verdad conjunta como la igualdad de los valores de verdad que se obtienen en los mismos renglones. Recordemos que en toda interpretación la fórmula A ↔ B es verdadera si y solo si el valor de verdad de A es igual al valor de verdad de B. Pero si A y B son equivalentes, bajo toda interpretación, sus valores de verdad son iguales y por eso, bajo toda interpretación, la fórmula A ↔ B es verdadera. Por lo tanto, tenemos el siguiente resultado: A ≡ B si y solo si A ↔ B es una tautología. La equivalencia es una noción tan potente que, por ejemplo, se encuentra en la base de algo con lo que todo estudiante de matemática se encuentra tarde o temprano, y le provoca una fuerte noción de extrañeza: la demostración por contrarrecíproco. Los teoremas matemáticos son proposiciones que tienen la forma H → T , donde H se llama “hipótesis” y T se llama “tesis”. Normalmente, para demostrarlos, se supone H y bajo esa suposición se infiere T . Ahora, veamos lo que podemos encontrar en un excelente texto de análisis matemático [Rud90]: “Teorema: Si E es un subconjunto infinito de un conjunto compacto K, E tiene un punto límite en K”. No se preocupe el lector por el contenido, que no nos interesa. Se trata de un teorema como tantos, en el que la hipótesis H es “E es un subconjunto infinito de un conjunto compacto K” y la tesis T es “E tiene un punto límite en K”. A renglón seguido, como es norma en las obras matemáticas, viene la demostración. Esperaríamos que empezara suponiendo H, y que a partir de allí infiriera T . Sin embargo, continúa así: “Demostración: Si ningún punto de K fuera punto límite de E, (...) [sigue algo que no nos interesa, inferencias que llegan a:] lo que contradice la compacticidad de K.” Y eso es la demostración. No es necesario saber matemática para darse cuenta de que el autor supuso la negación de T , hizo inferencias y llegó a la negación de H. ¡Y llama a esto una demostración de H → T , cuando es claro que lo que ha demostrado es ¬T → ¬H! Lo que sucede es que las proposiciones H → T y ¬T → ¬H son equivalentes, como el lector podrá demostrar sin dificultad alguna, haciendo una tabla conjunta. Esta equivalencia hace que en los textos matemáticos se consideren ambas estrategias, tanto suponer H e inferir T como suponer ¬T e inferir ¬H como perfectamente legítimas a la hora de demostrar el teorema H → T . Alguien podría decir que en realidad, están demostrando ¬T → ¬H (que se llama contrarrecíproco del anterior, y desde el punto de vista sintáctico no es igual a él), pero en todo caso es claro que la demostración de uno de ellos vale tanto como la demostración del otro: o bien ambos son verdaderos o bien ambos son falsos. 4.8 ¿Será suficiente? Conjuntos adecuados de conectivos Comenzamos la sección anterior presentando una tabla de verdad y preguntándonos qué fórmula respondería a ella. Encontramos varias fórmulas cuyo comportamiento semántico quedaba descrito Capítulo 4. Semántica 90 por la tabla, y de hecho, hay infinitas que lo hacen, en aquel caso particular. Pero ¿no podría haber ocurrido que ninguna fórmula tuviese ese comportamiento semántico? Más en general, ¿existe alguna tabla tal que ninguna fórmula del lenguaje la tenga como tabla de verdad? Por ejemplo, dada la siguiente tabla p V V V V F F F F q V V F F V V F F r V F V F V F V F A V F V F F F F V ¿Habrá una fórmula del lenguaje L P cuyos modelos y contramodelos sean los allí indicados? Y en caso de que la respuesta sea positiva, ¿podrá el lector hallar una? Examinemos la cuestión de la existencia. Si razonamos sobre lo que hemos hecho en todo nuestro recorrido, nos daremos cuenta de que introdujimos un lenguaje formal que nos permitiera representar proposiciones. Además de esa dimensión representacional de nuestro lenguaje, debimos considerar una dimensión semántica, para poder estudiar la corrección de los argumentos. Como la corrección de los argumentos es algo que depende de los valores de verdad de las proposiciones, esa semántica consistió en la asignación de valores de verdad a las fórmulas del lenguaje formal de modo que se respetara el comportamiento esperado de los conectivos. Ahora bien, en nuestro lenguaje formal existen cinco conectivos, que de alguna manera, hemos abstraído del lenguaje natural. Sin embargo, cabe hacerse una pregunta: ¿Serán suficientes estos conectivos para nuestros propósitos? Es muy fácil pensar alternativas en las que esto no hubiera sido cumplido. Por ejemplo, si el único conectivo que hubiésemos considerado en nuestro lenguaje fuese la conjunción, sería imposible construir una fórmula que se comportara desde el punto de vista semántico igual que ¬(p ↔ q). Esto es así porque al solo tener la conjunción, cualquier fórmula, bajo una interpretación donde todas las letras proposicionales sean verdaderas, será verdadera, y la fórmula que acabamos de escribir es falsa bajo una interpretación así. Es decir, imaginemos que tenemos una tabla de verdad de esta forma: p V V F F q V F V F A F V V F Se nos pide hallar una fórmula A de nuestro lenguaje que tenga ese comportamiento semántico. Si solo tuviésemos la conjunción, resultaría imposible. Con nuestra batería de conectivos sí es posible, por ejemplo la fórmula ¬(p ↔ q) responde a esa tabla. ¿No podrá suceder que estemos en esa situación, es decir, que para tablas suficientemente complejas, no existan fórmulas en nuestro lenguaje que se comporten desde el punto de vista semántico como indica la tabla? Si así fuese, tendríamos que intentar ampliar nuestro lenguaje agregándole conectivos. Para nuestra tranquilidad, la respuesta a esta pregunta es: no solo tenemos los conectivos suficientes como para hallar una fórmula que se comporte semánticamente como indique cualquier 4.8 ¿Será suficiente? Conjuntos adecuados de conectivos 91 tabla dada, sino que para eso nos sobran conectivos. Veámoslo con un ejemplo, que se puede generalizar en forma obvia. Intentemos encontrar una fórmula que responda a la tabla con la que abrimos esta sección: p V V V V F F F F q V V F F V V F F r V F V F V F V F A V F V F F F F V Debemos hallar una fórmula A que sea verdadera solo si p, q y r son verdaderas (caso 1, primer renglón); o si p y r son verdaderas y q es falsa (caso 2, tercer renglón); o si p, q, y r son falsas (caso 3, octavo renglón). Obsérvese que si se da el caso 1 o se da el caso 2 o se da el caso 3, la fórmula será verdadera, y será falsa solo cuando no se dé ninguno de los tres casos. Supongamos entonces que encontrásemos una fórmula que sea verdadera solo en el caso 1, es decir, sea verdadera si y solo si tanto p como q como r sean verdaderas, a la que llamaremos C1, una fórmula que sea verdadera solo en el caso 2, o sea, que sea verdadera si y solo si p y r son verdaderas y q falsa, a la que llamaremos C2, y una fórmula que sea verdadera solo en el caso 3, es decir, que sea verdadera si y solo si tanto p como q como r son falsas. Si esto fuese posible, es trivial observar que la fórmula C1 ∨C2 ∨C3 tendrá el mismo comportamiento semántico que el que le pedimos a A, o sea, responderá a esa tabla de verdad. Entonces, el problema se reduce a encontrar C1, C2 y C3. Para hallar C1 debemos preguntarnos por una fórmula que solo sea verdadera solo en un caso, a saber, cuando p, q y r son verdaderas. Es obvio, a partir del comportamiento de la conjunción, que la fórmula p ∧ q ∧ r satisface lo pedido. Para hallar C2 debemos preguntarnos por una fórmula que sea verdadera también en un único caso, cuando p y r sean verdaderas y q falsa. El hecho de que sea verdadera en un único caso nos hace pensar en la conjunción como un conectivo a utilizar, pero obviamente, debemos hacer que esa conjunción sea verdadera cuando q sea falsa, que es lo mismo que decir que será verdadera cuando p sea verdadera, la negación de q sea verdadera, y r sea verdadera. Por eso hallamos que la fórmula p ∧ ¬q ∧ r se comporta como esperamos que se comporte C2. Para hallar C3 razonamos análogamente y concluimos que la fórmula ¬p ∧ ¬q ∧ ¬r se comporta como esperamos que lo haga C3. Por lo tanto, la fórmula (p ∧ q ∧ r) ∨ (p ∧ ¬q ∧ r) ∨ (¬p ∧ ¬q ∧ ¬r) tiene la tabla de verdad, o sea el comportamiento semántico dado. Es claro que el procedimiento se puede generalizar para tablas de cualquier cantidad de letras proposicionales, y también es claro que solo hemos utilizado 3 conectivos. Solo queda un detalle. Si en la tabla de verdad no apareciera ninguna fila con valor de verdad V (o sea, la fórmula buscada fuese una contradicción) el procedimiento no sería aplicable. Pero en ese caso, la fórmula p ∧ ¬p tiene el comportamiento semántico dado. Capítulo 4. Semántica 92 Definición 4.8.1 — Conjunto adecuado de conectivos. Un conjunto de conectivos tal que, dada cualquier tabla de verdad, existe una fórmula en la que solo figuran esos conectivos y su comportamiento semántico es el indicado por la tabla, se llama conjunto adecuado de conectivos. Acabamos de mostrar que {¬, ∨, ∧} es un conjunto adecuado de conectivos. Ejercicio 4.2 Expresar los conectivos → y ↔ con el conjunto {¬, ∨, ∧}, es decir, hallar metafórmulas que solo usen estos tres conectivos y tales que sus fórmulas correspondientes tengan la tabla de verdad de las correspondientes a A → B y de A ↔ B. En realidad, existen conjuntos adecuados de conectivos que tienen menos que tres elementos. Dado que es posible expresar la conjunción utilizando solo la disyunción y la negación, como muestra la siguiente equivalencia, siendo A y B fórmulas cualesquiera, que lleva el nombre del lógico De Morgan A ∧ B ≡ ¬(¬A ∨ ¬B) el conjunto {¬, ∨} es adecuado (toda conjunción puede sustituirse por una expresión en la que solo aparecen la negación y la disyunción sin alterar el comportamiento semántico). Ejemplo 4.6 Podemos encontrar una formula equivalente a p → (q ↔ r) usando solo negación y disyunción a través de la siguiente cadena de equivalencias: p → (q ↔ r) ≡ ¬p ∨ (q ↔ r) ≡ ¬p ∨ ((q → r) ∧ (r → q)) ≡ ≡ ¬p ∨ ((¬q ∨ r) ∧ (¬r ∨ q)) ≡ ¬p ∨ ¬(¬(¬q ∨ r) ∨ ¬(¬r ∨ q)) Encarecemos al lector verificar cada una de las equivalencias establecidas, y también demostrar que los conjuntos {¬, ∧} y {¬, →} son adecuados. Tal vez lo más curioso de todo sea que hay conjuntos adecuados de conectivos que tienen un solo elemento. O sea, un conectivo que, solo, es capaz de producir fórmulas con cualquier comportamiento semántico4 . Considere la siguiente tabla: A B ∨ 1 V V F F V F V F V V V F ∧ 2 → 3 ↔ 4 5 6 7 V F F F V F V V V F F V F F F V F V V V F V F F 8 A 9 ¬A 10 B 11 ¬B 12 13 14 15 16 F V V F V V F F F F V V V F V F F V F V V V V V F F F F V V F V F F V F Cuadro 4.1: Conectivos binarios posibles En ella representamos todos los conectivos binarios posibles. Las columnas encabezadas contienen los que conocemos y a los que les hemos dado nombre. Observe la columna 5. Allí se representa un conectivo binario que tiene este comportamiento y al que asignaremos el símbolo ↓: veremos en breve, el alfabeto de L P no tiene símbolos expresamente destinados a representar esos conectivos. Para estudiar estos conjuntos adecuados los simbolizaremos, pero estaremos trabajando fuera de nuestro lenguaje formal. Esto implica que en nuestro lenguaje, con la semántica dada, no hay conjuntos adecuados unitarios. 4 Como 4.8 ¿Será suficiente? Conjuntos adecuados de conectivos p V V F F q V F V F 93 p↓q F F F V Este conectivo traduce bien la expresión “Tanto p como q son falsas” o “Ni p ni q”. Lo llamaremos Nor (expresión inglesa que viene de que se puede expresar como la negación de la disyunción). Pues bien, el conjunto {↓} es adecuado. Para mostrarlo, basta demostrar que podemos expresar ¬ y ∨ solo con ↓. La tabla de verdad de p ↓ p p V F ↓ F V p V F muestra que p ↓ p ≡ ¬p. Consideremos ahora la tabla de (p ↓ q) ↓ (p ↓ q) (p V V F F ↓ F F F V q) V F V F ↓ V V V F (p V V F F ↓ F F F V q) V F V F Esto muestra que p ∨ q es equivalente a (p ↓ q) ↓ (p ↓ q), y así, el conjunto {↓} es suficiente. Hay otro conjunto unitario suficiente, el formado por el conectivo que corresponde a la columna 6 de la tabla donde se mostraban todos los conectivos binarios posibles. Se lo llama Nand, su símbolo es | (la “barra de Scheffer”), y su tabla p V V F F q V F V F p|q F V V V Ejercicio 4.3 Encontrar alguna expresión del lenguaje natural a la que corresponda y demostrar que {|} es adecuado. Una pregunta pertinente es: ¿Por qué trabajamos con cinco conectivos si con uno solo tendríamos la misma capacidad expresiva? La respuesta es también obvia: El uso exclusivo de un único conectivo como el Nor resultaría en traducciones de expresiones del lenguaje natural al lenguaje formal muy alejadas de nuestra intuición, y sumamente largas, en general. Por ejemplo, para expresar la fórmula p ∨ ¬q con el Nor únicamente tendríamos: ¬q ≡ q ↓ q, y p ∨ ¬q ≡ (p ↓ ¬q) ↓ (p ↓ ¬q), por lo que finalmente p ∨ ¬q ≡ (p ↓ (q ↓ q)) ↓ (p ↓ (q ↓ q)) Capítulo 4. Semántica 94 La fórmula que hemos obtenido es muy poco legible, no tenemos intuición alguna acerca de su comportamiento semántico y hasta podemos tener problemas para reconocer de un vistazo su estructura sintáctica. Es interesante el ejercicio de expresarla en español con alguna expresión propia de esta lengua: “Ni ni p ni ni q ni q...” Hágalo el lector, si gusta. Imagine qué clase de objeto inmanejable para seres humanos puede resultar al intentar expresar solo con este conectivo una fórmula equivalente a otra que sea medianamente compleja en nuestro lenguaje. Por lo tanto, restringirse a un único conectivo es una pésima opción si uno quiere trabajar dentro del sistema –que es lo que deseamos hacer en buena parte de este curso-, pero puede ser una muy buena opción si lo que se desea es estudiar resultados acerca del sistema. (Por ejemplo, si optásemos por hacer un lenguaje con un único conectivo, las reglas de las interpretaciones, que con nuestro lenguaje formal requieren de cinco incisos, solo requerirían un inciso. Por contrapartida, representar un argumento dado en lenguaje natural en ese lenguaje de un solo conectivo sería una tarea engorrosísima, así como la evaluación de la corrección del argumento). Shift ⇑ SEGUNDA LECTURA Terminaremos esta sección demostrando que los únicos conjuntos adecuados de conectivos binarios que tienen un solo elemento son {↓} y {|}: Teorema 4.8.1 Sea ] un conectivo binario. Si {]} es adecuado, entonces ]=↓ o ]=|. Demostración: Consideremos la tabla de ]: p V V F F q V F V F p]q Val (V,V) Val (V,F) Val (F,V) Val (F,F) Si{]} es adecuado, es necesario que Val (V,V)=F, porque si fuese Val (V,V)=V, todas las fórmulas que tuvieran únicamente este conectivo tomarían el valor V siempre que todas las letras proposicionales lo tomasen, y así no se podría expresar una contradicción o una contingencia que fuese falsa cuando sus letras proposicionales sean verdaderas con este único conectivo. Por una razón análoga, es necesario que Val (F,F)=V. Tenemos cuatro posibilidades para otorgar valores a Val (V,F) y Val (F,V): 1. Val (V,F) = Val (F,V) = V. En este caso, ]=↓. 2. Val (V,F) = Val (F,V) = F. En este caso, ]=|. 3. Val (V,F) = V y Val (F,V) = F. En este caso, p]q es equivalente a ¬q. Obviamente, la negación no conforma un conjunto adecuado. 4. Val (V,F) = F y Val (F,V) = V. En este caso, p]q es equivalente a ¬p. Por la misma razón que en el caso anterior, esta combinación de valores de verdad no es admisible. Queda así demostrado que {↓} y {|} son los únicos conjuntos adecuados y unitarios de conectivos binarios. 4.9 Ejercicios 4.9 95 Ejercicios 1. Muestre que si a partir de una interpretación I se construye una nueva valuación cambiando el valor de verdad que I asigna a un conjunto finito de fórmulas y dejando igual el resto, la nueva valuación no es interpretación. 2. Clasifique las siguientes fórmulas en tautologías, contingencias y contradicciones: a) (p3 ∨¬p3 ) b) p15 c) (p3 →(p12 →p9 )) d) (p3 →(p12 →p3 )) e) (p4 →(¬¬¬(¬p8 ∧p8 )) f ) (p4 →(¬¬¬¬(¬p8 ∧p8 )) g) ((¬(p7 →p11 )∧¬(p11 →p7 )) 3. Presente los modelos y contramodelos de las siguientes fórmulas: a) (((p1 ∨p2 )→p2 )∧p1 ) b) (((p1 ∨p2 )→p2 )∧p2 ) c) (((p1 ∨p2 )∧¬p2 )↔p3 ) d) ((p1 ↔p2 )↔p3 ) 4. Sean C1 y C2 contradicciones, G1 y G2 contingencias, y T1 y T2 tautologías. Clasifique las las fórmulas que se obtendrían con los esquemas siguientes en tautologías, contradicciones o contingencias. En caso de que no haya respuesta única, indique los posibles resultados. a) (C1 ↔ C2 ) b) (C1 →T2 ) c) (T1 ∨C1 ) d) (G1 ∨G2 ) e) (G1 → T1 ) f ) (G1 ∧G2 ) g) (T1 ∧T2 ) h) (T1 → C2 ) i) (G1 ↔ C2 ) j) (G1 → C2 ) 5. Determine cuáles de los siguientes conjuntos son satisfacibles. Presente un modelo de cada uno de los conjuntos satisfacibles. a) {p1 , (p1 →p2 ), ¬p2 } b) {(p1 ∨p2 ), (p1 →p3 ), (p2 →p3 )} c) {(p1 ↔p2 ), (p2 ↔p3 )} 6. Sean los conjuntos infinitos de fórmulas: Γ1 ={p1 , (p1 →p2 ), (p2 →p3 ), (p3 →p4 ), ..., (pn →pn+1 ), ...} Γ2 ={(p2 →p1 ), (p3 →p2 ), (p4 →p3 ), ..., (pn+1 →pn ), ...} Indique si es verdadero o falso lo siguiente. En todos los casos, justifique la respuesta. a) Existe una interpretación que es modelo de Γ1 y no de Γ2 . b) Existe una interpretación que es modelo de Γ2 y no de Γ1 . c) Existen al menos dos modelos distintos de Γ1 . d) Existen al menos dos modelos distintos de Γ2 . e) Existen más de dos modelos distintos de Γ2 . f ) Existen interpretaciones que no son modelos ni de Γ1 ni de Γ2 . 7. En este ejercicio veremos que es posible introducir las nociones semánticas sin referirse a los 96 Capítulo 4. Semántica objetos extralingüísticos V y F. Un conjunto Γ de fórmulas se llamará conjunto T si y solo si cumple las siguientes condiciones: Para fórmulas X, Y cualesquiera a) X es elemento de Γ si y solo si ¬X no es elemento de Γ. b) (X∧Y) es elemento de Γ si y solo si tanto X como Y son elementos de Γ. c) (X∨Y) es elemento de Γ si y solo si al menos una de entre X e Y son elementos de Γ. d) (X→Y) es elemento de Γ si y solo si X no es elemento de Γ o Y es elemento de Γ. e) (X↔Y) es elemento de Γ si y solo si tanto X como Y son elementos de Γ o ni X ni Y son elementos de Γ. Demostrar: a) Una fórmula es tautología si y solo si es elemento de todos los conjuntos T. b) Una fórmula es contradicción si y solo si no es elemento de ningún conjunto T. c) Una fórmula es contingencia si y solo si hay un conjunto T al que pertenece y hay un conjunto T al que no pertenece. 5. Conectivos lógicos y lenguaje natural LAMAMOS “traducción” al procedimiento por el cual representamos objetos lingüísticos pertenecientes al lenguaje natural en el lenguaje formal de la lógica proposicional. Y llamamos “interpretación” a una forma de asignar valores de verdad a todas las fórmulas del lenguaje de la lógica proposicional de modo que sean respetadas las constricciones que provienen del comportamiento esperado de los conectivos lógicos. L Sabemos además que no todas las expresiones lingüísticas pertenecientes al idioma español son traducibles al lenguaje de la lógica proposicional, sino que este lenguaje formal está diseñado especialmente para representar proposiciones o enunciados. La figura en la página siguiente muestra parte del procedimiento más básico para evaluar la corrección argumental sirviéndose de la lógica. Se parte de un texto argumental, y en él se individualizan las oraciones que fungen como premisas y la que lo hace como conclusión. Estas oraciones deben expresar proposiciones. Se traducen a fórmulas del lenguaje formal (en este caso a L P), y, una vez hecho esto, como veremos en el próximo capítulo, se puede proceder a la evaluación de la corrección del argumento según las capacidades del lenguaje que estamos manejando: si no es posible que una interpretación otorgue el valor de verdad F a la formula que representa la conclusión a la vez que otorga el valor de verdad V a las premisas, diremos que el argumento es válido. En caso contrario, si hay interpretaciones bajo las cuales el valor de verdad de las formulas que representan las premisas es V y el valor de verdad de la conclusión es F, puede pasar que nos encontremos frente a un argumento inválido, o que nos encontremos frente a un argumento válido, pero en ese caso se tratara de uno que lo sea no gracias a su estructura en términos de los conectivos que recoge el lenguaje proposicional, sino gracias a alguna otra circunstancia, que tal vez pueda ser reflejada con lenguajes más ricos. En este capítulo vamos a ocuparnos de algunos aspectos de la traducción de expresiones en lenguaje natural (español) a fórmulas del lenguaje proposicional, ya que si bien en muchísimos casos la traducción es directa, la riqueza del lenguaje natural puede jugarnos malas pasadas. Examinaremos entonces algunas de las variadas formas en que en español podemos modificar la expresión de una proposición, de manera en que quedaría bien reflejada por un conectivo en nuestro lenguaje formal. Nada más ingenuo que traducir automáticamente cada “no” por ¬, nada más directo para arribar a errores que solo colocar → en caso de que aparezca la construcción Capítulo 5. Conectivos lógicos y lenguaje natural 98 “si...entonces...”, etc. Un principio rector que debe guiarnos es el siguiente: La traducción al lenguaje formal no debe comprometerse con reflejar directamente palabras y expresiones como “y”, “no”, “si...entonces...”, etc., que son meros indicadores, sino que debe preservar en la semántica del lenguaje formal, las condiciones de verdad que advertimos en el lenguaje natural. Expresiones del lenguaje natural Prem 1 Prem 2 .. . Traducción Prem n Conc Oraciones que expresan proposiciones de un argumento que nos interesa evaluar. Fórmulas del lenguaje formal P1 P2 .. . P2 C Interpretaciones V F Fragmento del lenguaje proposicional que representa las proposiciones expresadas en lenguaje natural. Evaluación de la correción argumental: ¿existe alguna relación entre {P1 , P2 , ..., Pn } y C que nos la asegure? (En próximos capítulos) 5.1 El conectivo ¬ Obviamente asociamos este conectivo a la palabra “no”. Pero, según el principio que acabamos de establecer, el hecho fundamental a tener en cuenta cuando decidamos traducir un fragmento de lenguaje natural como ¬A, es que ese fragmento será considerado verdadero si el fragmento de lenguaje natural que corresponda a A es considerado falso, y será considerado falso si el fragmento de lenguaje natural correspondiente a A es considerado verdadero. Como la palabra “no” delante de una oración cumple normalmente esa función, establecemos esa asociación. Por ejemplo, es claro que si p es la traducción de 1. Llueve. ¬p es la correcta traducción de No llueve. Esto es claro porque “Llueve” es verdadero si “No llueve” es falso, y es falso si “No llueve” es verdadero. Sin embargo, no siempre es tan evidente la relación entre una proposición y su negación. Tal vez, si uno le pregunta a un niño pequeño cuál es la negación de 5.1 El conectivo ¬ 99 2. La pared es blanca. este responda, mostrando una frecuente confusión en estadios tempranos del desarrollo 3. La pared es negra. Un adulto ve claramente que la negación de 2 no es 3. Pero ¿por qué? La respuesta es: 3 no es la negación de 2 porque es posible que 2 y 3 sean ambas falsas, y como hemos dicho, en un par formado por una proposición y su negación, es necesario que una de ellas sea verdadera y la otra falsa. Esto es trivial, pero en algunos casos podemos estar tentados a cometer algún error similar. En general, si X es una oración en lenguaje natural que expresa una proposición, la oración “No es el caso que X” expresará la negación de la proposición expresada por X, aunque muy posiblemente haya una mutación en el modo verbal, típicamente, de indicativo a subjuntivo o puede aparecer una construcción con gerundio: la negación de 1 puede expresarse como No es el caso que llueva. o también como No es el caso que esté lloviendo. Lo mismo podemos decir de “No es cierto que X” o “No es verdad que X”, aunque es claro que en este caso, quien profiere la oración está negando X indirectamente, es decir, afirmando que el valor de verdad de X es F, no afirmando directamente la negación de X. Mencionaremos a continuación algunos casos en los que conviene ser cuidadoso al considerar las negaciones. 5.1.1 La negación de proposiciones cuantificadas La negación de 4. Todos los políticos son corruptos. no se expresa con Ningún político es corrupto. Esto es así porque ambas proposiciones pueden perfectamente ser falsas (y muy probablemente lo sean). La negación de 4 se expresa con No todos los políticos son corruptos. o con Algunos políticos no son corruptos. Del mismo modo, encarecemos al lector prestar especial atención a las formas de negar proposiciones expresadas por oraciones que comiencen con “algunos” o “unos”. Este es un punto importante, frecuentemente desatendido al tratar la lógica proposicional. Como los argumentos que incluyen proposiciones de este tipo son generalmente tratados en forma más eficaz con otras lógicas, no se suele prestar atención a este tipo de proposiciones en conexión con el aparato proposicional. Pero es muy importante advertir desde el primer momento algunas de las múltiples formas en que una proposición puede negarse, y las proposiciones cuantificadas son un buen campo de prueba. Capítulo 5. Conectivos lógicos y lenguaje natural 100 5.1.2 La negación de proposiciones que expresan relaciones asimétricas La negación de La mesa es más ancha que la puerta. no es La mesa es más angosta que la puerta. ni La mesa es menos ancha que la puerta. sino que se puede expresar con La mesa no es más ancha que la puerta. o con La puerta es al menos tan ancha como la mesa. En estos casos hay que observar cuidadosamente cómo se comporta la relación con respecto a la que, según el lenguaje natural, es la inversa. 5.1.3 La negación de algunas proposiciones modalizadas que expresan creencia, posibilidad, etc. La negación de Juan cree que Dios existe. no es Juan cree que Dios no existe. sino Juan no cree que Dios existe. Esto está relacionado con el hecho de que frente a un proposición p, un agente tiene al menos tres estados doxásticos1 : creer que p, creer la negación de p, o no creer ni p ni su negación. Por ejemplo, si p es la proposición “Dios existe”, un teísta cree que p, un ateo cree en la negación de p y un agnóstico (o alguien que nunca ha definido su creencia al respecto) no cree ni p ni su negación. Negar que una persona se encuentra en uno de los estados doxásticos referidos no implica que se encuentre en otro definido, sino que se encuentra en alguno de los otros dos. Las proposiciones que expresan que algo es obligatorio, está permitido o prohibido presentan complicaciones particulares. Por ejemplo, la negación de Debes dejar de fumar. es una proposición expresada por No es tu deber dejar de fumar. Lo que parece la “negación natural”, o sea 1 Relativos a la creencia u opinión. 5.2 El conectivo ∧ 101 No debes dejar de fumar. se usaría, normalmente, para expresar al receptor que debe continuar fumando. En todos los casos, se debe recordar que en principio, algo puede estar prohibido, o ser obligatorio, o ni una cosa ni otra. Y decir que algo es obligatorio, equivale a decir que no hacerlo está prohibido. Finalmente, la negación de Es necesario que Dios exista. no es Es necesario que Dios no exista. sino No es necesario que Dios exista. O, lo que es lo mismo Es posible que Dios no exista. Otra vez, esto se da porque en general consideramos que algunas proposiciones son necesarias, otras son imposibles, y otras no son lo uno ni lo otro: tanto la proposición como su negación son posibles. Sucede que en estos casos, así como en el de las proposiciones cuantificadas, nos encontramos frente a un algo estructuralmente idéntico: La negación de una proposición cuantificada con “todos” puede expresarse por medio de la negación y un cuantificador que signifique “alguno”; la negación de una proposición modalizada con “es obligatorio” puede expresarse por medio de la negación y un operador modal que signifique “está permitido”; la negación de una proposición modalizada con “es necesario” puede expresarse con negación y un operador modal que signifique “es posible”. 5.2 El conectivo ∧ Este conectivo no presenta mayores dificultades. Si bien se lo relaciona con la palabra “y”, hay ocasiones en las que la aparición de esta palabra no debe traducirse con ∧, y también hay ocasiones en que la palabra no aparece, y lo correcto sería traducir el conectivo. Un ejemplo de lo primero es Bolívar y San Martín se entrevistaron en Guayaquil. Es claro que la palabra “y” no está conectando oraciones que expresan proposiciones, que toda la oración expresa una proposición que no admite análisis porque no tiene partes que puedan ser consideradas verdaderas o falsas. Por lo tanto, esta oración debería traducirse al lenguaje de la lógica proposicional con una letra proposicional. Un ejemplo de lo segundo es Platero es pequeño, peludo, suave. Consideraremos esta oración como verdadera solo en caso de que Platero sea pequeño, sea peludo y además sea suave. Por eso, la proposición expresada puede expresarse también como Platero es pequeño y Platero es peludo y Platero es suave. Capítulo 5. Conectivos lógicos y lenguaje natural 102 Con lo que podría traducirse como p ∧ q ∧ r. Omitimos los paréntesis porque sabemos todas sus disposiciones son equivalentes. Es importante notar que, en este caso, razones estilísticas explican la desviación entre estructura gramatical y lógica. Hay otros casos en los que se puede sostener que la desviación entre ambas estructuras es mucho más profunda que esto, como mostraremos más adelante. Otra forma común que tiene el lenguaje natural de expresar proposiciones cuya traducción natural incluye el conectivo ∧ es mediante conjunciones adversativas, en las que no aparece la palabra “y”. Por ejemplo Está soleado pero tengo frío. Una traducción correcta es (p ∧ q). Por otra parte, a veces se utiliza la palabra “y” con una carga semántica que no resulta traducible mediante el conectivo ∧. Este es el caso en el que la palabra “y” conecta dos proposiciones no solo en sentido veritativo, sino que además las ordena temporalmente: César fue apuñalado repetidas veces y murió al pie de la estatua de Pompeyo. Esta oración indica un hecho histórico, que consideramos verdadero. Pero César murió al pie de la estatua de Pompeyo y fue apuñalado repetidas veces. indica más bien que el cadáver de César fue ultrajado, cosa que tenemos por falsa. Sin embargo, si representáramos la primera como (p ∧ q), deberíamos asignarle el mismo valor de verdad que a (q ∧ p). 5.3 El conectivo ∨ Este conectivo está asociado con la palabra “o”. Como sabemos, existen dos usos de esa palabra: la disyunción exclusiva y la disyunción inclusiva. El segundo es el que recoge directamente el conectivo, y para el primero no tenemos un símbolo que lo represente en nuestro lenguaje proposicional (aunque otras presentaciones sí incluyen un símbolo cuyo comportamiento semántico refleja adecuadamente el del uso exclusivo de “o”). Sin embargo sabemos que podemos representar una disyunción exclusiva de la siguiente manera: ((p ∨ q) ∧ ¬(p ∧ q)). Una confusión común surge cuando se establece una disyunción entre dos proposiciones que por su naturaleza no pueden ser ambas verdaderas. Supongamos que un matemático establece x es mayor que 5 o x es menor que 3. ¿Se trata de una disyunción inclusiva o exclusiva? Como no puede ser a la vez que x sea mayor que 5 y menor que 3, en principio no habría diferencia en considerar que es un uso inclusivo o exclusivo. Por lo tanto, consideraremos, por simplicidad, que se trata de un uso inclusivo y reservaremos la expresión de la disyunción exclusiva solo para aquellos casos en los que ambas proposiciones puedan ser verdaderas pero está claro que el hablante quiera excluir esa posibilidad, como por ejemplo, si un padre le dice a una hija Podés elegir la fiesta o el viaje. A veces se remarca la exclusividad de la disyunción con el giro “o bien... o bien...”. 5.4 El conectivo → 5.4 103 El conectivo → El condicional es y por mucho el conectivo que más complicaciones presenta en los procesos de traducción al lenguaje formal. Ateniéndonos a nuestro principio corresponde traducir con un condicional toda expresión que conecte dos proposiciones de manera tal que la expresión sea falsa únicamente si, de las proposiciones conectadas, una determinada es verdadera y la otra proposición es falsa y además la expresión sea verdadera en cualquier otro caso. Básicamente, las dificultades en la traducción se deben a que por un lado, hay expresiones muy corrientes en lenguaje natural que nos inducen a una traducción en términos de condicional, generalmente por la aparición del giro “si... entonces...”, y por otro hay expresiones que admiten una traducción correcta como condicional, pero sin la marca lingüística del “si... entonces...”. Hay casos “normales”, donde figura el giro y la traducción a una fórmula condicional corresponde. Por ejemplo Si Juan está en su casa entonces la puerta está abierta. Pero no todos los casos de “Si...entonces...” son traducibles por el conectivo →. Un ejemplo clásico son los contrafácticos, o sea, expresiones del tipo “si...entonces...” en subjuntivo con “antecedente” no correspondiente a un hecho: 5. Si Hitler hubiera invadido Inglaterra, entonces Alemania hubiese ganado la guerra. Lo primero que nos advierte en contra de usar una traducción con un condicional es la gramática: el modo subjuntivo hace dudar de que se estén conectando proposiciones. Además, si aceptáramos de algún modo que lo conectado son proposiciones y nos atenemos a la interpretación del conectivo → para entender los contrafácticos seguramente deberíamos decir que todos son verdaderos, en cuyo caso expresiones como 6. Si Uruguay hubiese invadido a Estados Unidos, entonces tendríamos los mejores jazzistas. serían verdaderas y este resultado sería muy chocante. Quien expresa 5 quiere decir algo por lo menos discutible y quien expresa 6 está diciendo tonterías. Un ejemplo clásico de la enorme diferencia entre condicionales materiales y contrafácticos, en el sentido de que establecer un condicional material no parece dar ningún apoyo para establecer un contrafáctico semántica y morfológicamente cercano, es el que surge al considerar estos dos enunciados Si Lee Harvey Oswald no mató a Kennedy, entonces algún otro lo hizo. Si Lee Harvey Oswald no hubiera matado a Kennedy, entonces algún otro lo hubiera hecho. El primero parece verdadero a todas luces, mientras que el segundo es extremadamente dudoso. Las condiciones de verdad de los contrafácticos son muy discutidas, pero en cualquier caso, no son las del condicional material. El lector interesado puede profundizar con la lectura de [Ben03], donde se trata un sinnúmero de problemas que surgen de expresiones de este tipo y otros, también relacionados con alguna condicionalización. Por otra parte, hay muchas expresiones traducibles mediante un condicional en las que no aparece el giro “si... entonces...”, de las que veremos algunas a continuación: Capítulo 5. Conectivos lógicos y lenguaje natural 104 5.4.1 Condiciones suficientes Un condicional traducido como (p → q), refleja que si p es verdadera lo será q, de manera que es una forma de expresar que p es una condición suficiente para q. Por eso, si decimos Es suficiente que estudies en los apuntes para que salves el examen. podemos considerar que eso es equivalente a Si estudias en los apuntes, entonces salvarás el examen. Tenga en cuenta que a veces no aparece la expresión “entonces” y el orden se intercambia. Por ejemplo Se ofenderá si le dices eso. es equivalente a Si le dices eso, entonces se ofenderá. O sea que es suficiente para que se ofenda, que le digas eso. 5.4.2 Condiciones necesarias Del mismo modo, un condicional traducido como (p → q), refleja que si q es falsa lo será p, de manera que es una forma de expresar que q es una condición necesaria para p. Para ver un ejemplo algo complejo, consideremos la expresión en negrita junto con los versos que la acompañan Los sabios dicen: “Solo los tontos se apresuran” Pero yo no puedo evitar enamorarme de ti2 . Ese verso resaltado expresa que Solo si alguien es tonto se apresura. o sea Es necesario que alguien sea tonto para que se apresure. lo que puede expresarse como Si alguien se apresura, entonces ese alguien es tonto. Obsérvese que no se dice que si alguien es tonto, se apresura. Si lo que la frase expresa es verdadero, es perfectamente posible que haya tontos que no se apresuren. Sin embargo la frase expresa que el apresuramiento debe ir acompañado de tontera. Análogamente, las expresiones clásicas de que una cosa es necesaria para otra pueden traducirse a través del condicional. Si decimos Es necesario estar bautizado para salvarse. 2 De la canción Can’t Help Falling in Love, interpretada, entre otros, por Elvis, Andrea Bocelli, Bruce Springsteen, Celine Dion, Pearl Jam, y destrozada por UB40. 5.5 El conectivo ↔ 105 expresamos algo que significa Solo las personas bautizadas son salvas. o Si una persona es salva, entonces está bautizada. Obsérvese entonces que el condicional (p → q) es una forma de establecer la suficiencia de p para q y la necesidad de q para p. Sabemos que esto no debe entenderse de modo causal, sino que se trata de una relación entre los valores de verdad de p y q: si alguien se compromete con el condicional (p → q), se compromete con que si p es verdadero, q lo es y si q es falso, p lo es. De aquí, derivativamente tenemos que el condicional (¬q → ¬p) es equivalente al anterior, como ya habíamos mencionado y se puede verificar fácilmente por medio de tablas de verdad. Esto es así porque si q es necesario para p, si es el caso que ¬q deberá ser el caso que ¬p. 5.4.3 Condicionales expresados con un “y” El lenguaje natural presenta una riqueza de expresiones que hace inabarcable el estudio de todas las que lógicamente funcionan como un condicional. Por ejemplo, algunas expresiones en la que aparece la conjunción “y” deberían ser traducidas como un condicional: Dejás la ventana abierta y te roban la casa. Es obvio que esto expresa que si dejas la ventana abierta, entonces te robarán. La estructura es la misma que se advierte en la siguiente frase fosilizada, que intenta condicionalizar el triunfo: Persevera y triunfarás. 5.5 El conectivo ↔ El bicondicional se asocia principalmente con la expresión “si y solo si”, pero por lo que hemos visto también expresa condiciones necesarias y a la vez suficientes. Por ejemplo Don Quijote dejará las armas si y solo si es derrotado en combate singular. es equivalente a Para que Don Quijote deje las armas es necesario y suficiente que sea derrotado en combate singular. Al examinar la expresión “X si y solo si Y” se observa que el primer “si” establece que Y es suficiente para X, y el “solo si” establece que Y es necesario para X. Capítulo 5. Conectivos lógicos y lenguaje natural 106 5.6 Ejercicios 1. Extraiga todas las proposiciones simples desde el punto de vista de la lógica proposicional del siguiente texto: “Ciegas y primitivas, las termitas no son sin embargo una presa fácil para las hormigas, sus enemigos naturales. No solo saben construir fortalezas prácticamente impenetrables; no solamente están dotadas de temibles mandíbulas, sino que también segregan eficaces armas químicas: toxinas, anticoagulantes, sustancias irritantes y viscosas cuya complejidad apenas comienza a ser descubierta por los científicos”. 2. 3. 4. 5. 6. 7. 8. Señale alguna que no se encuentre afirmada en el texto. Represente en el lenguaje proposicional los siguientes pares de enunciados: a) Llueve / Está soleado b) Llueve / No es verdad que sea el caso que llueva. c) Quiero algo / Es falso que quiera algo. d) Quiero algo / No quiero nada. e) Quiero algo / Nada quiero. f ) No quiero nada / Nada quiero. g) Debes ir / No debes dejar de ir. h) Estudio todos los días / No estudio nunca. i) Creo en Dios / Creo que Dios no existe. j) Creo en Dios / No creo que Dios no exista. Represente en el lenguaje proposicional los siguientes enunciados: a) Laika y Dolly fueron animales famosos. b) Laika y Dolly no se conocieron. c) Laika viajó al espacio pero sin embargo los EE.UU. tuvieron los mayores éxitos en la carrera espacial. d) Este número es par o es impar. e) (En las condiciones en que estaba en 1941) Hitler atacaría Gran Bretaña o la Unión Soviética. f ) Al menos uno de estos dos (se refiere a Aníbal y César) fue un genio militar. Busque en alguna de opinión de la prensa expresiones de condicionales. Evalúe la adecuación de presentarlos como condiciones de suficiencia o necesidad. Considere la siguiente situación. Juan es un joven ni-ni (o sea que ni estudia, ni trabaja). Un día su padre le dice: “Juan, esto no puede seguir así. Tenés que estudiar o trabajar”. Represente lo dicho por el padre en el lenguaje proposicional. Considere la siguiente situación. Juan es un joven que estudia y trabaja, pero no está haciendo bien ninguna de las dos cosas, porque se esfuerza mucho en ambas y el tiempo no le resulta suficiente, además de que su salud se está resintiendo. Un día su padre le dice: “Juan, esto no puede seguir así. Tenés que estudiar o trabajar”. Represente lo dicho por el padre en el lenguaje proposicional. Es común oír: “Si ladra, no muerde”. Tradúzcala al lenguaje de la lógica proposicional. ¿Cómo traduciría al lenguaje proposicional lo siguiente: “Si ladra, no muerde; si muerde, no ladra”. ¿Considera usted que para propósitos de seguridad con respecto a relaciones canino-humanas es suficiente la advertencia dada o sería mejor (desde el punto de vista lógico) sustituirla por la segunda? ¿Es admisible traducir la segunda forma de la misma manera que “Ladra si y solo si no muerde”? En un restaurant de lujo, de esos con varios mantelitos, servilletas, centros de mesa y velitas, hay un cartel que dice: “La comida barata no es buena”. En un tugurio piojoso, de esos 5.6 Ejercicios 107 que tienen olor a baño y los vasos sucios, hay un cartel que dice: “La comida buena no es barata”. ¿Es posible traducir lo que dicen ambos carteles por una misma fórmula del lenguaje proposicional? 9. Según Kant, los juicios verdaderos se clasifican en dos categorías: a priori y a posteriori (o empíricos). Podemos decir grosso modo, que un juicio es empírico cuando su validación depende necesariamente de la experiencia, cuando alguna experiencia (pensable) –esto es, información obtenida a través de los sentidos- podría hacernos cambiar de idea acerca de su valor de verdad. Un juicio es a priori si no es empírico. Por ejemplo, un juicio tal como “La pared es blanca” es empírico y uno como “Toda cosa es igual a sí misma” es a priori. Por otro lado, los juicios también se pueden clasificar en otras dos categorías: analíticos y sintéticos. Un juicio analítico es aquel en el cual el predicado está comprendido en el sujeto (o podemos decir grosso modo, que para validarlo basta el mero conocimiento del significado de las palabras empleadas al expresarlo). Un juicio sintético es uno no analítico. Por ejemplo, “Un soltero no está casado” es analítico, mientras que “Juan es soltero” es sintético. Suponga que dos filósofos kantianos están examinando un mismo juicio. a) Uno concluye que el juicio es sintético y el otro que el juicio es analítico. ¿Considera usted que uno está concluyendo la negación de lo que concluye el otro? b) Uno concluye que el juicio es analítico y el otro que el juicio es empírico. ¿Considera usted que uno está concluyendo la negación de lo que concluye el otro? c) Suponga que uno concluye que el juicio es sintético, y el otro concluye que es a priori. Un filósofo no kantiano, que no conoce el juicio que está siendo examinado, hace el siguiente comentario: “Al menos uno de los dos tiene que estar equivocado”. ¿Qué premisa implícita está manejando el filósofo no kantiano? 10. El siguiente fragmento se encuentra en el libro “La filosofía china” de Lin Yutang: "(Motsé) se burló de los confucionistas, comparándolos con campanillas que solo suenan cuando se las golpea, y no suenan cuando se las golpea". Considere que p representa “Estas campanillas suenan” y q representa “Estas campanillas son golpeadas”. Represente en el lenguaje de la lógica proposicional lo que dice Motsé de los confucionistas entendiéndolos como “estas campanillas”. Explique la metáfora. (Para hacerlo debe inferir algo que no está explícito). 11. Representamos con “p” la proposición “Todos los planetas tienen satélites” y con “q” la proposición “Algunos astros siguen órbitas elípticas”. ¿Cuál de las siguientes representaciones corresponde a “Si algunos planetas no tienen satélites entonces ningún astro sigue una órbita elíptica”? a) (¬r→¬s) b) (¬p→¬q) c) (¬r→¬q) d) (¬p→¬r) (r y s representan proposiciones de las que no se ha dado su correspondiente en lenguaje natural. Si usted elige un condicional en el que aparece r o s como la respuesta correcta debe decir cuál es el enunciado que está representando). 6. Consecuencia semántica esta altura del curso ya tenemos las herramientas suficientes como para dar cuenta, al menos parcialmente, de cómo servirá el lenguaje formal que hemos desarrollado para nuestros propósitos al embarcarnos en el estudio de la lógica. Habíamos dicho que esta ciencia tiene como uno de sus objetos principales la inferencia correcta, y estamos en condiciones de clasificar científicamente –es decir, según la ciencia de la lógica– algunas inferencias como correctas. Todos los conceptos que necesitamos para esto han sido ya expuestos y desarrollados, y lo único que resta es combinarlos de determinada manera que recoja la idea de corrección argumental. A 6.1 La validez en el lenguaje formal Para iniciar nuestro recorrido hacia una caracterización científica de los argumentos válidos estudiemos una inferencia que consideramos correcta a nivel intuitivo: En Hechos de los Apóstoles 5:33-39 se lee: 33 Ellos [los miembros del Sanedrín], al oír esto, se consumían de rabia y trataban de matarlos [a los apóstoles]. 34 Entonces un fariseo llamado Gamaliel, doctor de la ley, con prestigio ante todo el pueblo, se levantó en el Sanedrín. Mandó que se hiciera salir un momento a aquellos hombres, 35 y les dijo: “Israelitas, mirad bien lo que vais a hacer con estos hombres. 36 Porque hace algún tiempo se levantó Teudas, que pretendía ser alguien y que reunió a su alrededor unos cuatrocientos hombres; fue muerto y todos los que le seguían se disgregaron y quedaron en nada. 37 Después de éste, en los días del empadronamiento, se levantó Judas el Galileo, que arrastró al pueblo en pos de sí; también éste pereció y todos los que le habían seguido se dispersaron. 38 Os digo, pues, ahora: desentendeos de estos hombres y dejadlos. Porque si esta idea o esta obra es de los hombres, se destruirá; Capítulo 6. Consecuencia semántica 110 39 pero si es de Dios, no conseguiréis destruirles. No sea que os encontréis luchando contra Dios.” Y aceptaron su parecer. En el libro [Gen10] Harry Gensler afirma que este argumento es probablemente el más complejo que la Biblia presenta. Consideremos la siguiente reconstrucción: La enseñanza de los apóstoles viene de Dios o es de origen humano. Si viene de Dios y matamos a los apóstoles, entonces estaremos luchando contra Dios. Si es de origen humano, se destruirá por sí misma. Si se destruye por sí misma y matamos a los apóstoles, entonces esas muertes serán innecesarias. Si matamos a los apóstoles, entonces esas muertes serán innecesarias o estaremos luchando contra Dios. (Observe la enorme distancia que hay entre el texto bíblico y la reconstrucción presentada1 . Sin embargo, es una buena reconstrucción ya que captura el sentido de lo dicho y las condiciones de verdad involucradas). Si procedemos a la traducción al lenguaje de la lógica proposicional siendo: p q r s t u La enseñanza de los apóstoles viene de Dios. La enseñanza de los apóstoles es de origen humano. Matamos a los apóstoles. La enseñanza de los apóstoles se destruirá por sí misma. Estaremos luchando contra Dios. La muerte de los apóstoles será innecesaria. Obtenemos: (p ∨ q) ((p ∧ r) → t) (q → s) ((s ∧ r) → u) (r → (u ∨ t)) ¿Cómo podemos, con los elementos a nuestra disposición, mostrar que la inferencia de Gamaliel es correcta? Habíamos dicho, a nivel intuitivo, que una inferencia es lógicamente correcta cuando no es posible que la conclusión sea falsa si las premisas son verdaderas. Esto debería quedar reflejado en la semántica de nuestro lenguaje formal de la siguiente manera: ninguna interpretación que asigne V a todas las premisas puede asignar F a la conclusión o, dicho de otro modo, todo modelo de las premisas debe ser modelo de la conclusión. Mostraremos que todo modelo del conjunto P = {(p ∨ q), ((p ∧ r) → t), (q → s), ((s ∧ r) → u)} es modelo de (r → (u ∨ t)) Para hacer esto, consideraremos una interpretación que no sea modelo de (r → (u ∨ t)) y mostremos que es imposible que esa interpretación sea modelo de todas las premisas. Es decir, 1 Todo este argumento -como muchos otros- está erizado de complejas cuestiones filosóficas, derivadas del estatus de proposiciones contingentes sobre el futuro. Básicamente el problema es que aceptar que una proposición como “La enseñanza de los apóstoles se destruirá por sí misma” tiene un valor de verdad en el momento en que se la expresa, parece obligar a un determinismo lógico, es decir, que tanto si es V como si es F entonces lo que sucederá con esa enseñanza ya está determinado. El problema fue estudiado con mucho detalle por Aristóteles en el cap. 9 de Peri Hermeneias. Es tema de la filosofía de la lógica y no diremos otra cosa sobre él que usaremos esas expresiones como expresando proposiciones. 6.2 La relación de consecuencia semántica 111 mostraremos que suponer que hay una interpretación que es modelo de todas las premisas y no es modelo de (r → (u ∨ t)) lleva a una contradicción2 . Sea I una interpretación tal que a Es modelo de todas las premisas. b Es contramodelo de (r → (u ∨ t)). Por b: 1. I(r) =V 2. I(u ∨ t) =F Como I es interpretación es necesario que (por 2) 3. I(u) = I(t) =F Considere la premisa ((p ∧ r) → t). Según a es V, y dado que (por 3) I(t) =F, debe ser 4. I(p ∧ r) =F Pero por 1 sabemos que I(r) =V, de modo que 4 y 1 hacen necesario que 5. I(p) =F Considere ahora la premisa ((s ∧ r) → u). Según a es V y dado que (por 3) I(u) =F, debe ser 6. I(s ∧ r) =F Pero por 1 sabemos que I(r) =V, de modo que 6 y 1 hacen necesario que 7. I(s) =F Considere ahora la premisa (q → s). Según a es V y dado que (por 7) I(s) =F, debe ser 8. I(q) =F Entonces por 8 y 5, tenemos que 10. I(p ∨ q) =F Pero (p ∨ q) es una premisa, de modo que se contradice nuestra suposición en a de que todas las premisas eran V bajo I, con lo que queda demostrado que ninguna interpretación que asigne F a la conclusión asignará V a todas las premisas, o lo que es lo mismo, que si una interpretación hace V a todas las premisas hará V también a la conclusión, o dicho de otra manera, que todos los modelos del conjunto de las premisas son modelos de la conclusión. Y es por esto que decimos que la inferencia es correcta y diremos que cualquier inferencia cuya traducción al lenguaje formal cumpla eso será correcta. Tenemos entonces la posibilidad de describir cómo se “refleja” en nuestro lenguaje formal y su semántica la corrección argumental del lenguaje natural en tanto es tributaria de la forma proposicional. Lo haremos a través del concepto de consecuencia semántica. 6.2 La relación de consecuencia semántica De acuerdo a lo que acabamos de mostrar, definimos: 2 Observe que no se está usando la palabra en el sentido técnico en que la definimos, como una fórmula que no tiene modelos, sino en sentido coloquial. Esta es una forma de razonamiento común: suponer algo, y llegar a algo inaceptable lógicamente, con lo que estamos obligados a rechazar lo que supusimos. Veremos con mucho más detalle esto en próximos capítulos. Capítulo 6. Consecuencia semántica 112 Definición 6.2.1 — Consecuencia semántica. Sea Γ un conjunto de fórmulas de L P y A una fórmula de L P. A es consecuencia semántica de Γ si y solo si todo modelo de Γ es también modelo de A. Notación 6.1. Si A es consecuencia semántica de Γ, escribimos Γ |= A Es esta una de las nociones centrales de la Lógica, y dedicaremos el resto de este capítulo a estudiarla. Observemos en primer lugar que en un nivel preformal decíamos que una inferencia es correcta si su conclusión necesariamente es verdadera si sus premisas lo son. Ahora que hemos matematizado la noción al sumergirla en un lenguaje formal, la necesidad queda reflejada al decir que toda interpretación que asigne V a las premisas asignará V a la conclusión. En el ejemplo de la inferencia de Gamaliel, la conclusión es consecuencia semántica del conjunto de las premisas, y eso clasifica científicamente la inferencia como correcta desde el punto de vista lógico, o sea, podemos afirmar que es válida. Es claro que dado cualquier conjunto de fórmulas Γ y cualquier fórmula A, la fórmula A es consecuencia semántica de Γ o no lo es. Nunca una fórmula es “más o menos consecuencia semántica” de un conjunto. Esto se corresponde con la división tajante entre argumentos válidos e inválidos, ya habíamos visto que no hay argumentos “más o menos válidos”. Consideremos ahora algunos de los aspectos más salientes del concepto que acabamos de definir. 6.3 Conjuntos insatisfacibles y contradicciones Supongamos que Γ no tiene modelos, o sea que es un conjunto insatisfacible, y sea A una fórmula cualquiera. ¿Es o no es A consecuencia semántica de Γ? No es simple responder a la pregunta de si todos los modelos de Γ son modelos de A si es que Γ no tiene modelos. Preguntémonos qué es necesario, en general, para que A no sea consecuencia semántica de Γ. La respuesta obvia es: para que A no sea consecuencia semántica de Γ, debe existir una interpretación que sea modelo de Γ y no sea modelo de A. Pero es claro que si Γ es insatisfacible esto no puede cumplirse porque ninguna interpretación es modelo de Γ. Dado que no puede cumplirse que A no sea consecuencia semántica de Γ, aceptamos que lo es. Ejemplo 6.1 Sea Γ = {p, q, (p → ¬q)}. ¿Es la fórmula (r ∧ s) consecuencia semántica de Γ? Según lo que acabamos de decir, y dado que Γ es insatisfacible (verifíquelo el lector), se tiene: Γ |= (r ∧ s) con lo que decimos que ninguno de los modelos de Γ es contramodelo de (r ∧ s), cosa que se cumple trivialmente porque Γ no tiene modelos. Hemos demostrado el Teorema 6.3.1 Si Γ es insatisfacible, entonces Γ |= A, sea cual sea la fórmula A. Relacionada con esto se encuentra la siguiente pregunta: Una contradicción no tiene modelos. ¿Cuáles conjuntos tienen a una contradicción como consecuencia semántica? Sea κ una contradicción, y supongamos que Γ |= κ. Es claro que como todas las interpretaciones son contramodelos de κ, si Γ tuviese un modelo, la relación de consecuencia semántica no podría darse. Por eso y lo anterior tenemos: 6.4 Conjunto vacío y tautologías 113 Teorema 6.3.2 Siendo κ una contradicción, Γ |= κ si y solo si Γ es insatisfacible. 6.4 Conjunto vacío y tautologías ¿De cuáles conjuntos serán consecuencias semánticas las tautologías? La intuición nos dice que una tautología no necesita de que otras proposiciones le ofrezcan apoyo para que la consideremos verdadera. Examinemos la posibilidad de decir que una tautología es consecuencia semántica de cualquier conjunto de fórmulas. Sea τ una tautología y Γ un conjunto cualquiera de fórmulas. Es claro que Γ |= τ es algo que debemos aceptar siempre que Γ contenga al menos una fórmula, ya que es imposible hallar contramodelos de τ y a fortiori, contramodelos de τ que sean modelos de Γ. Pero este argumento sirve de la misma manera en el caso de que Γ sea el conjunto vacío. Diremos entonces que una tautología es consecuencia semántica del conjunto vacío y usaremos la siguiente: Notación 6.2. |= τ Sin embargo queda por tratar el problema de si el conjunto vacío tiene alguna otra consecuencia semántica aparte de las tautologías. Optamos convencionalmente por decir que cualquier interpretación satisface el conjunto vacío (ya que para que una interpretación no sea modelo de un conjunto es necesario que exista una fórmula en el conjunto que no sea verdadera bajo esa interpretación). Por lo tanto, ninguna contingencia o contradicción puede ser consecuencia del conjunto vacío y se tiene Teorema 6.4.1 La fórmula A es tautología si y solo si |= A. 6.5 Monotonía Supongamos que Γ y A son tales que Γ |= A. Modifiquemos ahora el conjunto Γ agregándole fórmulas. Llamemos ∆ al conjunto de las fórmulas que agregamos obteniendo un conjunto Γ’ que será la unión de Γ y ∆. En símbolos de la teoría de conjuntos, Γ’=Γ ∪ ∆. Nos preguntamos si se cumple Γ’|= A. Se pueden presentar dos casos. Si Γ’ es insatisfacible, entonces, como toda fórmula es consecuencia semántica de cualquier conjunto insatisfacible, tenemos Γ’|= A. Si Γ’ tiene modelos, entonces esos modelos tienen que asignar V a todas las fórmulas de Γ, y por lo tanto serán también modelos de Γ. De modo que todo modelo de Γ’ es también modelo de Γ y como Γ |= A, es también modelo de A. Hemos demostrado el Teorema 6.5.1 — Monotonía. Si Γ |= A, entonces para todo conjunto de fórmulas ∆, Γ ∪ ∆ |= A. Se observa que si se parte de un conjunto de fórmulas y se agregan fórmulas, todos los modelos del conjunto así obtenido serán modelos del conjunto de partida, lo que es decir, con este procedimiento se pueden perder modelos pero nunca ganar nuevos. Este aspecto llamado monotonía merece una pequeña digresión. Es sabido que desde los filósofos griegos se ha distinguido un tipo de conocimiento llamado a veces “racional”, que podríamos decir es el que se obtiene a través de inferencias correctas a partir de determinados supuestos (que se consideran verdaderos). Algunos estudiosos han dicho que una de las características más salientes de ese tipo de conocimiento es que es inconmovible. Esto quiere decir, que una vez que alguien ha adquirido un conocimiento a través de inferencias deductivas partiendo de supuestos que tienen por verdaderos, ningún razonamiento hará que cambie Capítulo 6. Consecuencia semántica 114 el valor de verdad que le asigna a la proposición que representa su conocimiento en tanto mantenga esos supuestos. Y esto queda bien reflejado en lo que acabamos de decir. Supongamos que alguien partiendo de un conjunto Γ de premisas infiere deductivamente A. En nuestro marco esto es lo mismo que decir que ha advertido que Γ |= A. Supongamos ahora que aprende nuevos hechos, o sea, que acepta nuevas proposiciones a cuyo conjunto llamaremos ∆. Su conocimiento de A es inconmovible porque sea cual sea ∆, A será consecuencia semántica de Γ ∪ ∆. O sea que una vez que se ha aceptado una proposición A por medios deductivos, la aceptación de nuevas premisas, sean estas cuales sean, no hará cambiar la aceptación de A. Y esto puede parecer extraño pero un poco de reflexión muestra que no lo es. La inconmovibilidad se da solamente en tanto se mantengan todas las premisas que llevaron a A. Supongamos el caso extremo en el que lo nuevo que se acepta es ¬A. Según lo que venimos diciendo, A continuará siendo consecuencia semántica del nuevo conjunto. En símbolos: i. Γ |= A y el sujeto acepta A porque la ha deducido de las proposiciones contenidas en Γ. Ahora el sujeto acepta ¬A a la vez que mantiene su creencia en todas las proposiciones de Γ. Como Γ ∪ {¬A} |= A A sigue siendo una conclusión correctamente extraída de su (nuevo) conjunto de premisas, y si el sujeto se apega a la regla de creer todo aquello que puede deducir a partir de sus supuestos aceptados, debe continuar creyendo A a pesar de haber supuesto ¬A. Esto es así porque i indica que si una interpretación es modelo de Γ entonces es modelo de A o lo que es lo mismo, es contramodelo de ¬A. Por eso, no hay modelos de Γ ∪ {¬A}, o sea, el nuevo conjunto es insatisfacible y por lo tanto, toda proposición es consecuencia semántica de él. En particular Γ ∪ {¬A} |= A. En este caso, lo que tenemos es que el razonador alberga creencias incoherentes (el conjunto de fórmulas que representa sus creencias es insatisfacible). Por supuesto que se puede cambiar de creencias obtenidas racionalmente por medios también racionales, es decir, se puede dejar de creer una proposición que previamente ha sido aceptada porque se ha llegado a ella a través de inferencias deductivas correctas, pero para esto es necesario abandonar alguna de las premisas que llevaron a su aceptación. Nunca se abandona una conclusión obtenida lógicamente por medios puramente deductivos a causa del agregado de nuevas premisas. Es esta una de las diferencias más importantes entre las inferencias deductivas y las no deductivas. En una inferencia deductiva nunca se debilita el grado de apoyo que las premisas dan a la conclusión por el agregado de nuevas premisas. En una inferencia inductiva el grado de apoyo que la conclusión recibe de las premisas puede cambiar drásticamente con el agregado de ellas. Aníbal Corti gusta de poner como ejemplo estas inferencias, que intuitivamente son respectivamente buena, mala, muy buena y horrible, y esos cambios abruptos en el apoyo que las premisas dan a la conclusión se van dando por el sucesivo agregado de una premisa3 : Piolín es un ave. Piolín vuela Piolín es un ave. Piolín vive en la Antártida Piolín es un ave. Piolín vive en la Antártida Piolín no es un pingüino Piolín vuela Piolín vuela Piolín es un ave. Piolín vive en la Antártida Piolín no es un pingüino Piolín nació sin alas Piolín vuela Es decir, la inferencia inductiva es no monótona. 3 Ejemplo presentado en la Primera Escuela de Argumentación y Lógica Informal, Montevideo, 2011. 6.6 El condicional asociado 6.6 115 El condicional asociado ¿Cómo evaluar si una proposición dada es consecuencia semántica de un conjunto dado? Hicimos esa evaluación para la formalización del argumento de Gamaliel más arriba, pero el método que usamos, si bien concluyente, no podemos decir que haya sido sistemático. Intentemos desarrollar un método sistemático para el caso en que Γ sea un conjunto finito. Sea Γ = {A1 , ..., An } y consideremos el problema de determinar si Γ |= B. Según el Teorema 4.5.1, todo modelo del conjunto Γ es modelo de la fórmula (A1 ∧ ... ∧ An ), y recíprocamente, todo modelo de esta fórmula es modelo de Γ. Esto permite reducir el problema de la consecuencia semántica a la relación de valores de verdad de dos fórmulas: (A1 ∧ ... ∧ An ) y B. Supongamos que se da la relación de consecuencia semántica. Decir que todo modelo de Γ es modelo de B es equivalente a decir que toda interpretación que asigne V a la fórmula (A1 ∧ ... ∧ An ) también asignará V a la fórmula B, o lo que es lo mismo, que toda interpretación que asigne F a B, asignará F a (A1 ∧ ... ∧ An ). La relación de consecuencia semántica impone restricciones a las combinaciones de valores de verdad de esas dos fórmulas que se muestran en la siguiente tabla: (A1 ∧ ... ∧ An ) B Si {A1 , ..., An } |= B, tenemos V V F F V F V F Caso permitido Caso prohibido Caso permitido Caso permitido ¿Cómo distinguir el “caso prohibido” de los restantes? Es obvia la similitud de esta “metatabla” con la tabla de verdad del condicional. Si consideramos el condicional (A1 ∧ ... ∧ An ) → B vemos que será falso si y solo si estamos en el “caso prohibido”, o sea si existe una interpretación que sea modelo de Γ y no lo sea de B. Esto nos lleva a decir que si ese condicional es verdadero bajo toda interpretación entonces Γ |= B, y recíprocamente, si Γ |= B entonces el condicional es verdadero bajo toda interpretación. Hemos demostrado así el Teorema 6.6.1 — Condicional asociado. {A1 , ..., An } |= B si y solo si (A1 ∧ ... ∧ An ) → B es una tautología. Ese condicional se llama condicional asociado al par (Γ, B) No es ocioso repetir que encontrar una sola interpretación que hace falso al condicional asociado es encontrar una interpretación que hace verdadera a la conjunción que le sirve de antecedente a la vez que hace falsa a la fórmula que le sirve de consecuente, y esto equivale a encontrar un modelo de Γ que no es modelo de B. Si ninguna interpretación logra eso es porque todos los modelos de Γ son modelos de B. De ahí que surge este fortísimo resultado que nos permite reducir el problema de evaluar si una fórmula es consecuencia semántica de un conjunto finito de fórmulas a determinar si una fórmula (el condicional asociado) es una tautología. En el caso en que Γ sea insatisfacible, la conjunción que sirve de antecedente al condicional asociado será una contradicción (porque ninguna interpretación puede hacer simultáneamente verdaderas a todas las Aes) y entonces el condicional asociado, al tener como antecedente una contradicción será tautológico sin importar cual sea la fórmula B que le sirva de consecuente. Capítulo 6. Consecuencia semántica 116 Esperábamos este resultado ya que habíamos afirmado que cualquier fórmula es consecuencia semántica de un conjunto insatisfacible. Ejemplo 6.2 Determinar si se cumple {(p1 ∨ p2 ), ¬p2 } |= (p1 ∧ (p2 → p3 )) Evaluemos la tabla de verdad de su condicional asociado: ∨ V V V V V V F F (((p1 V V V V F F F F ∧ F F V V F F F F p2 ) V V F F V V F F ¬p2 ) F F V V F F V V → V V V V V V V V (p1 V V V V F F F F ∧ V F V V F F F F (p2 V V F F V V F F → V F V V V F V V p3 ))) V F V F V F V F Observe que hemos dispuesto una única columna bajo ¬p2 colocando en ella los valores de verdad asignados al compuesto, en vez de utilizar dos columnas, una para la letra proposicional y otra para el conectivo unario que la afecta. Es la práctica usual, que simplifica en algo la presentación. El resultado es, por supuesto, que dado que el condicional asociado es tautológico, hay relación de consecuencia semántica. Ejemplo 6.3 Es trivial observar que {p1 } 2 (p1 ∧ p2 ) ya que el condicional asociado (p1 → (p1 ∧ p2 )) no es tautológico, como el lector comprobará fácilmente. Ejemplo 6.4 Determinar si se cumple {(p1 ∧ p2 ), (p1 →(p4 ∨ p3 ))}|=(p4 ∨ p3 ) Construyamos el condicional asociado al par que tenemos entre manos: ((p1 ∧ p2 ) ∧ (p1 → (p4 ∨ p3 ))) → (p4 ∨ p3 ) Debemos investigar si es una tautología. Podríamos hacerlo desarrollando la tabla de verdad, lo que sería muy trabajoso ya que en este caso sería una tabla con 16 líneas. ¿Qué procedimiento alternativo tenemos para saber si ese condicional es o no tautológico? Recordemos el inicio de este trabajo, cuando analizamos el argumento de Gamaliel. En esa ocasión supusimos que una interpretación hacía V a las premisas y F a la conclusión. De ahí obteníamos una contradicción. Análogamente ahora podemos buscar una interpretación que haga F el consecuente y V el antecedente. Si la encontramos, el condicional asociado no es tautológico y si arribamos a una contradicción a partir de la suposición de que existe, el condicional asociado es tautológico. Desarrollaremos el procedimiento en mucho mayor detalle que el necesario, para que se comprenda su funcionamiento. (((p1 1 2 3 4 5 ∧ p2 ) ∧ (p1 → (p4 ∨ p3 ))) → F (p4 V p3 )) F V V ∨ V V F F F F F X Explicación: En cada fila se va desarrollando un paso del razonamiento hecho en el orden en que fue realizado. 6.7 El teorema de deducción (versión semántica) 117 1. Suponemos que el condicional asociado es F. 2. Si el condicional asociado es falso, su antecedente es V y su consecuente es F, lo que se marca bajo cada uno de los conectivos principales. 3. Al ser falsa la disyunción del consecuente, p4 y p3 son falsas, y al ser verdadera la conjunción del antecedente, las fórmulas (p1 ∧ p2 ) y (p1 →(p4 ∨ p3 )) son verdaderas, lo que se marca bajo sus conectivos principales. 4. Al ser verdadera (p1 ∧ p2 ), tanto p1 como p2 son verdaderas. Además, en la fila 3 habíamos deducido que p4 y p3 son falsas, por lo que (p4 ∨ p3 ) es falsa. 5. El condicional (p1 →(p4 ∨ p3 )) es verdadero (fila 3) y su consecuente es falso (fila 4). Entonces su antecedente p1 es falso. Pero p1 es verdadero (fila 4). Contradicción. Ninguna interpretación hace que antecedente del condicional asociado sea verdadero y a la vez su consecuente falso, o sea que el condicional asociado es tautológico y hay relación de consecuencia semántica. 6.7 El teorema de deducción (versión semántica) El teorema de deducción es un muy importante resultado que expresa algo que puede parecer una perogrullada, pero tiene consecuencias de muy largo alcance. Antes de enunciarlo, expliquemos una notación que simplificará las cosas. En vez de Γ∪{A} escribamos Γ, A lo que resulta más cómodo. Supongamos que se cumple i. Γ, A |= B o sea, B es consecuencia semántica del conjunto formado por las fórmulas de Γ y la fórmula A. El teorema de deducción afirma que en esas circunstancias se cumple ii. Γ |= (A → B) y recíprocamente, que si cumple ii se cumple i. Observe el lector que si en el enunciado se sustituyera → por ∧, ∨ o ↔ no obtendríamos algo que se cumple en todos los casos. ¿Qué es lo que nos dice el teorema de deducción acerca de la validez argumental? Por un lado, que dado un argumento válido tal que una de cuyas premisas es A y su conclusión es B, también será válido el argumento que tiene las mismas premisas excepto A y como conclusión el condicional A → B. O sea, a partir de cualquier argumento válido que tenga al menos una premisa, podemos obtener otro argumento válido que tiene una premisa menos. Obsérvese que si se trata de un argumento con una cantidad finita de premisas, la repetición del procedimiento nos lleva a concluir algo a partir del conjunto vacío, o sea, terminamos en una forma tautológica. Por otro lado, que dado un argumento válido con conclusión en forma de condicional, también será válido el argumento que se obtenga agregando el antecedente de la conclusión a las premisas, y dejando como nueva conclusión el consecuente. O sea, este resultado, considerado desde el punto de vista de la corrección argumental, nos dice que la corrección lógica de ciertos argumentos asegura la corrección de otros, relacionados con el primero en forma precisa, y recíprocamente. De manera que ciertos argumentos son tales que o bien son todos válidos o bien son todos inválidos, no pueden ser unos válidos y otros inválidos. Pasemos al enunciado preciso y la demostración: Teorema 6.7.1 — Deducción (versión semántica). Para todo conjunto de fórmulas Γ y para cualesquiera fórmulas A y B: Γ, A |= B si y solo si Γ |= (A → B). 118 Capítulo 6. Consecuencia semántica Demostración: Trabajaremos con los contrarrecíprocos: Demostraremos que si no se cumple Γ |= (A → B), entonces no se cumple Γ, A |= B; y que si no se cumple Γ, A |= B, entonces no se cumple Γ |= (A → B). Supongamos Γ 2 (A → B)4 . En este caso tendríamos un modelo de Γ que sería contramodelo de (A → B), o sea, que sería modelo de A y contramodelo de B. Pero si existe un modelo de Γ que es además modelo de A y contramodelo de B, entonces Γ, A 2 B. Recíprocamente, supongamos que Γ, A 2 B. En ese caso tendríamos un modelo de Γ y de A que es contramodelo de B. Pero esa interpretación sería modelo de Γ y contramodelo de (A → B), por lo que Γ 2 (A → B). Introduzcamos un nuevo concepto, el de implicación. Definición 6.7.1 — Implicación. Una fórmula A implica una fórmula B si y solo si todos los modelos de A son modelos de B, o sea, si y solo si {A} |= B. A partir del teorema de deducción, es evidente el siguiente Corolario 6.7.2 A implica B si y solo si A → B es una tautología. 6.8 El “absurdo” Se trata de un teorema que justifica un tipo de razonamiento muy común. Su enunciado es Teorema 6.8.1 — El “absurdo”. Para todo conjunto Γ y toda fórmula A, Γ |= A si y solo si Γ, ¬A es insatisfacible. Frecuentemente se razona de esta manera: se acepta un conjunto de proposiciones que se consideran establecidas Γ, al que se le adjunta la negación de una proposición A. Si se encuentra que el nuevo conjunto que se obtiene es insatisfacible se rechaza la negación que se había adjuntado y se acepta la proposición A. Esa aceptación se debe a que A es consecuencia de un conjunto de proposiciones que se consideran establecidas. Demostración: Si Γ |= A todo modelo de Γ es modelo de A y por lo tanto, todo modelo de Γ es contramodelo de ¬A. Se concluye que Γ, ¬A no tiene modelos, o sea, es insatisfacible. Por otro lado, si Γ, ¬A es insatisfacible, todo modelo de Γ es contramodelo de ¬A, y por lo tanto, todo modelo de Γ es modelo de A, o sea Γ |= A. 4 Por supuesto, el símbolo 2 se utiliza para significar que la fórmula que le sigue no es consecuencia semántica del conjunto que le precede. 6.9 Ejercicios 6.9 119 Ejercicios 1. Evalúe si es correcto lo que se afirma en cada caso. Si no es correcto, encuentre un modelo del conjunto dado que sea contramodelo de la fórmula dada. a) {((p1 ∧ p2 ) → p2 ), p3 } |= (¬p2 → ¬(p1 ∧ p2 )) b) {p1 } |= (p1 ∨ (¬¬p2 → (p4 ↔ p1 )) c) {((p2 → p4 ) → p3 )} |= (¬p3 → ¬(p2 → p4 )) d) {((p1 ↔ p2 ) ∧ (p2 ↔ p1 )), p3 , (p4 ∨ p4 )} |= p1 e) {¬(p1 → p2 ), ¬p1 } |= (p3 ∧ p1 ) f ) {(p1 ∨ (p1 → p2 )), ¬(p1 → p2 )} |= p1 2. Mostrar que cualquier consecuencia semántica de un conjunto de tautologías es una tautología. 3. 4. 5. 6. 7. 8. Comentario: El filósofo David Stove afirma que los filósofos tienen un comprensible interés en generar argumentos que cumplan las siguientes tres características: a) Tengan premisas absolutamente ciertas. b) Sean totalmente correctos desde el punto de vista lógico. c) Tengan conclusiones interesantes. Desde el punto de vista proposicional, es obvio que las proposiciones que mejor cumplen (i) son las tautologías y las que mejor cumplen (iii) son las contingencias –proposiciones que expresan algo que podría haber sido de otra manera-. Por lo tanto, se trata de un ideal inalcanzable. Stove dice haber identificado importantes argumentos en la historia de la filosofía que adolecen de algo análogo a tener premisas tautológicas y conclusión contingente: sin más análisis, se puede afirmar que no son válidos. Sea Γ un conjunto de fórmulas y sea Cons(Γ) el conjunto de las fórmulas que son consecuencia semántica de Γ. a) Demuestre que Cons(Γ) es infinito sin importar cuál sea Γ. b) Sea A una fórmula que pertenece a Cons(Γ). Demuestre que la fórmula (X→A) pertenece a Cons(Γ) sin importar cuál sea X. ¿Se puede decir lo mismo de (A→X)? c) Sea A una fórmula que pertenece a Cons(Γ) y sea B una fórmula que pertenece a Cons({A}). Demostrar que, siendo X cualquier fórmula se cumple Γ ∪ {¬B} |=X. Demuestre que Cons(Cons(Γ)) = Cons(Γ). Sean A, B y C fórmulas tal que C es consecuencia semántica del conjunto {A, B}. Demostrar que (A→(B→C)) es una tautología. Sea Γ un conjunto de fórmulas tal que: a) Todas las tautologías pertenecen a Γ. b) Para cualesquiera dos fórmulas A y B, si A y (A→B) pertenecen a Γ, entonces B pertenece a Γ. a) Mostrar que si A y B pertenecen a Γ, entonces (A∧B) pertenece a Γ. b) Mostrar que si A y ¬A pertenecen a Γ, entonces toda fórmula del lenguaje Λ pertenece a Γ. a) Sean A1 , A2 ,...,An , ϕ, ψ, χ, ξ fórmulas cualesquiera tales que se cumple: {A1 , A2 , ..., An } |= ϕ Demostrar que: (χ → ((A1 ∧ A2 ∧ ... ∧ An ∧ ψ) → (ϕ ∨ ξ ))) es tautología. b) En la siguiente “fórmula” se consideran todas las letras proposicionales indizadas entre 1 y n. Demostrar que: [(p1 ∨ ¬p1 ) → ((¬p1 ∧ p2 ∧ ... ∧ pn ∧ (p4 → p3 )) → (¬(p1 ∨ ¬p2 ) ∨ (p4 → p3 ))] es tautología. Sea A un conjunto de fórmulas, ϕ y ψ fórmulas tales que: A, ϕ |= ψ 120 Capítulo 6. Consecuencia semántica A, ψ |= ϕ A |= ((ϕ ∧ ¬ψ) ∧ (ψ ∧ ¬ϕ)) Demuestre que A es insatisfacible. 9. Sea Γ un conjunto satisfacible que cumple que, dada cualquier fórmula X del lenguaje, o bien Γ|=X o bien Γ|=¬X. Defina ahora una valuación v de modo que v(X)=V si y solo si Γ|=X. Demuestre que v es una interpretación. Suponga ahora que se define una valuación u de modo que u(X)=V si y solo si Γ|=¬X. ¿Es u una interpretación? 10. Traduzca los siguientes argumentos al lenguaje de la lógica proposicional y evalúe su corrección a través de la la evaluación de la relación de consecuencia semántica entre el conjunto de premisas y la conclusión. a) Si la ética depende de la voluntad de Dios, entonces las cosas buenas son buenas porque Dios las quiere. Las cosas buenas no son buenas porque Dios las quiera. La ética no depende de la voluntad de Dios. b) Si Dios existe en el entendimiento y no en la realidad, es concebible un ser mayor que Dios. Es falso que se puede concebir un ser mayor que Dios. Dios existe en el entendimiento. Dios existe en la realidad. c) Si la existencia es una perfección y Dios, por definición, tiene todas las perfecciones, entonces Dios por definición, debe existir. Dios por definición tiene todas las perfecciones. La existencia es una perfección. Por definición, Dios debe existir. d) Si tenemos conocimiento, entonces o algunas cosas son conocidas sin prueba o podemos probar toda premisa mediante premisas previas, y así sucesivamente. No podemos probar toda premisa mediante premisas previas y así sucesivamente pero tenemos conocimiento. Algunas cosas son conocidas sin prueba. e) Si wu shu entonces miao o wu-wei. Pero no wu-wei. Además, si chung, entonces no miao. Y chung. Por lo tanto, no wu shu. 11. Traduzca los siguientes argumentos al lenguaje de la lógica proposicional y evalúe su corrección a través de la la evaluación de la relación de consecuencia semántica entre el conjunto de premisas y la conclusión. En el caso de que su estudio no corrobore la validez del argumento, indique si considera que se trata de un argumento inválido o de un argumento válido cuya validez no queda capturada por su estructura en términos de conectivos proposicionales. a) Laika es una perra. Laika tiene dos orejas. Por lo tanto, existe una perra que tiene dos orejas. b) Laika es una perra. Laika tiene dos orejas. Por lo tanto, todos los perros tienen dos orejas. c) Todas las hormigas son insectos. Si todas las hormigas son insectos y todos los insectos tienen seis patas, entonces todas las hormigas tienen seis patas. Es falso que existan insectos que no tienen seis patas. Por lo tanto, todas las hormigas tienen seis patas. d) Todas las hormigas son insectos. Si todas las hormigas son insectos y todos los insectos tienen seis patas, entonces todas las hormigas tienen seis patas. Es falso que existan insectos que no tienen seis patas. Por lo tanto, ninguna hormiga tiene cinco patas. e) Todos los hombres son mortales. Sócrates es hombre. Sócrates es mortal. f ) Todos los hombres son mortales. Sócrates es hombre. Si todos los hombres son mortales y Sócrates pertenece a la especie Homo sapiens, entonces Sócrates no es inmortal. g) Si Dios creó algo, entonces Dios creó todo. Dios creó todo. Por lo tanto, Dios creó algo. [Este argumento fue presentado por Carlos Oller en el coloquio sobre Vaz Ferreira, Montevideo, 2011 en el marco de una ponencia en la que analizaba la capacidad de la lógica formal para decidir absolutamente sobre la invalidez de un argumento, inspirado en Oliver: “Formal Fallacies and other invalid arguments”, Mind, octubre de 1967.] 6.9 Ejercicios 121 h) Si el cielo es azul, entonces la atmósfera tiene varios kilómetros de altura o está cargada de partículas. Para que el cielo sea azul es necesario y suficiente que la atmósfera se comporte como un prisma ajustado a esa longitud de onda. La atmósfera está cargada de partículas y la dirección del campo magnético terrestre no es Este-Oeste. Si la atmósfera se comporta como un prisma ajustado a esa longitud de onda, entonces el campo magnético terrestre está en dirección Este-Oeste. Por todo esto, concluimos que la atmósfera tiene varios kilómetros de altura. i) Si el cielo es azul, entonces la atmósfera tiene varios kilómetros de altura o está cargada de partículas. Para que el cielo sea azul es necesario y suficiente que la atmósfera se comporte como un prisma ajustado a esa longitud de onda. La atmósfera está cargada de partículas y la dirección del campo magnético terrestre no es Este-Oeste. Si la atmósfera se comporta como un prisma ajustado a esa longitud de onda, entonces el campo magnético terrestre está en dirección Este-Oeste. Por todo esto, concluimos que Venus presenta fases. j) Si el cielo es azul, entonces la atmósfera tiene varios kilómetros de altura o está cargada de partículas. Para que el cielo sea azul es necesario y suficiente que la atmósfera se comporte como un prisma ajustado a esa longitud de onda. La atmósfera está cargada de partículas y la dirección del campo magnético terrestre no es Este-Oeste. Si la atmósfera se comporta como un prisma ajustado a esa longitud de onda, entonces el campo magnético terrestre está en dirección Este-Oeste. Por todo esto, concluimos que la atmósfera no tiene varios kilómetros de altura. k) Si el cielo es azul, entonces la atmósfera tiene varios kilómetros de altura o está cargada de partículas. Para que el cielo sea azul es necesario y suficiente que la atmósfera se comporte como un prisma ajustado a esa longitud de onda. La atmósfera está cargada de partículas y la dirección del campo magnético terrestre no es Este-Oeste. Si la atmósfera se comporta como un prisma ajustado a esa longitud de onda, entonces el campo magnético terrestre no está en dirección Este-Oeste. Por todo esto, concluimos que la atmósfera tiene varios kilómetros de altura. 12. En el artículo “El caso Galileo” de Owen Gingerich, se presentan estos dos argumentos: i Si el sistema planetario es heliocéntrico, Venus muestra fases. El sistema planetario es heliocéntrico. Por consiguiente, Venus muestra fases. ii Si el sistema planetario es heliocéntrico, Venus muestra fases. Venus muestra fases. Por consiguiente, el sistema planetario es heliocéntrico. Gingerich afirma que Galileo basó su defensa del heliocentrismo, entre otros elementos, en el argumento (ii). Traduzca ambos argumentos al lenguaje de la lógica proposicional, evalúe la corrección argumental. ¿Le merece algún comentario el resultado obtenido? 7. Consecuencia sintáctica L introducir la importantísima noción de consecuencia semántica hemos podido utilizar el lenguaje formal L P para clasificar algunas inferencias como válidas. Sin embargo, hay una brecha importante entre nuestra práctica deductiva más o menos cotidiana cuando nos enfrentamos a un conjunto de premisas y buscamos una conclusión, o cuando queremos evaluar una inferencia, y lo que hacemos al evaluar si existe la relación de consecuencia semántica sobre el lenguaje formal. Esta diferencia se debe principalmente a que al intentar deducir, no solemos pensar en términos de modelos, ni tampoco evaluamos sistemáticamente todas las posibilidades, un procedimiento que parece ser lo que hacen en el fondo las tablas de verdad. A 7.1 7.1.1 Tras las huellas de los humanos Pensar como la gente Consideremos un ejemplo concreto. Recordemos uno de los problemas de la biblioteca ya resuelto: En el primer folio de Dragones se lee: “Dragones es obra de Mendacius y Esfinge es obra de Mendacius”. ¿Quiénes son los autores de estas obras? El lector puede referirse a la subsección 4.6.2 donde hallará la obtención de la solución por medio de tablas de verdad, o puede probar que el problema queda bien resuelto al establecer que Dragones es obra de Mendacius y Esfinge de Veratius a través de la verificación de que se tiene (utilizando la notación introducida en el mismo lugar anteriormente referido) {VD ↔ (¬VD ∧ ¬VE )} |= (¬VD ∧VE ) Pero es claro que estas formas de resolver o verificar la solución del problema se encuentran muy alejadas de lo que haría cualquiera que se enfrentase por primera vez a él. En esa situación, seguramente la mayoría de la gente razonaría en forma parecida a la que se mostró en 1.6.1. Examinaremos con detalle ese razonamiento “natural”, dividiéndolo en pasos que justificaremos. Capítulo 7. Consecuencia sintáctica 124 La siguiente tabla esquematiza ese trabajo inferencial. Recordemos que, debido a las reglas de la biblioteca, la condición de no haber sido escrito por Veratius es equivalente a la de haber sido escrito por Mendacius. Paso 1 2 3 4 5 6 Contenido Justificación Aceptamos que Dragones fue escrito por Veratius si y solo si Dragones y Esfinge no fueron escritos por Veratius. Suponemos que Dragones fue escrito por Veratius. Por las reglas de la bilioteca y lo dicho en Dragones. Aceptamos, bajo el supuesto hecho, que Dragones y Esfinge no fueron escritos por Veratius. Aceptamos, bajo el supuesto, que Dragones no fue escrito por Veratius. Aceptamos, bajo el supuesto, que Dragones fue escrito por Veratius y que Dragones no fue escrito por Veratius. Rechazamos el supuesto de 2, o sea, aceptamos que Dragones no fue escrito por Veratius. 7 Suponemos que Esfinge no fue escrito por Veratius. 8 Aceptamos, bajo el supuesto de 7, que Dragones no fue escrito por Veratius y Esfinge no fue escrito por Veratius. Aceptamos, bajo el supuesto de 7, que Dragones fue escrito por Veratius. Aceptamos, bajo el supuesto de 7, que Dragones fue escrito por Veratius y que Dragones no fue escrito por Veratius. Rechazamos el supuesto de 7, o sea, aceptamos que Esfinge fue escrito por Veratius. 9 10 11 12 Aceptamos que Dragones no fue escrito por Veratius y Esfinge fue escrito por Veratius. Esperamos llegar a una contradicción bajo ese supuesto, lo que nos obligaría a rechazarlo. Por 1 y 2. Por 3. Por 2 y 4. Porque las contradicciones no son aceptables, y por tanto no podemos aceptar la contradicción de 5. Pero aceptar el supuesto de 2 nos obligaría a ello. Esperamos llegar a una contradicción bajo ese supuesto, lo que nos obligaría a rechazarlo. Por 6 y 7. Por 1 y 8. Por 9 y 6. Porque las contradicciones no son aceptables, y por tanto no podemos aceptar la contradicción de 10. Pero aceptar el supuesto de 7 nos obligaría a ello. Por 6 y 11. Habrá observado el lector que al justificar los pasos inferenciales no aparecen referencias explícitas a conceptos semánticos -con excepción de la contradicción- sino que se apela siempre a la posibilidad de aceptar determinadas proposiciones en ciertas circunstancias, por razones concernientes a la función que cumplen en la inferencia (premisas y supuestos) o por haber 7.1 Tras las huellas de los humanos 125 aceptado ya otras proposiciones con determinadas características sintácticas, como por ejemplo, en el paso 9, aceptamos un una proposición porque es uno de los conyuntos de una conjunción ya aceptada. Además, el razonamiento tomó la forma de una secuencia de proposiciones que iban siendo tomadas como sabidas, aceptadas porque ya habíamos aceptado otras, o supuestas. Nuestro objetivo ahora será la obtención de un conjunto de reglas que nos permitan construir secuencias inferenciales, de tal modo que esas reglas dependan únicamente de la forma de las fórmulas en la secuencia, o sea, serán reglas puramente sintácticas. Por supuesto, nuestro objetivo será además que las reglas sean tales que al generar una secuencia a partir de un conjunto de fórmulas, obtengamos siempre como último elemento de la secuencia una fórmula que sea consecuencia semántica de las que utilizamos como base para construir la secuencia. Dicho en forma más clara: queremos generar un procedimiento que nos permita evaluar la validez, pero que solo dependa de consideraciones sintácticas. Hay varias formas de lograr eso, pero en este curso elegiremos una que fue creada especialmente para “copiar” el razonamiento humano. Ahora valorará el lector la propiedad de la metáfora del microscopio empleada por Frege en el pasaje citado en la sección 2.4. Examinaremos con sumo detalle el razonamiento hecho, “rastreando” paso a paso el procedimiento inferencial y observando muy cuidadosamente cada avance. Nuestra inferencia se verá como una secuencia de fórmulas, que terminará en la que representa la conclusión, o sea la solución del problema. Intentaremos explicar cómo justificaríamos cada paso a partir de consideraciones puramente sintácticas. No está de más advertir que para hacer eso debemos dar reglas que nos permitan la construcción de secuencias inferenciales. Esas reglas, si bien deben ser sintácticas, deberán tener un respaldo semántico, en el sentido de que deseamos evitar a toda costa la posibilidad de que ellas nos permitan partir de algunas fórmulas y arribar a otra que no sea consecuencia de ellas. Comencemos entonces ese examen de la inferencia presentada: Las reglas de la biblioteca nos obligan a aceptar que Dragones fue escrito por Veratius si y solo si él mismo y Esfinge fueron escritos por Mendacius. Esa proposición, que simbolizamos como VD ↔ (¬VD ∧ ¬VE ) (recordemos que en la biblioteca todos los libros fueron escritos por Veratius o por Mendacius, es imposible que algún algún libro sea obra de los dos y que representábamos la proposición “X fue escrito por Veratius” como VX 1 ) es la base de nuestros razonamientos. Paso 1: Aceptamos VD ↔ (¬VD ∧ ¬VE ) Esta aceptación no es más que la de las bases para comenzar a razonar: allí se contienen de algún modo las reglas de la biblioteca (en el bicondicional) y los datos aportados por Dragones (en el miembro derecho del mismo bicondicional). O sea, esta es la premisa de nuestro argumento. Por ahora, nuestro desarrollo se ve muy modesto, y lo podemos presentar así: 1 Fórmula Justificación VD ↔ (¬VD ∧ ¬VE ) Premisa Observaciones ¿Estamos justificados siempre en aceptar una premisa? La respuesta es: por supuesto. En todo punto de una secuencia inferencial puede agregarse una premisa. Quien toma una premisa para desarrollar una inferencia no necesariamente se está comprometiendo con su verdad. Simplemente está intentando extraer las consecuencias que de ella (y otras, quizá) se siguen. Por supuesto, al enfrentarse a una inferencia concreta uno debe tomar únicamente las premisas dadas, porque de otro modo estaría extrayendo consecuencias de proposiciones arbitrarias. Pero en principio, podemos establecer esta regla: 1 El lector se habrá percatado de que para no complicar la notación, tomamos la inicial del nombre de X al subindizar. Capítulo 7. Consecuencia sintáctica 126 En una secuencia inferencial siempre se puede introducir cualquiera de las premisas de la inferencia. Para justificar esa inclusión, basta apelar a su calidad de premisa. Paso 2: Suponemos que Dragones fue escrito por Veratius, o sea, suponemos VD . Esto puede parecer arbitrario, pero es necesario notar lo siguiente: al suponer que Dragones fue escrito por Veratius, no estamos comprometiéndonos con que así sea, ni tampoco con que “Dragones fue escrito por Veratius” se siga de lo que hemos aceptado hasta ahora. La suposición es una “apuesta” que hacemos con la esperanza de que nos permita avanzar en la inferencia. Es importantísimo notar que a partir de ahora debemos tener cuidado al distinguir cuáles proposiciones de las que infiramos se dan bajo la condición de que Dragones haya sido escrito por Veratius y cuáles son independientes de ella. El punto es que inferir que bajo la condición de que Dragones haya sido escrito por Veratius se cumple una proposición p, puede llevarnos a inferir justificadamente algo en forma independiente de esa suposición, pero seguramente dependiente de lo que sea p. ¿Y cuáles proposiciones se pueden introducir como supuestos? En esto hay total libertad. Lo que sucede es que podemos hacer supuestos que no nos lleven a ningún lado. Es muy obvio que si en el razonamiento hubiéramos supuesto la proposición “Llueve”, difícilmente estaríamos haciendo algo que nos ayudara a encontrar la solución. Tenemos una nueva regla: En una secuencia inferencial siempre se puede introducir cualquier proposición, justificándola como supuesto. Por ahora, tenemos: 1 2 Fórmula Justificación VD ↔ (¬VD ∧ ¬VE ) VD Premisa Supuesto Observaciones Paso 3: Utilizando el bicondicional del paso 1 y que hemos supuesto su miembro izquierdo en el paso 2, inferimos su miembro derecho, o sea, inferimos que Dragones no fue escrito por Veratius y Esfinge no fue escrito por Veratius, o sea ¬VD ∧ ¬VE . ¿Qué puede justificar esto? Una justificación puede ser dada considerando modelos. Es muy fácil ver que se cumple {VD ↔ (¬VD ∧ ¬VE ), VD } |= (¬VD ∧ ¬VE ). Pero podemos pensar en términos puramente sintácticos (por más que estemos apoyados en esa consideración semántica), extrayendo una regla puramente sintáctica que servirá universalmente en las deducciones, y que podemos expresar así: Si en una secuencia inferencial se tiene un bicondicional y uno de sus miembros, se puede agregar el otro miembro a la secuencia. Esto en realidad nos da dos reglas, que llamaremos Regla E↔ i y Regla E↔ d y representaremos así: Regla E↔ i A↔B B Regla E↔ d A↔B A A B 7.1 Tras las huellas de los humanos 127 Estas representaciones deben entenderse del siguiente modo: siempre que en una secuencia inferencial se disponga de las fórmulas de la forma que se indican sobre la línea horizontal (sin importar el orden en que aparecen o si hay fórmulas en el medio), se puede agregar a la secuencia la fórmula que queda indicada bajo la línea. Son reglas puramente sintácticas. La que acabamos de enunciar nos basta como justificación, aunque en el caso de la inferencia que tenemos entre manos, se debe recordar que lo que agregamos lo hacemos bajo el supuesto que introdujimos en el paso 2. La secuencia tiene ahora este aspecto: 1 2 3 Fórmula Justificación Observaciones VD ↔ (¬VD ∧ ¬VE ) VD ¬VD ∧ ¬VE Premisa Supuesto Regla E↔ d aplicada a 1 y 2 Bajo el supuesto de 2. Paso 4: La conjunción del paso 3 nos permite inferir cualquiera de sus conyuntos, y en este caso inferimos ¬VD . Nuevamente, consideraciones sobre modelos permiten justificar ese paso inferencial. Y nuevamente, lo que surge es una regla puramente sintáctica, a saber: Si en una secuencia inferencial se tiene una conjunción, se puede agregar cualquiera de los conyuntos a la secuencia. Esto también se desdobla en dos reglas, que llamaremos E∧ i y E∧ d: Regla E∧ i A∧B Regla E∧ d A∧B A B La aplicación de la regla justifica el paso, y seguimos trabajando bajo el supuesto introducido: 1 2 3 4 Fórmula Justificación Observaciones VD ↔ (¬VD ∧ ¬VE ) VD ¬VD ∧ ¬VE ¬VD Premisa Supuesto Regla E↔ d aplicada a 1 y 2 Regla E∧ i aplicada a 3 Bajo el supuesto de 2. Bajo el supuesto de 2. Paso 5: Utilizando el supuesto del paso 2 y lo inferido en el paso 4, inferimos la conjunción de ambas proposiciones, en este caso VD ∧ ¬VD . Parece de Perogrullo decir que se puede inferir la conjunción de proposiciones aceptadas o supuestas, ya que el respaldo semántico a esto es obvio. Así extraemos la regla sintáctica: En una secuencia inferencial, se puede agregar la conjunción de dos miembros previos. que llamaremos I∧ y representaremos así: Capítulo 7. Consecuencia sintáctica 128 Regla I∧ A B A∧B Nuestra secuencia va tomando este aspecto: 1 2 3 4 5 Fórmula Justificación Observaciones VD ↔ (¬VD ∧ ¬VE ) VD ¬VD ∧ ¬VE ¬VD VD ∧ ¬VD Premisa Supuesto Regla E↔ d aplicada a 1 y 2 Regla E∧ i aplicada a 3 Regla I∧ aplicada a 2 y 4 Bajo el supuesto de 2. Bajo el supuesto de 2. Contradicción bajo el supuesto de 2. Paso 6: A partir de la subsecuencia que empieza en 2 (el supuesto VD ) y termina en 5 (una contradicción) inferimos la negación del supuesto, o sea ¬VD . La justificación de este paso es delicada. El apoyo semántico que tiene, sin embargo es simple: Si el supuesto hecho fuese verdadero (en el marco dado por las otras proposiciones aceptadas), entonces también lo sería la contradicción, porque hemos llegado a ella a través de reglas que fueron elegidas de modo que mantienen la consecuencia semántica. Por lo tanto, dado que las contradicciones no pueden ser verdaderas, el supuesto hecho tampoco puede serlo y debe ser verdadera su negación, que es lo que afirmamos. Debemos observar algunos puntos: A diferencia de los otros pasos que hemos dado, este no se justifica por una o dos líneas anteriores, ni por la inclusión en la secuencia de una nueva proposición como premisa o supuesto. Se justifica por la existencia de una subsecuencia que comienza con el supuesto y termina en una contradicción. Recordemos que estamos buscando criterios sintácticos (esto es, únicamente basados en la morfología de las fórmulas) que nos permitan hacer la deducción. Pero “contradicción” es un concepto semántico, según lo hemos definido: recordará el lector que una contradicción es una fórmula que no tiene modelos. Debemos, por tanto, establecer un criterio sintáctico de reconocimiento de contradicciones que nos permita realizar pasos inferenciales como el que estamos comentando. No podemos aceptar que cualquier contradicción –en sentido semántico– sea lo que consideremos una contradicción en sentido sintáctico, porque las contradicciones no tienen una forma característica o única. Por eso, elegiremos una de esas formas, una de las más simples, para dar la siguiente Definición 7.1.1 — Contradicción (en sentido sintáctico). Una contradicción en sentido sintáctico es una fórmula de la forma B ∧ ¬B. Esto nos lleva a postular la siguiente regla sintáctica: En una secuencia inferencial, luego de una subsecuencia que comienza con una fórmula introducida como supuesto y termina con una fórmula de la forma B ∧ ¬B, se puede agregar la 7.1 Tras las huellas de los humanos 129 negación del supuesto que da inicio a la subsecuencia. Esta regla será llamada I¬ , y la representaremos así: Regla I¬ [A] .. . B ∧ ¬B ¬A Algunas precisiones sobre esta representación: Los paréntesis rectos que rodean la “A” están ahí para indicar que se trata de un supuesto. Los puntos verticales indican la parte de la subsecuencia que queda entre el supuesto y la contradicción. Esta puede ser cualquiera, no hay restricciones a lo que allí se puede encontrar excepto, por supuesto, que debe tratarse de una subsecuencia formada respetando las reglas que estamos descubriendo y comentando. La justificación del paso en que se agrega la negación del supuesto debe referir a la regla I¬ y a la subsecuencia que comienza en el supuesto y termina en la contradicción. Si tenemos las líneas numeradas, esto es muy fácil. La secuencia quedará así, luego de aplicar este último paso: 1 2 3 4 5 6 Fórmula Justificación Observaciones VD ↔ (¬VD ∧ ¬VE ) VD ¬VD ∧ ¬VE ¬VD VD ∧ ¬VD ¬VD Premisa Supuesto Regla E↔ d aplicada a 1 y 2 Regla E∧ i aplicada a 3 Regla I∧ aplicada a 2 y 4 Regla I¬ aplicada a 2-5 Bajo el supuesto de 2. Bajo el supuesto de 2. Contradicción bajo el supuesto de 2. No depende del supuesto de 2. Habíamos dicho que esta regla presenta muchas sutilezas, y por ello, antes de proseguir con el siguiente paso, debemos detenernos a hacer algunas consideraciones. La primera de ellas, que tal vez el lector ya se estará preguntando, es acerca de las consecuencias de limitar la definición de contradicción sintáctica a fórmulas de la forma B ∧ ¬B. Un cuestionamiento legítimo es el siguiente: Si se hace un supuesto, y se encuentra una subsecuencia iniciada en él y terminada en una fórmula que es contradicción en sentido semántico pero no en sentido sintáctico, ¿podemos agregar a la cadena la negación del supuesto? La respuesta es “No”, y la razón para ello ya ha sido dada: si así hiciéramos, el criterio sería semántico, no sintáctico. Se podría pensar entonces en ir agregando reglas de modo que cada vez que se identifique una forma que sea la de una contradicción semántica, se cree una nueva regla que sea como la que tenemos, solo que aparezca la forma contradictoria identificada en lugar de B ∧ ¬B. Por ejemplo, se podría agregar una regla así: [A] .. . B ↔ ¬B ¬A Capítulo 7. Consecuencia sintáctica 130 Se podría hacer eso, pero el resultado sería una proliferación de reglas que no vemos como deseable. En realidad, nos quedaremos con esta regla que solo considera la forma B ∧ ¬B y volveremos más adelante sobre el punto de las “reglas” que nos parezcan adecuadas pero no introducimos. Bajo esta piedra se esconde un enorme cangrejo: para que nuestro sistema funcione como deseamos, es necesario lo siguiente (para capturar la forma de razonamiento que estamos discutiendo): Las reglas deben ser tales que a partir de una contradicción en sentido semántico cualquiera se debe poder construir una secuencia que finalice en una contradicción en sentido sintáctico. Esto es así porque nuestro razonamiento era del tipo: [A] .. . κ ¬A siendo κ una contradicción en sentido semántico. Por lo tanto, para que nuestro sistema de reglas funcione adecuadamente es necesario que siempre podamos obtener una secuencia de este tipo: κ .. . B ∧ ¬B de modo que tengamos algo así, recogiendo el razonamiento que nos permite llegar a la negación de un supuesto bajo el que se produce una contradicción en sentido semántico: n [A] .. . Supuesto κ .. . m B ∧ ¬B ¬A Regla I¬ n-m Esto que acabamos de exigir es una propiedad que debe tener nuestro sistema si queremos que funcione adecuadamente. Hacia el final del curso veremos que este aspecto está garantizado. La segunda consideración que debemos hacer concierne a los pasos de la subsecuencia que va desde el supuesto hasta la contradicción. ¿Podemos seguir usándolos para obtener nuevas cosas? Si el lector reflexiona un poco, se percatará de que todos esos pasos estaban afectados por el supuesto, y este no es una premisa, o sea, no es algo que podemos tomar como dado para hacer el razonamiento. Sin embargo, la negación del supuesto no depende de este. Por lo tanto, para seguir razonando con independencia del supuesto, debemos prescindir de él y de todo lo que obtuvimos afectado por él. Y es lo que haremos. Diremos que la aplicación de la regla I¬ cancela el supuesto que utiliza, y con eso queremos decir que no podemos seguir usando ese supuesto ni lo obtenido en los pasos afectados por este. De ese modo, una mejor representación de la secuencia que estamos generando sería: 7.1 Tras las huellas de los humanos 1 2 3 4 5 6 131 Fórmula Justificación Observaciones VD ↔ (¬VD ∧ ¬VE ) VD ¬VD ∧ ¬VE ¬VD VD ∧ ¬VD ¬VD Premisa Supuesto Regla E↔ d aplicada a 1 y 2 Regla E∧ i aplicada a 3 Regla I∧ aplicada a 2 y 4 Regla I¬ aplicada a 2-5 Bajo el supuesto de 2. Bajo el supuesto de 2. Contradicción bajo supuesto de 2. No depende del supuesto de 2. Hemos tachado lo que no podemos usar de aquí en más. De hecho, si quisiéramos saber qué otras cosas se infieren bajo el supuesto VD , nada nos impide volver a introducirlo posteriormente en la secuencia. Paso 7: Supongamos que Esfinge no fue escrito por Veratius, o sea, supongamos ¬VE . En el paso anterior inferimos que Dragones no fue escrito por Veratius. Es natural, por tanto, que guiemos la inferencia hacia la autoría de Esfinge. La de Dragones quedó establecida haciendo un supuesto, por lo que, siguiendo el excelente consejo Si con caldito va sanando caldito seguile dando.2 intentaremos determinarla a través de la misma estrategia, o sea, haciendo un supuesto esperando generar una contradicción. Esta vez será ¬VE . La secuencia inferencial queda así: 1 2 3 4 5 6 7 Fórmula Justificación VD ↔ (¬VD ∧ ¬VE ) VD ¬VD ∧ ¬VE ¬VD VD ∧ ¬VD ¬VD ¬VE Premisa Supuesto Regla E↔ d aplicada a 1 y 2 Regla E∧ i aplicada a 3 Regla I∧ aplicada a 2 y 4 Regla I¬ aplicada a 2-5 Supuesto Observaciones Bajo el supuesto de 2. Bajo el supuesto de 2. Contradicción bajo supuesto de 2. No depende del supuesto de 2. Paso 8: De lo inferido en el paso 6 y lo supuesto en el 7, inferimos la conjunción de ambos, ¬VD ∧ ¬VE . Por supuesto, la justificación es la regla I∧ y la secuencia queda así: 2 El refrán, que obviamente significa que las estrategias o procedimientos exitosos se deben repetir, fue escuchado por el autor innumerables veces jugando al ajedrez con gente de edad provecta, que ya no se encuentra entre nosotros. Al hacer una búsqueda en Google se encuentra que ese inmenso repositorio de información no lo recupera, aunque sí dos variantes, una mexicana “Si con atolito va sanando, atolito vámosle dando.”, y otra de la que no registra la procedencia, “Si con caldo de gallina va sanando, caldo de gallina váyanle dando”. Capítulo 7. Consecuencia sintáctica 132 1 2 3 4 5 6 7 8 Fórmula Justificación Observaciones VD ↔ (¬VD ∧ ¬VE ) VD ¬VD ∧ ¬VE ¬VD VD ∧ ¬VD ¬VD ¬VE ¬VD ∧ ¬VE Premisa Supuesto Regla E↔ d aplicada a 1 y 2 Regla E∧ i aplicada a 3 Regla I∧ aplicada a 2 y 4 Regla I¬ aplicada a 2-5 Supuesto Regla I∧ aplicada a 6 y 7 Bajo el supuesto de 2. Bajo el supuesto de 2. Contradicción bajo supuesto de 2. No depende del supuesto de 2. Bajo el supuesto de 7. Paso 9: De lo inferido en el paso 8 y el bicondicional de la premisa, inferimos VD . Esta vez la justificación es, como el lector ya habrá previsto, la regla E↔ i. La secuencia toma este aspecto: 1 2 3 4 5 6 7 8 9 Fórmula Justificación VD ↔ (¬VD ∧ ¬VE ) VD ¬VD ∧ ¬VE ¬VD VD ∧ ¬VD ¬VD ¬VE ¬VD ∧ ¬VE VD Premisa Supuesto Regla E↔ d aplicada a 1 y 2 Regla E∧ i aplicada a 3 Regla I∧ aplicada a 2 y 4 Regla I¬ aplicada a 2-5 Supuesto Regla I∧ aplicada a 6 y 7 Regla E↔ i aplicada a 1 y 8 Observaciones Bajo el supuesto de 2. Bajo el supuesto de 2. Contradicción bajo supuesto de 2. No depende del supuesto de 2. Bajo el supuesto de 7. Bajo el supuesto de 7. Paso 10: De lo inferido en el paso 9 y en el 6, inferimos VD ∧ ¬VD . La justificación es la regla I∧ aplicada a los elementos que se encuentran en sexto y noveno lugar. Es natural hacer esta inferencia porque era lo que buscábamos al hacer el supuesto del paso 7: llegar a una contradicción en sentido sintáctico que nos permita deshacernos del supuesto. El aspecto de la secuencia es: 1 2 3 4 5 6 7 8 9 10 Fórmula Justificación VD ↔ (¬VD ∧ ¬VE ) VD ¬VD ∧ ¬VE ¬VD VD ∧ ¬VD ¬VD ¬VE ¬VD ∧ ¬VE VD VD ∧ ¬VD Premisa Supuesto Regla E↔ d aplicada a 1 y 2 Regla E∧ i aplicada a 3 Regla I∧ aplicada a 2 y 4 Regla I¬ aplicada a 2-5 Supuesto Regla I∧ aplicada a 6 y 7 Regla E↔ i aplicada a 1 y 8 Regla I∧ aplicada a 9 y 6 Observaciones Bajo el supuesto de 2. Bajo el supuesto de 2. Contradicción bajo supuesto de 2. No depende del supuesto de 2. Bajo el supuesto de 7. Bajo el supuesto de 7. Contradicción bajo el supuesto de 7. 7.1 Tras las huellas de los humanos 133 Paso 11: De lo subsecuencia que comienza con el supuesto del paso 7 y termina en la contradicción del paso 10 inferimos la negación del supuesto, o sea ¬¬VE . La justificación, a esta altura, no requiere mayores comentarios: es la regla I¬ aplicada a la subsecuencia que va del paso 7 al 10. Pero hay algo a lo que es importante prestar mucha atención. Si estamos muy imbuidos del aspecto representacional de los signos que utilizamos, puede ser que caigamos en la tentación de razonar así en este paso: “He logrado inferir la negación del supuesto ¬VE , o sea, la negación de la negación de que Esfinge fue escrita por Veratius. La negación de ’Esfinge no fue escrita por Veratius’ es ’Esfinge fue escrita por Veratius’, o sea, lo que debo agregar a la secuencia es VE ”. Esto es un error para nuestros propósitos, y la razón es que se trata de una forma netamente semántica de razonar, que viola la regla sintáctica que nos hemos impuesto. Si hacemos un supuesto y llegamos a una contradicción, lo único que la regla I¬ nos permite hacer es agregar a la secuencia el supuesto precedido por ¬. Ninguna otra cosa. Recordemos además, que la utilización de la regla cancela el supuesto, por lo que la secuencia queda así: 1 2 3 4 5 6 7 8 9 10 11 Fórmula Justificación Observaciones VD ↔ (¬VD ∧ ¬VE ) VD ¬VD ∧ ¬VE ¬VD VD ∧ ¬VD ¬VD ¬VE ¬VD ∧ ¬VE VD VD ∧ ¬VD ¬¬VE Premisa Supuesto Regla E↔ d aplicada a 1 y 2 Regla E∧ i aplicada a 3 Regla I∧ aplicada a 2 y 4 Regla I¬ aplicada a 2-5 Supuesto Regla I∧ aplicada a 6 y 7 Regla E↔ i aplicada a 1 y 8 Regla I∧ aplicada a 9 y 6 Regla I¬ aplicada a 7-10 Bajo el supuesto de 2. Bajo el supuesto de 2. Contradicción bajo supuesto de 2. No depende del supuesto de 2. Bajo el supuesto de 7. Bajo el supuesto de 7. Contradicción bajo el supuesto de 7. No depende del supuesto de 7. Paso 12: De ¬¬VE , inferida en el paso anterior, inferimos VE . La justificación semántica es obvia: el valor de verdad de la negación de la negación de una proposición es el mismo que el de la proposición doblemente negada, por lo que de la primera podemos inferir la segunda. Entonces Si un elemento de una secuencia inferencial es la negación de la negación de una fórmula, se puede agregar esa fórmula a la secuencia. Esto requiere una nueva regla sintáctica que llamaremos E¬ y representaremos de este modo: Regla E¬ ¬¬A A Capítulo 7. Consecuencia sintáctica 134 Veamos cómo queda la secuencia luego de este paso: 1 2 3 4 5 6 7 8 9 10 11 12 Fórmula Justificación Observaciones VD ↔ (¬VD ∧ ¬VE ) VD ¬VD ∧ ¬VE ¬VD VD ∧ ¬VD ¬VD ¬VE ¬VD ∧ ¬VE VD VD ∧ ¬VD ¬¬VE VE Premisa Supuesto Regla E↔ d aplicada a 1 y 2 Regla E∧ i aplicada a 3 Regla I∧ aplicada a 2 y 4 Regla I¬ aplicada a 2-5 Supuesto Regla I∧ aplicada a 6 y 7 Regla E↔ i aplicada a 1 y 8 Regla I∧ aplicada a 9 y 6 Regla I¬ aplicada a 7-10 Regla E¬ aplicada a 11 Bajo el supuesto de 2. Bajo el supuesto de 2. Contradicción bajo supuesto de 2. No depende del supuesto de 2. Bajo el supuesto de 7. Bajo el supuesto de 7. Contradicción bajo el supuesto de 7. No depende del supuesto de 7. Paso 13: De ¬VD , inferida en el paso 6, y VE , inferida en el paso anterior, inferimos la conjunción de ambas, (¬VD ∧VE ). Por supuesto, la justificación es la regla I∧ aplicada a 6 y 12. Y con esto hemos terminado nuestro breve razonamiento. La secuencia inferencial es esta: 1 2 3 4 5 6 7 8 9 10 11 12 13 Fórmula Justificación Observaciones VD ↔ (¬VD ∧ ¬VE ) VD ¬VD ∧ ¬VE ¬VD VD ∧ ¬VD ¬VD ¬VE ¬VD ∧ ¬VE VD VD ∧ ¬VD ¬¬VE VE ¬VD ∧VE Premisa Supuesto Regla E↔ d aplicada a 1 y 2 Regla E∧ i aplicada a 3 Regla I∧ aplicada a 2 y 4 Regla I¬ aplicada a 2-5 Supuesto Regla I∧ aplicada a 6 y 7 Regla E↔ i aplicada a 1 y 8 Regla I∧ aplicada a 9 y 6 Regla I¬ aplicada a 7-10 Regla E¬ aplicada a 11 Regla I∧ aplicada a 6 y 12 Bajo el supuesto de 2. Bajo el supuesto de 2. Contradicción bajo supuesto de 2. No depende del supuesto de 2. Bajo el supuesto de 7. Bajo el supuesto de 7. Contradicción bajo el supuesto de 7. No depende del supuesto de 7. ¡Fin! Observe el lector que la cantidad de elementos en la secuencia aumentó con respecto a la cantidad de pasos que habíamos considerado al expresar el razonamiento en lenguaje natural. Es un claro efecto amplificador del microscopio de Frege. 7.1.2 ¿Qué nos falta? Repasemos las reglas que hemos extraído a partir de reflexionar sobre nuestro modo de pensar para llegar a la solución del problema anterior. Son las siguientes: Regla E↔ i A↔B B Regla E↔ d A↔B A A B 7.1 Tras las huellas de los humanos 135 Regla E∧ i A∧B Regla E∧ d A∧B Regla I∧ A A B B A∧B Regla E¬ ¬¬A Regla I¬ [A] A .. . B ∧ ¬B ¬A Estas fueron todas las reglas que consideramos necesarias al resolver el problema. Refieren al bicondicional, a la conjunción y a la negación. Es muy claro que hay una insuficiencia aquí, desearíamos tener reglas concernientes a todos los conectivos, y no tenemos nada relativo al condicional ni a la disyunción. Pero además, en lo que tenemos hasta ahora, hay una evidente asimetría. Observe el lector los nombres de las reglas. Todos empiezan con la letra “E” o con la letra “I” que se subindiza con el conectivo correspondiente. Las reglas cuyo nombre comienza con “E” presentan, en su esquema, el conectivo sobre la barra y no bajo ella. La “E” se elije para nombrarlas porque esas reglas se llaman reglas de eliminación. Así, la regla E¬ se llama “Regla de eliminación de la negación". Esas reglas pretenden mostrar lo que se puede inferir a partir de una proposición que tiene el conectivo referido como principal. La “i” de E∧ i quiere decir “izquierda” (porque se elimina la conjunción quedándose con el conyunto izquierdo). La interpretación en los demás nombres de las reglas es similar, siendo obviamente “d” un recordatorio de “derecha” (en general, al justificar pasos, no distinguiremos entre derecha e izquierda. El contexto hará obvio cuál de ambas “versiones” de la regla se usó). Por su parte, las reglas cuyo nombre comienza con “I” se llaman reglas de introducción. En su esquema, el conectivo referido aparece bajo la barra y no sobre ella. Estas reglas pretenden mostrar a partir de qué, en cuáles condiciones se puede inferir una proposición que tenga ese conectivo como principal. De lo dicho surge que deberíamos buscar reglas que serán llamadas E→ , I→ , E∨ , I∨ y I↔ . Hagámoslo a partir de otro de los problemas de la biblioteca. Comencemos con el condicional, para lo cual volveremos a un muy discutido acertijo: En el primer folio de Hades se lee: “Si Hades es obra de Veratius entonces Infierno es obra de Veratius”. ¿Quiénes son los autores de estas obras? Planteemos el razonamiento que hicimos nuevamente, valiéndonos del lenguaje natural. Paso Contenido Justificación 1 Aceptamos que Hades fue escrito por Por las reglas de la biblioteca y lo dicho Veratius si y solo si, si Hades fue escri- en el primer folio de Hades. to por Veratius, entonces Infierno fue escrito por Veratius. Capítulo 7. Consecuencia sintáctica 136 2 Suponemos que Hades fue escrito por Veratius. 3 Aceptamos, bajo el supuesto hecho, que si Hades fue escrito por Veratius, entonces Infierno fue escrito por Veratius. Aceptamos, bajo el supuesto, que Infierno fue escrito por Veratius. Aceptamos que si Hades fue escrito por Veratius, Infierno fue escrito por Veratius. 4 5 6 Esperamos llegar, bajo ese supuesto, a que Infierno fue escrito por Veratius o a que Infierno no fue escrito por Veratius. En el primer caso, aceptaríamos “Si Hades fue escrito por Veratius, Infierno también” y en el segundo aceptaríamos la negación de lo entrecomillado. Por 1 y 2. Por 2 y 4. Porque mostramos que bajo el supuesto de que Hades fue escrito por Veratius, se sigue que infierno también lo fue, en la sucesión que va del paso 2 al 4. Por 1 y 5. Aceptamos que Hades fue escrito por Veratius. Aceptamos que Infierno fue escrito por Por 5 y 6. Veratius. Aceptamos que Hades fue escrito por Por 6 y 7. Veratius e Infierno fue escrito por Veratius. 7 8 Fácilmente podemos empezar a hacer la secuencia correspondiente: 1 2 3 Fórmula Justificación Observaciones VH ↔ (VH → VI ) VH VH → VI Premisa Supuesto Regla E↔ d aplicada a 1 y 2 Bajo el supuesto de 2. En este momento es claro cómo continuar, a partir de las líneas 2 y 3. En una de ellas se encuentra un condicional; en la otra, el antecedente de ese condicional. Consideraciones semánticas obvias nos permiten sostener esta regla: En una secuencia inferencial en la que figuran un condicional y el antecedente de ese condicional se puede agregar el consecuente de ese condicional. Esa regla es, por supuesto, E→ , y la representaremos así: Regla E→ A A→B B 7.1 Tras las huellas de los humanos 137 La secuencia queda, aplicando esta regla (también llamada modus ponens3 ): 1 2 3 4 Fórmula Justificación Observaciones VH ↔ (VH → VI ) VH VH → VI VI Premisa Supuesto Regla E↔ d aplicada a 1 y 2 Regla E→ aplicada a 2 y 3 Bajo el supuesto de 2. Bajo el supuesto de 2. Ahora consideremos un problema absolutamente general, que nos servirá para dar el siguiente paso. Recordemos que si suponemos A y bajo ese supuesto llegamos a inferir una contradicción, entonces podemos inferir la negación de A. Eso es lo que recoge la regla I¬ . Pero consideremos el caso más general, en el cual, a partir de un supuesto A, llegamos a inferir B. ¿Qué se puede inferir de allí? Una ligera reflexión indica que desde el punto de vista semántico, estamos afirmando que siendo A verdadero, B también lo será. Es muy claro que el conectivo que establece esa relación entre A y B es el condicional. Por lo tanto, podemos extraer la siguiente regla: En una secuencia inferencial, luego de una subsecuencia que comienza con una fórmula introducida como supuesto y termina con una fórmula cualquiera B, se puede agregar el condicional cuyo antecedente es el supuesto que da inicio a la subsecuencia y su consecuente es la fórmula B. Esta regla es I→ y la representamos así: Regla I→ [A] .. . B A→B Por consideraciones idénticas a las hechas al presentar la regla I¬ , esta regla también cancela el supuesto que utiliza, y al usarla para justificar un paso, debe referirse a la subsecuencia utilizada. La secuencia inferencial queda así: 1 2 3 4 5 Fórmula Justificación Observaciones VH ↔ (VH → VI ) VH VH → VI VI VH → VI Premisa Supuesto Regla E↔ d aplicada a 1 y 2 Regla E→ aplicada a 2 y 3 Regla I→ 2-4 Bajo el supuesto de 2. Bajo el supuesto de 2. No depende del supuesto de 2. A partir de aquí, podemos completar la secuencia inferencial sin utilizar ninguna regla desconocida por nosotros: 3 Modo de afirmar, en latín. Hay gente lo suficientemente pedante como para llamarla modus ponendo ponens (modo de afirmar afirmando), pero es muy escasa. Capítulo 7. Consecuencia sintáctica 138 1 2 3 4 5 6 7 8 Fórmula Justificación Observaciones VH ↔ (VH → VI ) VH VH → VI VI VH → VI VH VI VH ∧VI Premisa Supuesto Regla E↔ d aplicada a 1 y 2 Regla E→ aplicada a 2 y 3 Regla I→ 2-4 Regla E↔ i aplicada a 1 y 5 Regla E→ i aplicada a 5 y 6 Regla I∧ aplicada a 6 y 7 Bajo el supuesto de 2. Bajo el supuesto de 2. No depende del supuesto de 2. Al razonar sobre este problema hemos establecido dos de las reglas que nos faltaban, las que conciernen al condicional. Las usaremos para hallar la regla que nos falta concerniente al bicondicional, I↔ . Como la regla recibirá una justificación semántica, estamos en condiciones de apoyarnos en la noción de equivalencia para hallarla. Sabemos que A ↔ B ≡ (A → B) ∧ (B → A) Pues bien, ¿bajo qué condiciones se puede introducir en una secuencia inferencial (A → B) ∧ (B → A)? La respuesta es muy simple, recordando la regla I∧ , deberíamos tener una secuencia así: .. . m .. . Proposición .. . Justificación .. . A→B .. . .. . n .. . B→A .. . r (A → B) ∧ (B → A) .. . Regla I∧ m, n Por lo tanto, podemos establecer la regla I↔ (aunque sabemos cómo introducir los condicionales, no seguiremos el análisis más allá): En una secuencia inferencial, si dos elementos son condicionales recíprocos, se puede agregar el bicondicional cuyos miembros son el antecedente y el consecuente de uno de esos condicionales. Su representación es: Regla I↔ A→B B→A A↔B Solo nos resta encontrar las reglas de eliminación e introducción de la disyunción. El problema de la biblioteca basado en ese conectivo presenta ciertas complejidades, de modo que nuestro plan no será plantearlo y extraer las reglas buscadas a partir de su resolución, como hemos hecho hasta ahora. En lugar de eso, plantearemos una situación mucho más simple de la cual extraeremos las reglas. El lector será invitado más adelante a presentar una secuencia que lleve a la solución del problema de la biblioteca cuya clave es la disyunción. Consideremos las siguientes proposiciones: 7.1 Tras las huellas de los humanos 139 Llueve. Si llueve o truena, entonces el gato no quiere salir o el perro se asusta. (Esta proposición debe entenderse como un condicional.) Si el gato no quiere salir, se esconde. Si el perro se asusta, debo atender a los animales. Si el gato se esconde, debo atender a los animales. Queremos justificar que la proposición Debo atender a los animales se deduce de las que hemos dado. Como otras veces, hagamos un razonamiento en lenguaje natural, en el que comenzaremos poniendo al principio todas las premisas: Paso 1 2 3 4 5 6 7 8 9 10 11 12 Contenido Aceptamos que llueve. Aceptamos que si llueve o truena, entonces o bien el gato no quiere salir o bien el perro se asusta. Aceptamos que si el gato no quiere salir, se esconde. Aceptamos que si el perro se asusta, debo atender a los animales. Aceptamos que si el gato se esconde, debo atender a los animales. Aceptamos que llueve o truena. Aceptamos que el gato no quiere salir o el perro se asusta. Suponemos que el gato no quiere salir. Justificación Es premisa. Es premisa. Es premisa. Es premisa. Es premisa. Por 1. Por 2 y 6. Suponemos uno de los disyuntos de 7. La estrategia se basa en que si de él extraemos una consecuencia, y esa misma consecuencia se extrae de suponer el otro disyunto, esa consecuencia es de la disyunción. Por 3 y 8. Aceptamos que el gato se esconde (bajo supuesto de 8). Aceptamos que debo atender a los ani- Por 5 y 9. males (bajo supuesto de 8). Suponemos que el perro se asusta. Suponemos el otro disyunto, pero no bajo el anterior supuesto sino en forma independiente, es decir debemos llegar a lo mismo que nos permitió inferir el supuesto anterior sin utilizarlo, y así habremos extraído una consecuencia de la disyunción de 7. Aceptamos que debo atender a los ani- Por 11 y 4. males (bajo el supuesto de 11). Capítulo 7. Consecuencia sintáctica 140 13 Aceptamos que debo atender a los ani- Porque habíamos establecido que el gamales. to no quiere salir o el perro se asusta (en 7). De que el gato no quiere salir surge que debo atender a los animales (8-10) y de que el perro se asusta surge que debo tender a los animales (11-12). Por lo tanto, debo atender a los animales. Tratemos ahora de construir una secuencia inferencial valiéndonos de los elementos que nos da la lógica proposicional, aunque no usaremos el lenguaje formal para favorecer la legibilidad. Como en el caso de los acertijos de la biblioteca, utilizaremos letras que funcionarán como letras proposicionales. Las elegiremos de modo que nos ayuden a recordar su dimensión representacional. Sea entonces: l: Llueve. t: Truena. g: El gato no quiere salir. p: El perro se asusta. e: El gato se esconde. a: Debo atender a los animales. Comencemos a construir la secuencia inferencial en el lenguaje semiformalizado que nos hemos permitido: 1 2 3 4 5 Fórmula Justificación l (l ∨ t) → (g ∨ p) g→e p→a e→a Premisa Premisa Premisa Premisa Premisa Observaciones El siguiente paso consiste en inferir l ∨ t a partir de l. Es muy claro que la semántica respalda que A una secuencia inferencial, se le puede agregar la disyunción de uno de sus elementos con una fórmula cualquiera. La regla que estamos encontrando es I∨ , cuya representación se desdobla en dos: La secuencia inferencial queda: Regla I∨ i A Regla I∨ d A B∨A A∨B 7.1 Tras las huellas de los humanos 1 2 3 4 5 6 141 Fórmula Justificación Observaciones l (l ∨ t) → (g ∨ p) g→e p→a e→a l ∨t Premisa Premisa Premisa Premisa Premisa Regla I∨ d aplicada a 1 El siguiente paso no requiere comentarios: 1 2 3 4 5 6 7 Fórmula Justificación Observaciones l (l ∨ t) → (g ∨ p) g→e p→a e→a l ∨t g∨ p Premisa Premisa Premisa Premisa Premisa Regla I∨ d, 1 Regla E→ 2, 6 Hemos inferido una disyunción. Comienza el trabajo de eliminarla. Lo primero que debemos hacer es suponer uno de sus disyuntos. Lo hacemos hasta obtener, bajo ese supuesto, la fórmula buscada, que en este caso es a. 1 2 3 4 5 6 7 8 9 10 Fórmula Justificación Observaciones l (l ∨ t) → (g ∨ p) g→e p→a e→a l ∨t g∨ p [g] e a Premisa Premisa Premisa Premisa Premisa Regla I∨ d, 1 Regla E→ 2, 6 Supuesto Regla E→ 3, 8 ReglaE→ 5, 9 Bajo el supuesto de 8. Bajo el supuesto de 8. Hemos conseguido inferir a suponiendo el primer disyunto de 7. Si logramos lo mismo a partir de suponer el segundo disyunto, estaremos habilitados a inferir a. El supuesto de 8 ya no se puede seguir usando para llevar adelante esta estrategia inferencial. Pero aun no concluimos nada, de modo que tacharemos lo que no podemos seguir usando a la vez que remarcaremos lo que necesitaremos para efectuar la inferencia final: que teníamos una disyunción, supusimos uno de sus disyuntos e inferimos a Capítulo 7. Consecuencia sintáctica 142 1 2 3 4 5 6 7 8 9 10 Fórmula Justificación Observaciones l (l ∨ t) → (g ∨ p) g→e p→a e→a l ∨t g∨ p [g] e a Premisa Premisa Premisa Premisa Premisa Regla I∨ d, 1 Regla E→ 2, 6 Supuesto Regla E→ 3, 8 ReglaE→ 5, 9 Disyunción a eliminar. Uno de los disyuntos. Bajo el supuesto de 8. Bajo el supuesto de 8 (fórmula buscada). Procedemos suponiendo el otro disyunto, hasta inferir a 1 2 3 4 5 6 7 8 9 10 11 12 Fórmula Justificación Observaciones l (l ∨ t) → (g ∨ p) g→e p→a e→a l ∨t g∨ p [g] e a [p] a Premisa Premisa Premisa Premisa Premisa Regla I∨ d, 1 Regla E→ 2, 6 Supuesto Regla E→ 3, 8 ReglaE→ 5, 9 Supuesto Regla E→ 4,11 Disyunción a eliminar. Uno de los disyuntos. Bajo el supuesto de 8. Bajo el supuesto de 8 (fórmula buscada). El disyunto restante. Bajo el supuesto de 11 (fórmula buscada). Y el último paso de la secuencia inferencial es deducir a. ¿Qué regla lo permite? Si en una secuencia inferencial un elemento es una disyunción y hay dos subsecuencias posteriores a ella tales que: Una de las dos subsecuencias se inicia con uno de los disyuntos y la otra subsecuencia se inicia con el otro disyunto. No se solapan ni se justifican elementos en cualquiera de ellas por elementos en la otra. La fórmula final de ambas es la misma. entonces se puede agregar a la cadena la fórmula final de ambas. El respaldo semántico se puede ver de varias maneras, pero preferimos que el lector lo vea a través recordar que una subsecuencia comenzada en un supuesto y terminada en una fórmula cualquiera permite aplicar la regla I→ , que ya estaba justificada semánticamente, y de considerar que se cumple {A ∨ B, A → C, B → C} |= C La regla es E∨ , y la representamos así: 7.2 El sistema de deducción natural para L P 143 Regla E∨ A∨B [A] .. . C [B] .. . C C Al aplicarla se debe cancelar los supuestos que usa. La justificación debe referir a la disyunción eliminada y a las dos subsecuencias utilizadas. La secuencia inferencial queda, finalmente: 1 2 3 4 5 6 7 8 9 10 11 12 13 Fórmula Justificación l (l ∨ t) → (g ∨ p) g→e p→a e→a l ∨t g∨ p [g] e a [p] a a Premisa Premisa Premisa Premisa Premisa Regla I∨ d, 1 Regla E→ 2, 6 Supuesto Regla E→ 3, 8 ReglaE→ 5, 9 Supuesto Regla E→ 4,11 Regla E∨ ,7, 8-10, 11-12 Observaciones Disyunción a eliminar. Uno de los disyuntos. Bajo el supuesto de 8. Bajo el supuesto de 8 (fórmula buscada). El disyunto restante. Bajo el supuesto de 11 (fórmula buscada). De este modo hemos terminado de presentar un conjunto de reglas con las que esperamos poder dar cuenta de las deducciones en el marco de la lógica proposicional. 7.2 El sistema de deducción natural para L P En la extensa sección anterior presentamos un conjunto de reglas sintácticas que, en general, nos permiten obtener fórmulas a partir de conjuntos de fórmulas. En la próxima página vemos sus representaciones reunidas. Estas reglas pertenecen a un aparato o sistema deductivo llamado deducción natural, o mejor dicho, configuran un sistema de deducción natural (hay diferentes sistemas, no en todos las reglas son las mismas). Su nombre proviene de que es “natural” en el sentido de que las reglas pretenden hacer mímesis de los pasos que uno puede reconocer en multitud de razonamientos en diferentes situaciones4 . 4 Por extraño que parezca, los sistemas de deducción natural aparecieron relativamente tarde en la historia de la lógica. Fueron desarrollados en forma independiente por Gentzen y Jaśkowski en 1934. Hasta ese momento, los sistemas deductivos de que se disponía se apartaban mucho de la dinámica de los razonamientos comunes, y esta fue la motivación para desarrollar los de deducción natural. En palabras de Gentzen: “Mi punto de partida fue el siguiente: La formalización de la deducción lógica, especialmente como ha sido desarrollada por Frege, Russell y Hilbert, está bastante alejada de las formas de deducción que se utilizan en la práctica demostrativa matemática. Esto tiene considerables ventajas formales. Por contraste, intenté ante todo establecer un sistema formal que se acercase lo más posible a los razonamientos que efectivamente se hacen...” [Gen69] Capítulo 7. Consecuencia sintáctica 144 Reglas del sistema de deducción natural para L P Regla E↔ i A↔B B Regla E↔ d A↔B A Regla I↔ A→B B→A A B A↔B Regla E∧ i A∧B Regla E∧ d A∧B Regla I∧ A A B B A∧B Regla E¬ ¬¬A Regla I¬ [A] A .. . B ∧ ¬B ¬A Regla E→ A→B A Regla I→ [A] .. . B B A→B Regla E∨ A∨B Regla I∨ d A Regla I∨ i A [A] .. . B∨A A∨B C [B] .. . C C El sistema se aplica, aunque no lo hemos hecho aun, sobre el lenguaje formal L P sin modificaciones, excepto las notacionales, y permite, dado un conjunto de fórmulas, obtener otras fórmulas. Esto ya lo hemos hecho, a partir de las fórmulas que hemos introducido en las secuencias como premisas, hemos obtenido otras fórmulas. El procedimiento es construir la secuencia a partir de las fórmulas dadas introduciéndolas como premisas, y considerar la fórmula final de la 7.2 El sistema de deducción natural para L P 145 secuencia como obtenida a partir de las fórmulas dadas. Esto es la contrapartida formal de nuestras deducciones, como veremos. Las presentaciones de las secuencias se harán en un formato estandarizado, que se llama diagramas de Fitch5 . Para explicar la forma de disponer la información en los diagramas de Fitch, traeremos a cuento la primera secuencia que construimos en la subsección 7.1.1, en la que partiendo de la fórmula VD ↔ (¬VD ∧ ¬VE ) llegábamos a (¬VD ∧ VE ). Presentada en diagrama de Fitch y poniendo, para ser más formal, p1 por VD y p2 por VE , quedaría: 1 (p1 ↔ (¬p1 ∧ ¬p2 )) 2 p1 3 (¬p1 ∧ ¬p2 ) E↔ d, 1, 2 4 ¬p1 E∧ i, 3 5 (p1 ∧ ¬p1 ) I∧ , 2, 4 6 ¬p1 I¬ , 2–5 7 ¬p2 8 (¬p1 ∧ ¬p2 ) I∧ , 6, 7 9 p1 E↔ i, 1, 8 10 (p1 ∧ ¬p1 ) I∧ , 9, 6 11 ¬¬p2 I¬ , 7–10 12 p2 E¬ , 11 13 (¬p1 ∧ p2 ) I∧ , 6, 12 Como vemos, los diagramas de Fitch tienen estas características: A su izquierda tienen una barra vertical que va de principio a fin. Las fórmulas contiguas a esta barra no dependen de supuestos, las que tienen dos barras a su izquierda están bajo un supuesto, las que tienen tres están bajo dos supuestos, etc. Se colocan las premisas al principio de la secuencia, y quedan todas sobre una misma barra horizontal. No es necesario indicar que se trata de premisas, ya que su posición en la parte superior sobre la primera barra horizontal, y contiguas a la barra de la extrema izquierda así lo indica. Cada supuesto aparece indentado6 y con una barra vertical que se extiende de modo de quedar a la altura de las fórmulas obtenidas bajo ese supuesto. Por eso, tampoco es necesario indicar que se trata de un supuesto ni escribir que tal fórmula se ha agregado a la secuencia bajo ese supuesto. Las únicas justificaciones requeridas son las de fórmulas obtenidas por aplicación de las reglas, ya que el aspecto gráfico indica el resto. Ejemplo 7.1 — Supuesto bajo otro supuesto. El lector solo debe verificar que la secuencia siguiente está correctamente construida. Se trata de probar que tomando como premisa la fórmula 5 Por el lógico Fredric Brenton Fitch, quien lo inventó y es famoso por la llamada paradoja de la cognoscibilidad. busque el lector esta palabra en los diccionarios de la RAE, no la encontrará. Es un anglicismo. La academia recomienda “con sangrado” (refiere a la sangría, el desplazamiento del texto a la derecha), pero aparte de ser una recomendación desagradable, en este contexto, “indentado” es de uso común. 6 No Capítulo 7. Consecuencia sintáctica 146 (p1 → p2 ) se obtiene la fórmula ((p2 → p3 ) → (p1 → p3 )): 1 2 (p1 → p2 ) p2 → p3 3 p1 4 p2 E→ , 1, 3 5 p3 E→ , 2, 4 6 (p1 → p3 ) I→ , 3–5 7 ((p2 → p3 ) → (p1 → p3 )) I→ , 2–6 Se ve claramente que la única premisa se encuentra en la línea 1 (debido a que es la única fórmula que se encuentra sobre la primera barra horizontal y contigua a la barra de la extrema izquierda), que el primer supuesto está en la línea 2 (es lo que se encuentra sobre una barra horizontal que no es la que indica las premisas) y abre una subderivación que de él depende y se extiende hasta la 6 (porque la barra vertical que empieza en 2 llega hasta la línea 6, indicando que todas esas fórmulas están bajo el supuesto), que el segundo supuesto está en la línea 3 y abre una subderivación dependiente de él que se extiende hasta la 5, y que la fórmula final no se encuentra bajo supuesto alguno, es decir, todos los supuestos han sido cancelados. Vamos a proponer estas sucesiones de fórmulas como correlato formal de las deducciones. Para ello, debemos precisar cuáles sucesiones de fórmulas tienen las características necesarias para ese propósito. Intuitivamente, es claro que si partimos de un conjunto de proposiciones, a las que tomamos como premisas, y hacemos una deducción, o sea, vamos generando una sucesión de proposiciones hasta llegar a una conclusión, esa sucesión debe cumplir condiciones bastante estrictas. Es decir, cada una de las proposiciones que la constituye debe tener alguna relación con el conjunto de partida o con el resto de las proposiciones de la secuencia. En principio, podemos distinguir tres clases de proposiciones en la secuencia, según lo que hemos examinado: Las que pertenecen al conjunto (o sea, las premisas). Los supuestos. Las que son el resultado de aplicar alguna de las reglas a proposiciones o subsecuencias de proposiciones anteriores en la misma secuencia. y esto agota todas las posibilidades, en una deducción no pueden aparecer proposiciones que no caigan bajo alguna de estas categorías. El problema que enfrentamos es que desde un punto de vista intuitivo es muy claro que una secuencia con supuestos abiertos (no cancelados) no puede ser una deducción a partir del conjunto dado. Si en una secuencia no se cancela un supuesto, la proposición final es dependiente de ese supuesto, que en principio puede ser arbitrario. Por lo tanto, tenemos que distinguir las sucesiones que no tienen supuestos abiertos de aquellas que sí los tienen. Consideremos las reglas que cancelan supuestos. Son I¬ , I→ y E∨ . Exigen, para ser aplicadas, la existencia de una o dos subsecuencias previas comenzadas con un supuesto. La aplicación de la regla cancela los supuestos que inician esas subsecuencias, y lo que esto quiere decir es que ninguna proposición externa a esas subsecuencias –con la única excepción de la que cancela el supuesto– es justificada por aplicación de una regla sobre fórmulas internas a las subsecuencias. 7.3 Consecuencia sintáctica 147 Diremos, por tanto, que un supuesto está cancelado si posteriormente aparece en la secuencia una fórmula α que surge de la aplicación de una de esas tres reglas sobre una subsecuencia que él inicia, y si ninguna fórmula exterior a la subsecuencia por él iniciada sobre la que se aplica la regla para producir esa fórmula α se justifica aplicando reglas a fórmulas de la subsecuencia. Podemos ahora dar una definición fundamental: Definición 7.2.1 — Derivación. Sean Γ un conjunto de fórmulas y A una fórmula. Una derivación de A a partir de Γ es una sucesión de fórmulas en la que cada fórmula: O bien pertenece a Γ O bien es un supuesto cancelado O bien es el resultado de aplicar alguna de las reglas a fórmulas o subsecuencias anteriores en la sucesión y además la última fórmula es A. Se debe observar que las justificaciones no son parte de las las derivaciones. Pero para nosotros es muy importante disponer de ellas, porque nos permiten hacer un control de que una sucesión de fórmulas es efectivamente una derivación. Nuestro último ejemplo es, por tanto, una derivación de ((p2 → p3 ) → (p1 → p3 )) a partir de {(p1 → p2 )} 7.3 Consecuencia sintáctica Habíamos visto que la relación de consecuencia semántica nos daba un modo de capturar formalmente la noción de consecuencia lógica. A esta altura del curso estamos en condiciones de presentar otro modo de capturar formalmente esa noción: la consecuencia sintáctica. La primera noción, la de consecuencia semántica, hace énfasis en que toda interpretación que haga verdaderas las premisas, hará verdadera la conclusión. El concepto de verdad le es intrínseco. La segunda noción prescinde del concepto de verdad, que pertenece a la semántica. Su énfasis se encuentra en la idea de que si se parte de ciertas premisas y se siguen determinadas reglas que conciernen a la forma sintáctica de las fórmulas con las que se opera, se habrá capturado la idea intuitiva de corrección lógica. La definición de consecuencia sintáctica es la siguiente: Definición 7.3.1 — Consecuencia sintáctica. Sea Γ un conjunto de fórmulas de L P y A una fórmula de L P. A es consecuencia sintáctica de Γ si y solo si existe una derivación de A a partir de Γ. Notación 7.1. Si A es consecuencia sintáctica de Γ, escribimos Γ ` A Por supuesto que esto hace surgir inmediatamente preguntas acerca de las relaciones entre consecuencia semántica y consecuencia sintáctica, pero esas preguntas (que plantearemos en su momento) deberán esperar. Ahora haremos algunas consideraciones importantes acerca de las derivaciones. 7.3.1 Acerca de las derivaciones Salvando una aparente inconsistencia El lector atento habrá observado que cuando definimos derivación no impusimos ninguna restricción a los lugares de la secuencia donde pueden hallarse las premisas. Sin embargo, al presentar los diagramas de Fitch, exigimos que comenzaran con las premisas. La consecuencia de esto es que los diagramas de Fitch no pueden mostrar toda derivación, sino solo aquellas que comienzan con sus premisas. Pero esto carece de importancia, porque nuestro interés central pasa por el establecimiento de la consecuencia sintáctica. Es claro que un diagrama Capítulo 7. Consecuencia sintáctica 148 de Fitch correctamente construido muestra una derivación. Y también se cumple, como el lector advertirá a través de una reflexión ligera, que dada cualquier derivación D de A a partir de Γ se puede obtener otra derivación D 0 , de la misma fórmula a partir del mismo conjunto, que sí es representable mediante un diagrama de Fitch. Basta para ello remover todas las premisas de donde se encuentren en D y colocarlas en el bloque inicial, generando así D 0 . El conjunto Γ El conjunto a partir del cual se va a hacer una derivación puede ser cualquiera. Supongamos que Γ es infinito. Es claro Γ ` A si y solo si para algún subconjunto finito Γ0 de Γ se tiene Γ0 ` A, lo que es debido a que las derivaciones son secuencias finitas de fórmulas. Γ puede ser el conjunto vacío. En ese caso, obviamente que la derivación no puede comenzar con una premisa, porque no las hay, ni tampoco con una fórmula que surja de la aplicación de reglas a fórmulas anteriores de la sucesión, porque tampoco hay, de modo que es necesario que la derivación comience con un supuesto. Mostremos que existe una derivación de cualquier fórmula de la forma ¬(A ∧ ¬A), donde A es cualquier fórmula de L P. Para lograrlo, utilizaremos un diagrama de Fitch, sobre el que haremos algunas observaciones: 1 (A ∧ ¬A) 2 A E∧ i, 1 3 ¬A E∧ d, 1 4 (A ∧ ¬A) I∧ , 2, 4 5 ¬(A ∧ ¬A) I¬ , 1–4 La primera observación es que este diagrama no presenta una derivación, sino un esquema de derivación. A es una metavariable (o sea, una variable del metalenguaje que ranguea sobre objetos del lenguaje L P). Sustituyendo A por cualquier fórmula obtenemos una derivación. La segunda observación es que se evidencia que tales derivaciones no tienen premisas porque la fórmula que se encuentra sobre la primera barra horizontal tiene dos barras verticales (y no solo una) a la izquierda. Es obvio que si A es consecuencia sintáctica del conjunto vacío, será consecuencia sintáctica de todo conjunto. Al igual que hicimos con la consecuencia semántica, utilizaremos la Notación 7.2. Consecuencia sintáctica del conjunto vacío `A y definimos: Definición 7.3.2 — Teorema. A es un teorema si y solo si ` A Reglas derivadas Se podría pensar que sería conveniente agregar al sistema reglas diferentes a las que hemos admitido que no ofrecen dudas acerca de su adecuación para nuestros propósitos. Si se observa la última derivación presentada, vemos que en la línea 4 obtuvimos lo que teníamos en la 1. Eso podría llevarnos a considerar que tal vez sea conveniente agregar una regla que podríamos esquematizar así: Regla Repetición A A 7.4 Heurística 149 cuya conveniencia se hace evidente en un caso como el que acabamos de ver (en la última derivación nos ahorraría dos líneas) y cuya inocuidad es del todo evidente. A nivel intuitivo dice que lo que está en una secuencia deductiva puede repetirse o volverse a tomar, y su apoyo semántico es trivial. Se podría plantear infinidad de “candidatos” a reglas, pero esto llevaría a una proliferación insostenible. Por esto, tomaremos una solución salomónica: no admitiremos esas reglas como reglas de nuestro sistema, pero nos permitiremos usarlas en la práctica siempre que hayamos demostrado que lo que con ellas se logra se puede lograr prescindiendo de ellas. Veámoslo con un ejemplo, el de la regla de repetición. Antes de usarla, debemos demostrar que sin hacer uso de ella, siempre podemos “repetir” una fórmula en una derivación. En nuestro caso la demostración consiste en una secuencia que respete las reglas originales y partiendo de una fórmula, termine en la misma fórmula. Aquí se presenta una: 1 A 2 ¬A 3 (A ∧ ¬A) I∧ , 1, 2 4 ¬¬A I¬ , 1–3 5 A E¬ , 4 Esto justifica que se pueda repetir una fórmula siempre en una derivación, ya que el procedimiento es totalmente general. Podemos, por tanto, aceptar esta regla como regla “derivada”, es decir, que se justifica con las reglas del sistema. Usando esa regla, la demostración de que ¬(A ∧ ¬A) es un teorema se reduce a: 1 (A ∧ ¬A) 2 (A ∧ ¬A) 3 ¬(A ∧ ¬A) Repetición, 1 I¬ , 1–2 Obviamente, en toda derivación es posible agregar una fórmula que sea un teorema (con independencia de lo que se haya hecho en la derivación, se podría en cualquier punto comenzar la derivación del teorema a partir del conjunto vacío). Por eso, aceptaremos como regla derivada la introducción de teoremas: Regla Teorema τ siendo τ un teorema. En los ejercicios veremos varios ejemplos de reglas que suelen considerarse derivadas. 7.4 Heurística Dado un conjunto Γ y una fórmula A tales que se cumple que Γ ` A, no siempre es fácil encontrar una derivación que así lo demuestre7 . 7 Hay trampa en esta afirmación. Lo fácil o difícil depende, muchas veces, de las herramientas de que se dispone para acometer la tarea. Veremos sobre el final del curso que en L P existe un procedimiento mecánico para encontrar Capítulo 7. Consecuencia sintáctica 150 Veamos algunos ejemplos con el fin de ir captando ciertas estrategias que ayudan a guiarse en la maraña de posibilidades que nos ofrecen las reglas: Ejemplo 7.2 Para toda fórmula A, (A ∨ ¬A) es un teorema. Cuando vamos a probar que algo es un teorema, la única posibilidad es comenzar con un supuesto. Alguna regla deberá cerrar ese supuesto. Una ligera reflexión nos muestra que lo más fructífero es comenzar suponiendo la negación de lo que queremos demostrar es teorema, y eso marca nuestra estrategia: intentaremos llegar a una contradicción. Por lo tanto: 1 ¬(A ∨ ¬A) La única fórmula que tenemos es una negación. Un repaso por todas las reglas nos muestra que no podemos aplicar ninguna, excepto I∨ , pero no parece tener ningún sentido obtener una disyunción con lo que ya tenemos. Parece necesario utilizar otro supuesto. Claramente no vamos a suponer algo que no tenga nada que ver con lo que ya tenemos. ¿Qué sucede si suponemos A? Quizá lleguemos a una contradicción así. (El lector puede intentar en este punto continuar por sí mismo la derivación). Probémoslo: 1 ¬(A ∨ ¬A) 2 A Ahora podemos aplicar muchas reglas, pero recordemos que estamos bajo supuestos, y por ello es una buena idea intentar llegar a contradicciones. ¿Podremos construir en el siguiente paso una fórmula que en conjunción con alguna de las que tenemos sea una contradicción? Claramente podemos llegar a la fórmula (A ∨ ¬A), y de allí seguir hasta extraer las consecuencias de la contradicción inferida: 1 ¬(A ∨ ¬A) 2 A 3 (A ∨ ¬A) I∨ , 2 4 ((A ∨ ¬A) ∧ ¬(A ∨ ¬A)) I∧ , 3, 1 5 ¬A I¬ , 2–4 En este punto hemos demostrado que bajo nuestro supuesto inicial se deriva ¬A. No es lo que queríamos, nuestro plan era llegar a una contradicción. Es claro que no podemos cerrar el supuesto inicial ahora porque lo haríamos introduciendo un condicional que no nos serviría para nada. ¿Habrá que desistir de este camino e intentar otro? De ninguna manera. Si recordamos que Si con caldito va sanando, caldito seguile dando, nos daremos cuenta de que podemos repetir la estrategia de construir una fórmula que en conjunción con alguna de las que tenemos (que son la que acabamos de obtener y el supuesto abierto) dé la la derivación en caso de que la haya y para afirmar que no existe la derivación en caso de que no se dé la relación de consecuencia sintáctica. Pero ese procedimiento traiciona el objetivo original de la deducción natural: reflejar de algún modo los procesos corrientes de razonamiento. 7.4 Heurística 151 contradicción buscada. Una vez visto esto, el resto de la derivación es fácil: 1 ¬(A ∨ ¬A) 2 A 3 (A ∨ ¬A) I∨ , 2 4 ((A ∨ ¬A) ∧ ¬(A ∨ ¬A)) I∧ , 3, 1 5 ¬A I¬ , 2–4 6 (A ∨ ¬A) I∨ , 5 7 ((A ∨ ¬A) ∧ ¬(A ∨ ¬A)) I∧ , 6, 1 8 ¬¬(A ∨ ¬A) I¬ , 1–7 9 (A ∨ ¬A) E¬ , 8 ¿Qué aprendimos en este ejemplo? Principalmente, que los supuestos son “armas” muy poderosas. Pero debemos usarlas con extremo cuidado, porque una vez que abrimos un supuesto, estamos obligados a cerrarlo alguna vez. Por eso, uno debe hacer un supuesto con una idea de hacia dónde quiere dirigir la derivación. En este caso hemos visto la posibilidad de introducir supuestos con la idea de obtener contradicciones, lo que da como resultado la negación de la fórmula supuesta. En cada caso se debe evaluar si eso es útil o no. Ejemplo 7.3 Mostrar que {(p1 → p2 ), (p2 → p3 )} ` (p1 → (p2 ∧ p3 )) Observemos la fórmula final. Siempre debemos empezar por eso, ya que nos fija la meta. Normalmente, uno debe pensar en la derivación a realizar en grandes bloques, con ideas borrosas que se van precisando al avanzar. Una de las primeras preguntas que debemos hacernos, en ese intento de delinear bloques, es ¿Es razonable esperar que la fórmula final se construya en el último paso por medio de la regla de introducción del conectivo correspondiente? En nuestro caso, la pregunta es si podemos esperar razonablemente obtener esto: 1 (p1 → p2 ) 2 .. . (p2 → p3 ) .. . n (p1 → (p2 ∧ p3 )) I→ ¿Qué es necesario para esto? Claramente, lo necesario es tener el antecedente del condicional final como supuesto y llegar al consecuente en una subderivación bajo ese supuesto: Capítulo 7. Consecuencia sintáctica 152 1 (p1 → p2 ) 2 (p2 → p3 ) 3 .. . p1 .. . n−1 (p2 ∧ p3 ) (p1 → (p2 ∧ p3 )) n I→ , 3–(n − 1) Obsérvese que el problema se ha reducido a obtener (p2 ∧ p3 ), con todas las premisas y además bajo el supuesto p1 . Y si con caldito va sanando, caldito seguile dando, corresponde, en primer lugar, preguntarnos si podemos obtener esa conjunción por la regla de introducción. Para aplicarla deberíamos tener ambos conyuntos, de modo que deberíamos llegar a algo así: 1 (p1 → p2 ) 2 (p2 → p3 ) 3 .. . p1 .. . k .. . p2 .. . n−2 p3 n−1 (p2 ∧ p3 ) n (p1 → (p2 ∧ p3 )) I∧ , (k), (n − 2) I→ , 3–n − 1 Si el lector piensa con cuidado, verá que las letras proposicionales que necesitamos surgen de aplicar eliminación sobre las premisas: 1 (p1 → p2 ) 2 (p2 → p3 ) 3 p1 4 p2 E→ , 1, 3 5 p3 E→ , 2, 4 6 (p2 ∧ p3 ) I∧ , 4, 5 7 (p1 → (p2 ∧ p3 )) I→ , 3–6 7.4 Heurística 153 ¿Qué hemos aprendido en este ejemplo? Principalmente, la importancia de considerar a la fórmula a la que debemos arribar como guía a través de las reglas de introducción. Eso nos obliga a pensar “hacia atrás”, analíticamente. También se nos hizo aparente algo que no debe sernos indiferente: sobre el final de nuestro razonamiento encontramos que sobre las premisas aplicamos reglas de eliminación. Profundizaremos esto en el siguiente Ejemplo 7.4 Debemos mostrar que {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 )} ` (p3 ∨ p4 ) En este caso la fórmula a la que queremos llegar es una disyunción. Razonamos, como en el ejemplo anterior, que quizá podamos obtenerla por la regla de introducción. Pero eso nos obligaría a obtener, libres de supuestos, o bien p3 o bien p4 . Y examinando las premisas, no se ve cómo lograr eso (es muy fácil obtener p3 bajo el supuesto de p1 , o p4 bajo el supuesto de p2 , pero esto no nos sirve a causa de la dependencia de supuestos). Por lo tanto, volvamos nuestra atención a las premisas y consideremos la posibilidad de avanzar desde ellas, obteniendo consecuencias a través de las reglas de eliminación. Si nos planteamos eliminar la disyunción en la primera premisa, con la idea de que esa eliminación nos lleve a la fórmula buscada, estaríamos pensando en algo así: 1 (p1 ∨ p2 ) 2 (p1 → p3 ) 3 (¬p2 ∨ p4 ) 4 .. . p1 .. . j (p3 ∨ p4 ) k .. . p2 .. . l (p3 ∨ p4 ) l +1 (p3 ∨ p4 ) E∨ , 1, 4– j, k–l Concentrémonos en la primera subderivación. Es necesario llegar a la misma disyunción que nos planteamos al principio, pero ahora bajo el supuesto de p1 . Bajo esa condición es muy fácil lograrla por introducción, ya que podemos obtener p3 en forma inmediata: 1 (p1 ∨ p2 ) 2 (p1 → p3 ) 3 (¬p2 ∨ p4 ) 4 p1 5 p3 E→ , 2, 4 6 (p3 ∨ p4 ) I∨ , 5 Capítulo 7. Consecuencia sintáctica 154 7 .. . p2 .. . l (p3 ∨ p4 ) l +1 (p3 ∨ p4 ) E∨ , 1, 4–6, 7–l Ahora nos enfrentamos a un problema más complicado, obtener nuevamente la misma disyunción pero bajo el supuesto p2 . No parece haber nada tan directo como lo que recién usamos para completar la primera subderivación, y para empeorar las cosas (o para mejorarlas, ya que no nos deja demasiadas opciones), p2 solo aparece en la tercera premisa, ¡que también es una disyunción! Entonces, como no parece razonable obtener ahora (p3 ∨ p4 ) a través de una regla de introducción, intentaremos aplicar eliminación a la tercera premisa. Eso nos lleva a plantear algo así: 1 (p1 ∨ p2 ) 2 (p1 → p3 ) 3 (¬p2 ∨ p4 ) 4 p1 5 p3 E→ , 2, 4 6 (p3 ∨ p4 ) I∨ , 5 7 p2 8 .. . ¬p2 .. . j (p3 ∨ p4 ) j+1 .. . p4 .. . l (p3 ∨ p4 ) l +1 l +2 (p3 ∨ p4 ) (p3 ∨ p4 ) E∨ , 3, 8– j, j + 1–l E∨ , 1, 4–6, 7–l + 1 Se observa que la segunda subderivación que buscamos en realidad ya está hecha, no hay que agregar nada, solo justificar, porque podemos pasar del supuesto al final con una sola aplicación de I∨ : 1 (p1 ∨ p2 ) 2 (p1 → p3 ) 3 (¬p2 ∨ p4 ) 7.4 Heurística 155 4 p1 5 p3 E→ , 2, 4 6 (p3 ∨ p4 ) I∨ , 5 7 p2 8 .. . ¬p2 .. . j (p3 ∨ p4 ) j+1 p4 j+2 (p3 ∨ p4 ) (p3 ∨ p4 ) j+3 (p3 ∨ p4 ) j+4 I∨ , j + 1 E∨ , 3, 8– j, j + 1– j + 2 E∨ , 1, 4–6, 7– j + 3 Resta completar una subderivación. En ella se observa algo interesante: podemos obtener inmediatamente una contradicción, (p2 ∧ ¬p2 ). ¿Será posible obtener, a partir de ella, la disyunción que buscamos? Aquí conviene recordar algo que hemos dicho varias veces: las reglas, si bien son sintácticas, fueron escogidas de modo que preserven la consecuencia semántica. Por eso, siempre podemos apoyarnos en razonamientos semánticos para guiarnos en la maraña de reglas. Una contradicción tiene como consecuencia semántica cualquier fórmula. ¿Valdrá también que a partir de una contradicción se podrá derivar cualquier fórmula? La respuesta es sí, y lo vamos a ver en general: Teorema 7.4.1 Sean A y B fórmulas cualesquiera. Entonces {(A ∧ ¬A)} ` B Demostración: 1 (A ∧ ¬A) 2 ¬B 3 (A ∧ ¬A) Repetición, 1 4 ¬¬B I¬ , 2–3 5 B E¬ , 4 Esto nos permite aceptar una importantísima regla derivada, llamada ex contradictione quodlique abreviaremos como ECQ y podemos representar así: bet8 , Regla ECQ (A ∧ ¬A) B Y volviendo a nuestra derivación, podemos terminarla construyendo la contradicción y usando ECQ para obtener la disyunción que deseábamos: 8 "De una contradicción se sigue lo que se desee". Capítulo 7. Consecuencia sintáctica 156 1 (p1 ∨ p2 ) 2 (p1 → p3 ) 3 (¬p2 ∨ p4 ) 4 p1 5 p3 E→ , 2, 4 6 (p3 ∨ p4 ) I∨ , 5 7 p2 8 ¬p2 9 (p2 ∧ ¬p2 ) I∧ , 7, 8 10 (p3 ∨ p4 ) ECQ, 9 11 p4 12 (p3 ∨ p4 ) 13 14 (p3 ∨ p4 ) (p3 ∨ p4 ) I∨ , 11 E∨ , 3, 8–10, 11–12 E∨ , 1, 4–6, 7–13 En este ejemplo hemos aprendido a guiarnos por los puntos de partida (premisas o supuestos abiertos) considerando las reglas de eliminación y hemos recordado que la semántica ofrece invalorables puntos de apoyo para guiarse en las derivaciones. El próximo ejemplo profundizará en este aspecto: Ejemplo 7.5 Demostrar: {(p1 ↔ p2 )} ` ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 )) Nuevamente, la fórmula buscada es una disyunción, y eso desalienta inmediatamente la idea de lograrla por introducción en este caso, a través de un razonamiento semántico, que nos indica que ni (p1 ∧ p2 ) ni (¬p1 ∧ ¬p2 ) (las fórmulas que permitirían introducir la disyunción final) son consecuencias semánticas de {(p1 ↔ p2 )}, de modo que no podemos esperar derivarlas libres de supuestos. Otra forma de enfrentar el problema sería suponer la negación de la fórmula buscada, esperando derivar una contradicción. Pero en nuestro caso (imagine el lector cómo quedaría planteado el inicio de la derivación) esto no parece simplificar ni acercarnos la solución. Por tanto, debemos pensar en aplicar reglas de eliminación sobre la premisa, seguidas de introducción de condicionales. Eso es fácil y obtenemos: 7.4 Heurística 157 1 (p1 ↔ p2 ) 2 p1 3 p2 E↔ , 1, 2 4 (p1 → p2 ) I→ , 2–3 5 p2 6 p1 ) E↔ , 1, 5 7 .. . (p2 → p1 ) .. . I→ , 5–6 n ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 )) Y parece que nos encontramos en una situación desesperada. Intentar llegar a la fórmula final por introducción sigue siendo igualmente inapropiado, y las reglas de eliminación aplicadas a los condicionales obtenidos no parecen poder darnos nada nuevo. Aquí debe venir en nuestro apoyo la semántica. Podemos razonar así: La premisa y los condicionales obtenidos expresan que si p1 es verdadera, p2 lo es, y recíprocamente. Debo mostrar la disyunción según la cual o bien ambas son verdaderas o bien ambas son falsas, que es lo que la fórmula buscada expresa. Ahora bien, solo hay dos posibilidades: p1 es verdadera. En este caso, claramente p2 es verdadera, y por lo tanto ambas lo son. Tenemos el primer disyunto de la disyunción y por tanto, la disyunción. p1 es falsa. En ese caso, como si p2 es verdadera, p1 también lo es, debe ser p2 falsa. Tenemos que ambas son falsas, el segundo disyunto, y por lo tanto, la disyunción. ¿Cómo nos puede servir este razonamiento para construir la derivación buscada? Observemos que parte de decir que hay solo dos posibilidades respecto al valor de verdad de p1 . ¿Hay alguna fórmula que exprese eso? Sí, claramente la fórmula (p1 ∨ ¬p1 ) lo hace. Luego el razonamiento continúa extrayendo las consecuencias de cada una de las posibilidades, lo que viene a ser una eliminación de la disyunción. Para arrancar la contrapartida formal de ese razonamiento tendríamos que poder incluir en nuestra derivación, libre de supuestos, la fórmula (p1 ∨ ¬p1 ). ¿Y lo podemos hacer? La respuesta es que sí, lo podemos hacer gracias a que esa fórmula es un teorema, y esto ha sido demostrado páginas atrás. O sea, podemos utilizar la regla Teorema para introducir esa fórmula en la derivación: Capítulo 7. Consecuencia sintáctica 158 1 (p1 ↔ p2 ) 2 p1 3 p2 E↔ , 1, 2 4 (p1 → p2 ) I→ , 2–3 5 p2 6 p1 ) E↔ , 1, 5 7 (p2 → p1 ) I→ , 5–6 8 .. . (p1 ∨ ¬p1 ) .. . Teorema n ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 )) Ahora nos planteamos eliminar la disyunción de 8 para llegar a la fórmula buscada: 1 (p1 ↔ p2 ) 2 p1 3 p2 E↔ , 1, 2 4 (p1 → p2 ) I→ , 2–3 5 p2 6 p1 ) E↔ , 1, 5 7 (p2 → p1 ) I→ , 5–6 8 (p1 ∨ ¬p1 ) Teorema 9 .. . p1 .. . k ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 )) k+1 .. . ¬p1 .. . l ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 )) l +1 ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 )) E∨ , 8, 9–k, k + 1–l Completar la primera de las subderivaciones restantes es fácil: 7.4 Heurística 159 1 (p1 ↔ p2 ) 2 p1 3 p2 E↔ , 1, 2 4 (p1 → p2 ) I→ , 2–3 5 p2 6 p1 ) E↔ , 1, 5 7 (p2 → p1 ) I→ , 5–6 8 (p1 ∨ ¬p1 ) Teorema 9 p1 10 p2 E↔ , 1, 9 11 (p1 ∧ p2 ) I∧ , 9, 10 12 ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 )) I∨ , 11 13 .. . ¬p1 .. . l ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 )) l +1 ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 )) E∨ , 8, 9–12, 13–l Para completar la subderivación restante, recordemos lo que habíamos pensando en términos semánticos al considerar la segunda posibilidad: “En ese caso, como si p2 es verdadera, p1 también lo es, debe ser p2 falsa.” O sea, estamos diciendo que bajo ese supuesto tendríamos ¬p2 . Para establecerlo en la derivación, podemos probar hacer el supuesto p2 . Si llegamos a una contradicción, inferimos ¬p2 por introducción de la negación, y podemos construir la conjunción (¬p1 ∧ ¬p2 ) y a partir de allí la disyunción buscada, ya que la última fórmula escrita es uno de sus disyuntos. Siguiendo ese plan, la derivación termina así: 1 (p1 ↔ p2 ) 2 p1 3 p2 E↔ , 1, 2 4 (p1 → p2 ) I→ , 2–3 5 p2 6 p1 ) E↔ , 1, 5 7 (p2 → p1 ) I→ , 5–6 Capítulo 7. Consecuencia sintáctica 160 8 (p1 ∨ ¬p1 ) 9 p1 10 p2 E↔ , 1, 9 11 (p1 ∧ p2 ) I∧ , 9, 10 12 ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 )) I∨ , 11 13 ¬p1 Teorema 14 p2 15 p1 E↔ , 1, 14 16 p1 ∧ ¬p1 I∧ , 15, 13 17 ¬p2 I¬ , 14–16 18 ¬p1 ∧ ¬p2 I∧ , 13, 17 19 ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 )) I∨ , 18 20 ((p1 ∧ p2 ) ∨ (¬p1 ∧ ¬p2 )) E∨ , 8, 9–12, 13–19 Este ejemplo debería ser muy instructivo. En primer lugar, muestra que el razonamiento semántico es una guía insustituible al intentar encontrar derivaciones. En segundo lugar, habrá observado el lector que podríamos haber hecho la derivación sin hacer lo que estuvimos haciendo hasta la línea 7. Eso no nos sirvió para nada. Se prefirió hacerlo así en vez de mostrar una marcha directa al objetivo porque si bien se puede generar mecánicamente una derivación de lo buscado, a esta altura lo que se debe incentivar es la práctica y el dominio de los sanos principios que hemos expuesto como heurística adecuada para enfrentarse a estas tareas: Los supuestos deben introducirse con un objetivo definido in mente, generan el compromiso de cerrarlos. Las premisas sugieren la aplicación de reglas de eliminación, la fórmula buscada de una regla de introducción. En muchos casos, pensar cómo se demostraría algo estructuralmente igual a lo pedido razonando en términos semánticos ilumina la construcción de una derivación. Esto es así porque el sistema ha sido construido para reflejar de algún modo el razonamiento común. Luego de estudiar estos ejemplos, seguramente el lector está preparado verificar la corrección de la solución ofrecida al problema de la biblioteca que quedó pendiente a través del siguiente: Ejercicio 7.1 Demostrar: {VF ↔ (¬VF ∨ ¬VG )} ` (VF ∧ ¬VG ) 7.5 7.5.1 Errores frecuentes al intentar hacer derivaciones Creer en la magia Las reglas no dan recetas mágicas para obtener lo que se desea. Un error muy frecuente es razonar de esta manera: Necesito la disyunción A ∨ B ¿Qué problema hay? Agrego a mi derivación A ∨ B y lo justifico por introducción de la disyunción. 7.5 Errores frecuentes al intentar hacer derivaciones 161 Este es un disparate común, las reglas no permiten, invocando su nombre, cual si fueran conjuros mágicos, agregar lo que uno quiera a la secuencia. Cada una de ellas tiene condiciones estrictas de aplicación. En el hipotético caso anterior, el paso solo es correcto si en la secuencia aparecen previamente A o B. Un buen antídoto es recordar siempre lo necesario para justificar la aplicación de una regla, y si no podemos justificarla, es que no la podemos aplicar. Recordamos aquí lo necesario para justificar la aplicación cada regla: Regla Justificación E¬ I¬ E∧ I∧ E∨ I∨ E→ I→ E↔ I↔ 7.5.2 Línea con la fórmula obtenida doblemente negada Una subderivación comenzada con la fórmula obtenida sin negar y terminada en contradicción Línea con una conjunción de la cual uno de los conyuntos es lo obtenido Dos líneas, cada una con un conyunto de la conjunción obtenida Una línea con una disyunción y dos subderivaciones, una comenzada con uno de los conyuntos y la otra con el otro, y terminadas ambas en la fórmula obtenida. Una línea con uno de los disyuntos de la disyunción obtenida. Dos líneas, en una de las cuales hay un condicional cuyo antecedente está en la otra línea y su consecuente es la fórmula obtenida. Una subderivación comenzada con el antecedente y finalizada con el consecuente del condicional obtenido. Dos líneas, en una de las cuales hay un bicondicional y en la otra uno de sus miembros, siendo el otro miembro la fórmula obtenida. Dos líneas, en las cuales figuran condicionales recíprocos, siendo el antecedente y consecuente de uno de ellos los miembros del bicondicional obtenido. Invocar fórmulas bajo supuestos cerrados La existencia de supuestos en una derivación tiene como resultado que no podemos invocar toda fórmula anterior en la aplicación de una regla. Por eso, cuando comenzamos el estudio de la consecuencia sintáctica, antes de introducir los diagramas de Fitch, tachábamos las líneas que no nos eran accesibles. Consideremos una derivación ya realizada: Capítulo 7. Consecuencia sintáctica 162 1 (p1 ∨ p2 ) 2 (p1 → p3 ) 3 (¬p2 ∨ p4 ) 4 p1 5 p3 E→ , 2, 4 6 (p3 ∨ p4 ) I∨ , 5 7 p2 8 ¬p2 9 (p2 ∧ ¬p2 ) I∧ , 7, 8 10 (p3 ∨ p4 ) ECQ, 9 11 p4 12 (p3 ∨ p4 ) 13 14 (p3 ∨ p4 ) (p3 ∨ p4 ) I∨ , 11 E∨ , 3, 8–10, 11–12 E∨ , 1, 4–6, 7–13 En ella, desde cualquier línea se puede invocar las fórmulas que aparecen en 1, 2 y 3, ya que ellas son las premisas. No repetiremos que esto es así. Hasta la línea 6, se pueden invocar todas las anteriores. Pero como se indica gráficamente, allí termina la acción de un supuesto y las líneas 4, 5, 6 ya no pueden ser invocadas en adelante, excepto para cerrar el supuesto bajo el que están. Obsérvese la línea 10. Desde ella se pueden invocar (aparte de las premisas) solo la 7, la 8 y la 9. En la 13 solo se pueden invocar las premisas y la línea 7 como fórmulas, pero es posible invocar subderivaciones que se encuentran bajo el supuesto de 7. Examinemos más cuidadosamente la derivación. Se observa que cada vez que agregamos un supuesto, hacemos algo análogo a introducir una premisa. Evidentemente el supuesto no es una premisa, pero lo que obtenemos bajo él, es consecuencia sintáctica de las premisas y del supuesto. Mirando la derivación vemos: 1. Línea 5: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 ), p1 } ` p3 2. Línea 6: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 ), p1 } ` (p3 ∨ p4 ) 3. Línea 9: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 ), p2 , ¬p2 } ` (p2 ∧ ¬p2 ) 4. Línea 10: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 ), p2 , ¬p2 } ` (p3 ∨ p4 ) 5. Línea 12: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 ), p2 , p4 } ` (p3 ∨ p4 ) 6. Línea 13: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 ), p2 } ` (p3 ∨ p4 ) 7. Línea 14: {(p1 ∨ p2 ), (p1 → p3 ), (¬p2 ∨ p4 )} ` (p3 ∨ p4 ) Por eso en general si utilizamos una fórmula obtenida bajo un supuesto ya cerrado, estamos agregando ese supuesto al conjunto del cual extraemos la consecuencia sintáctica, y eso nos lleva inevitablemente a un error. La forma de evitarlo es simple, cuidando la construcción correcta de los 7.6 Propiedades de la relación de consecuencia sintáctica 163 diagramas y observando que solo se pueden utilizar fórmulas por cuya izquierda pasen exactamente las mismas líneas verticales que las que pasan por el lugar donde nos encontramos. Esto vale para la invocación de líneas y no de subderivaciones. 7.5.3 No cerrar supuestos De lo dicho anteriormente, es claro que si uno presenta un diagrama de Fitch sin todos los supuestos cerrados, la última fórmula será, en el mejor de los casos, consecuencia sintáctica de las premisas y de los supuestos que hayan quedado abiertos. Por lo tanto, la última fórmula de un diagrama de Fitch debe tener siempre una única línea vertical a su izquierda, igual que las premisas. 7.5.4 Abusar del conocimiento semántico A veces sabemos que dos fórmulas son equivalentes o que una implica la otra, y queremos usar eso para simplificar la derivación. Por ejemplo, supongamos que queremos demostrar {p1 } ` ¬¬p1 Podemos estar tentados de presentar 1 p1 2 ¬¬p1 Me pareció que podía, 1 Eso es un error, la derivación, por supuesto, debió ser 1 p1 2 ¬p1 3 (p1 ∧ ¬p1 ) 4 ¬¬p1 I∧ , 1, 2 I¬ , 2–3 La primera “derivación” equivale a utilizar una regla de este tipo: Regla ¬¬ A ¬¬A En general, para utilizar este tipo de reglas que no están en nuestro sistema, debemos acordarlo explícitamente, y sobre todo, debemos tener demostrado que esa regla que queremos usar es prescindible, o sea, que sin ella podemos obtener lo mismo en nuestro sistema, aunque a través de derivaciones más largas. Veremos más sobre reglas derivadas en los ejercicios. 7.6 Propiedades de la relación de consecuencia sintáctica Corresponde ahora que examinemos las propiedades de la relación que hemos definido. Al hacerlo, iremos ofreciendo las definiciones necesarias: Definición 7.6.1 — Conjuntos consistentes, conjuntos inconsistentes. Sea Γ un conjunto de fórmulas. Γ es inconsistente si existe una fórmula A tal que Γ ` (A ∧ ¬A), y es consistente en caso contrario. O sea, un conjunto es inconsistente si de él se puede derivar una contradicción, y es consistente si no se puede. Capítulo 7. Consecuencia sintáctica 164 7.6.1 Consecuencias de conjuntos inconsistentes Supongamos que Γ es inconsistente. Es muy fácil demostrar que Γ ` B para toda fórmula B: 0 .. . Γ .. . n (A ∧ ¬A) n+1 B ECQ, n Hemos modificado la presentación del diagrama de Fitch en forma obvia: Ponemos Γ donde irían las premisas, y queda numerado con 0 (esto no se debe al deseo del autor, sino al del realizador del paquete de LATEX utilizado para hacer diagramas de Fitch, Peter Selinger). Bajo él, lo que se puede obtener según la información que se posee. Queda demostrado el Teorema 7.6.1 Si Γ es inconsistente, entonces Γ ` B, sea cual sea la fórmula B. 7.6.2 Monotonía Supongamos que Γ y A son tales que Γ ` A. Modifiquemos ahora el conjunto Γ agregándole fórmulas. Llamemos ∆ al conjunto de las fórmulas que agregamos obteniendo un conjunto Γ’ que será la unión de Γ y ∆. En símbolos de la teoría de conjuntos, Γ’=Γ ∪ ∆. Nos preguntamos si se cumple Γ’` A. La respuesta afirmativa es inmediata. Como existe una derivación de A a partir de Γ, podemos construir siempre una derivación de A a partir de Γ’=Γ ∪ ∆, simplemente usando como premisas los elementos de Γ e ignorando los de ∆. Y si Γ fuere vacío, A es un teorema y no necesitamos premisa alguna para derivarlo. Queda demostrado el Teorema 7.6.2 Si Γ ` A, entonces para todo conjunto de fórmulas ∆, Γ ∪ ∆ ` A. Se concluye también el siguiente Corolario 7.6.3 Si τ es un teorema, entonces Γ ` τ para todo conjunto Γ. 7.6.3 El teorema de deducción (versión sintáctica) El teorema de deducción en su versión sintáctica tiene la misma forma que en la versión semántica, pero se refiere a la consecuencia correspondiente (usamos la misma notación que al enunciar la versión semántica): Teorema 7.6.4 Para todo conjunto de fórmulas Γ y para cualesquiera fórmulas A y B: Γ, A ` B si y solo si Γ ` (A → B). Demostración: Supongamos que se cumple Γ, A ` B. Entonces existe una derivación que podemos presentar así: 7.6 Propiedades de la relación de consecuencia sintáctica 0 Γ n .. . A .. . m B 165 Entonces lo siguiente también es una derivación: 0 Γ n .. . A .. . m B m+1 (A → B) I→ , n–m Esta segunda derivación tiene las mismas fórmulas que la primera entre A y B, y muestra que Γ ` (A → B). Supongamos ahora que se cumple Γ ` (A → B). Entonces existe una derivación que corresponde al diagrama: 0 .. . Γ .. . k A→B A partir de ella, podemos construir la siguiente derivación: 0 Γ n .. . A .. . k+1 A→B k+2 B E→ , n, k + 1 Las fórmulas que van en lugar de los puntos suspensivos de ambos diagramas son las mismas, que se extraen exclusivamente de Γ. Esta derivación muestra que Γ, A ` B. 7.6.4 El “absurdo” Su enunciado es Capítulo 7. Consecuencia sintáctica 166 Teorema 7.6.5 — El “absurdo”. Para todo conjunto Γ y toda fórmula A, Γ ` A si y solo si Γ, ¬A es inconsistente. Demostración: Supongamos que Γ ` A. Esto significa que existe una derivación así: 0 .. . Γ .. . k A Queremos demostrar que de Γ, ¬A se puede derivar una contradicción. Que esto es así surge de que lo siguiente es una derivación: 0 Γ n .. . ¬A .. . k+1 A k+2 (A ∧ ¬A) I∧ , n, k + 1 En los puntos suspensivos de ambas derivaciones van las mismas fórmulas. Supongamos ahora que Γ, ¬A es inconsistente. Esto significa que existe una derivación así: 0 Γ n .. . ¬A .. . k (B ∧ ¬B) Que Γ ` A queda demostrado por el hecho de que lo siguiente es una derivación: 0 Γ n .. . ¬A .. . k (B ∧ ¬B) k+1 ¬¬A I¬ , n–k k+2 A E¬ , k + 1 Como en los casos anteriores, las fórmulas por las que están los puntos suspensivos son las mismas en ambas derivaciones. 7.7 Aparatos deductivos 167 Hemos visto que la relación de consecuencia sintáctica comparte varias propiedades con su homóloga semántica. Sobre las relaciones entre ambas nociones de consecuencia hablaremos más adelante. Shift ⇑ 7.7 SEGUNDA LECTURA Aparatos deductivos El sistema de deducción natural es un sistema formal. En esta parte del capítulo estudiaremos los sistemas formales con mayor generalidad, sin centrarnos en un lenguaje ni unas reglas específicas. Un sistema formal se basa en un lenguaje formal pero no se reduce a él. Es más, así como en el plano semántico el mismo lenguaje formal puede ser soporte de interpretaciones diversas, en el plano sintáctico el mismo lenguaje formal puede ser soporte de sistemas formales diversos. Definición 7.7.1 — Sistema formal, aparato deductivo. Un sistema formal S es un lenguaje formal L junto con un aparato deductivo, es decir: Un conjunto de fórmulas destacadas de L , que se llaman los axiomas de S . Un conjunto de reglas de inferencia que determinan inequívocamente, si dados dos conjuntos o sucesiones de fórmulas Γ y ∆ de L cualesquiera, es posible obtener ∆ de Γ como resultado de aplicar una de las reglas. En caso de que se pueda, se dice que ∆ es consecuencia inmediata de Γ. El aparato deductivo debe poder explicitarse sin hacer referencia alguna a interpretaciones del lenguaje formal, y puede carecer de axiomas o de reglas de inferencia pero no, obviamente, de ambas cosas. Ejemplo 7.6 (Sistema formal S1 ) Lenguaje formal: Alfabeto: {a, b} Fórmulas: • a es una fórmula • b es una fórmula • Si Xa es una fórmula, Xab es una fórmula (X puede ser la cadena vacía). • Si Xb es una fórmula, Xba es una fórmula (X puede ser la cadena vacía). • Todas las fórmulas se obtienen de las cláusulas anteriores. Aparato deductivo: Axiomas: • ab es el único axioma Reglas de inferencia: 1. La fórmula Xb tiene como consecuencia inmediata a la fórmula Xbaba 2. Toda fórmula tiene como consecuencia inmediata a la fórmula que se obtiene al intercambiar todas las aes por bes y todas las bes por aes. Podemos ver el lenguaje dispuesto en estructura arborescente a partir de las fórmulas básicas, generándose mediante las reglas de formación de fórmulas. Obtendríamos: Capítulo 7. Consecuencia sintáctica 168 a b ab ba aba bab abab baba ababa babab ababab bababa abababa bababab abababab babababa .. . .. . Pero si consideramos el sistema formal, vemos que este recoge algunas fórmulas del lenguaje y otras no, en el siguiente sentido: Si partimos del axioma (o de los que tuviésemos), aplicando las reglas de inferencia sucesivamente obtenemos algunas de las fórmulas del lenguaje (idealmente, no todas, porque si no, ¿para qué sirve el sistema formal?). Esto puede verse en el siguiente diagrama, en el que se resaltan las fórmulas que se pueden obtener a partir del axioma ab, y donde las flechas indican la relación de consecuencia inmediata: a b ab ba aba bab abab baba ababa babab ababab bababa abababa bababab abababab babababa .. . .. . Se observa que en este caso particular, si en vez de tener como único axioma la fórmula ab tuviésemos la fórmula ba, conservando las reglas de inferencia, el sistema deductivo resultante nos permitiría obtener exactamente las mismas fórmulas que nos permite nuestro sistema. 7.7 Aparatos deductivos 169 Este es un ejemplo de sistema formal que consta tanto de axiomas como de reglas de inferencia. Si un sistema solo tiene axiomas, es decir, carece de reglas de inferencia, lo único que hace es seleccionar algunas fórmulas, destacándolas y llamándolas axiomas. No son sistemas interesantes, salvo para algunos propósitos teóricos, y no nos ocuparemos de ellos. El sistema que conocemos bien, el de deducción natural, carece de axiomas. Es por ello que no profundizaremos en ese tipo de sistemas y nos conformaremos con examinar brevemente los sistemas axiomáticos. 7.7.1 Derivaciones en sistemas formales axiomáticos Dijimos anteriormente que en el sistema formal S1 , la fórmula aba no se puede obtener partiendo de los axiomas y aplicando las reglas de inferencia, no importa cuántas veces las apliquemos. Sin embargo, el fragmento de grafo que hicimos muestra que la fórmula abababab sí se puede obtener de ese modo. Podemos presentar una secuencia, que no es su secuencia de formación justificándolo: 1. ab (Axioma) 2. ababa (Regla de inferencia 1, aplicada a 1.) 3. babab (Regla de inferencia 2 aplicada a 2.) 4. babababa (Regla de inferencia 1 aplicada a 3.) 5. abababab (Regla de inferencia 2 aplicada a 4.) Lo que acabamos de mostrar es, como el lector habrá adivinado, una derivación de la fórmula abababab en nuestro sistema formal. Cuando existe una derivación de una fórmula en un sistema formal, esa fórmula es un teorema del sistema formal. Recogemos estas ideas en las siguientes definiciones: Definición 7.7.2 — Sistema axiomático, derivación en sistema axiomático, teorema. Un sistema formal axiomático es un sistema formal que destaca algunas de las fórmulas del lenguaje formal sobre el que está definido como axiomas. Una derivación de una fórmula A en un sistema formal axiomático es una secuencia finita de fórmulas tal que cada fórmula de la secuencia: o bien es un axioma o bien es consecuencia inmediata de alguna o algunas de las fórmulas que figuran como elementos anteriores de la secuencia y la última fórmula de la secuencia es A. Si en el sistema formal axiomático S hay una derivación de la fórmula A, se dice que A es un teorema en el sistema S . Está claro que en los sistemas formales axiomáticos sin reglas de inferencia, los únicos teoremas son los axiomas, y todas las derivaciones en ellos tienen un solo elemento. Volviendo al sistema formal axiomático en el que venimos trabajando, parece que las fórmulas aba y bababa no son teoremas. Efectivamente, no lo son, y podemos demostrarlo. Para demostrar que no son teoremas, se debe mostrar que ninguna derivación en el sistema tiene como último elemento a una de esas fórmulas. No basta probar con unas cuantas derivaciones y ver que no terminan con la fórmula buscada, porque eso no asegura que no exista otra derivación que sí lo haga. Es por eso que debemos recurrir a propiedades de todas las derivaciones, y demostrar que una derivación que terminara con la fórmula aba, por ejemplo, carecería de una propiedad que todas las derivaciones en el sistema tienen. Observando diagrama que presentamos, no es difícil conjeturar que todos los teoremas de Capítulo 7. Consecuencia sintáctica 170 este sistema son fórmulas que constan de 2, o de 5, o de 8, o de 11, o en general, de un número k de símbolos, donde k es un múltiplo de 3 más 2. Si lográsemos probar que todos los teoremas tienen esa propiedad, inmediatamente quedaría probado que ni aba ni bababa son teoremas, ya que la cantidad de símbolos en las dos fórmulas es múltiplo de 3. 7.7.2 Inducción sobre la longitud de las derivaciones El método estándar para probar algo sobre todos los teoremas es muy parecido al que se usaba para probar algo sobre todas las fórmulas del lenguaje. Allí se partía de las fórmulas más básicas y se mostraba que la propiedad considerada se trasmitía por las reglas de formación. Cuando trabajamos con sistemas formales axiomáticos, probamos que los teoremas más simples (los axiomas) cumplen la propiedad, y que la propiedad se trasmite por las reglas de inferencia. Así queda probado que todos los teoremas tienen la propiedad. Esto equivale a demostrar que los teoremas que se pueden obtener por medio de derivaciones de longitud mínima cumplen la propiedad, y que, si todos los teoremas que se obtienen con derivaciones de longitud j cumplen la propiedad, los teoremas que se obtienen por medio de derivaciones de longitud j + 1 también cumplen la propiedad. La longitud se mide, naturalmente, como la cantidad de fórmulas en la derivación. Inducción sobre derivaciones en un sistema formal axiomático Si se demuestra que: Los axiomas cumplen una propiedad P. Cada vez que se aplica una regla de inferencia a fórmulas que cumplen la propiedad P, se obtiene una fórmula que cumple la propiedad P queda demostrado que todos los teoremas del sistema formal axiomático cumplen la propiedad P. De esta manera, es sencillo probar que aba y bababa no son teoremas: El axioma, ab, consta de 0+2, o sea, un múltiplo de 3 (el cero) más dos símbolos. Supongamos que la fórmula A consta de un múltiplo de 3 más dos símbolos. Es decir, la cantidad de símbolos de A es 3k + 2 para algún número natural k. Si le aplicamos • La regla de inferencia 1, lo que hacemos es agregarle la cadena aba al final, que consta de 3 símbolos. La cantidad total de símbolos de la fórmula obtenida es 3k + 2 + 3 = 3(k + 1) + 2, o sea, un múltiplo de 3 más dos. • La regla de inferencia 2, la cantidad de símbolos no se altera, o sea que en la fórmula que obtenemos también hay 3k + 2, un múltiplo de 3 más dos símbolos. Por lo tanto, todos los teoremas tienen 2, 5, 8, 11, 14, 17, ... y en general, un múltiplo de 3 más 2 símbolos. Como aba y bababa no tienen una cantidad de símbolos que se pueda expresar como un múltiplo de 3 más dos, no son teoremas de S1 . 7.7.3 Un sistema axiomático para la lógica proposicional Existen sistemas axiomáticos para la lógica proposicional, y en esta sección presentaremos uno. Este sistema no funciona sobre el lenguaje L P, sino sobre uno que además de las letras proposicionales y paréntesis, solo consta de los conectivos ¬ y →, que constituyen un conjunto adecuado. La sintaxis es la misma que en L P restringiéndose únicamente a esos conectivos. Los axiomas son todas las fórmulas de las siguientes formas: 7.8 Excurso filosófico: Lógica intuicionista 171 1. A → (B → A) 2. (A → (B → C)) → ((A → B) → (A → C)) 3. (¬A → ¬B) → ((¬A → B) → A) Esto nos da esquemas de axiomas que llamaremos por su número. El lector podrá comprobar que las fórmulas con esas formas son tautologías, y con más trabajo, que son teoremas. La única regla de inferencia es la eliminación del condicional o modus ponens (abreviado MP). Se puede demostrar que este sistema tiene la misma potencia que el nuestro, es decir, si con este sistema se puede derivar una fórmula a partir de un conjunto –o sea, si existe una derivación en la cual, además de axiomas y resultados de aplicar MP a fórmulas anteriores podemos introducir en cualquier punto fórmulas del conjunto–, con el nuestro de deducción natural también se puede; y si con nuestro sistema de deducción natural se puede derivar una fórmula, con este sistema axiomático se puede derivar una fórmula equivalente. Para que se haga una idea de lo poco intuitivo que puede ser trabajar en sistemas axiomáticos, vamos a presentar una derivación de un teorema nada complejo, la fórmula p1 → p1 1 2 3 4 5 p1 → (p1 → p1 ) p1 → ((p1 → p1 ) → p1 ) (p1 → ((p1 → p1 ) → p1 )) → ((p1 → (p1 → p1 )) → (p1 → p1 )) (p1 → (p1 → p1 )) → (p1 → p1 ) p1 → p1 Axioma (esq. 1) Axioma (esq. 1) Axioma (esq. 2) MP 2,3 MP, 1,4 Espero que después de ver esto, por más que el lector haya sufrido con la deducción natural, se sienta agradecido por la elección del sistema. 7.8 Excurso filosófico: Lógica intuicionista Vamos a terminar este extenso capítulo haciendo un excurso que resultará de interés para aquellos preocupados por ciertos problemas filosóficos. La lógica que hemos estudiado es parte de la Lógica clásica, y esta no es, en modo alguno, la única lógica que existe. No nos estamos refiriendo a la posibilidad de cambiar nuestro lenguaje en modos que veremos en los próximos capítulos, con el objetivo de poder formalizar clases de inferencias más amplias que las que actualmente están a nuestro alcance. Nos referimos a lógicas con el mismo lenguaje pero con reglas de inferencia diferentes, siendo esta diferencia de una profundidad tal que modifica la relación de consecuencia sintáctica, haciendo que derivaciones correctas en nuestra lógica no sean tenidas como correctas en esas otras lógicas. El trasfondo de esto es que no todas las personas creen que los argumentos que validamos como correctos lo sean. Algunos consideran que hay algo profundamente equivocado en la forma en que hemos planteado las cosas. Un ejemplo prominente de esto está dado por el intuicionismo, una corriente lógica que rechaza algunas de las reglas de inferencia que hemos aceptado. Más allá de que el intuicionismo se pueda rastrear, en su desarrollo, al menos hasta Kant, haremos una exposición desinteresada de los aspectos históricos y centrada en las motivaciones filosóficas. El problema se presenta en forma nítida en la filosofía de la matemática. Simplificando mucho y hablando grosso modo, hay dos al menos formas de considerar los objetos del discurso matemático Capítulo 7. Consecuencia sintáctica 172 (hay más, pero solo nos interesan, para propósitos explicativos, estas dos). Según la primera, que corresponde al llamado platonismo, los objetos del discurso matemático son objetos reales, con existencia objetiva, del mismo modo que los objetos físicos para un realista acerca del mundo externo. Así como la existencia de la luna no depende de que nadie la perciba o la piense -según el realista-, los objetos matemáticos existen con esa misma independencia objetiva. Según el platónico, cuando decimos El gato está sobre el sillón. y lo que decimos es verdadero, existe una cosa llamada “gato”, existe una cosa llamada “sillón” y la primera está con la segunda en una relación que llamamos “estar sobre”. Del mismo modo, cuando decimos Siete es mayor que tres. y lo que decimos es verdadero, existe una cosa llamada “siete”, existe una cosa llamada “tres” y la primera está con la segunda en una relación que llamamos “mayor que”. O sea, el platónico aboga por algo muy deseable: una uniformidad semántica en la matemática y fuera de ella, y lo hace desde una perspectiva realista. Una cita del eminente matemático G. H. Hardy, tomada de [Har12] dejará en negro sobre blanco lo que se postula desde esta perspectiva: Creo que la realidad matemática yace fuera de nosotros, que nuestra función es descubrirla u observarla, y que los teoremas que demostramos, y que describimos en forma grandilocuente como nuestras “creaciones” son simplemente las notas de nuestras observaciones. Esta es una presentación del platonismo9 primigenio, por así decirlo, que ha sido muy atacado10 y por eso muy pocos filósofos lo sostienen en esta forma. Sin embargo, es interesante considerar la razón principal que expuso Kurt Gödel, el mayor lógico del siglo XX y uno de los tres grandes de la historia, junto con Aristóteles y Frege, para apoyar ese punto de vista. Se resume en esta cita, de [Göd90]: Me parece que la suposición de tales objetos [se refiere a los objetos matemáticos] es tan legítima como la suposición de los cuerpos físicos y que hay tanta razón para creer en su existencia [como en la de estos]. Son necesarios en el mismo sentido para obtener un sistema de matemática satisfactorio como los cuerpos físicos son necesarios para una teoría satisfactoria de nuestras percepciones sensoriales y en ambos casos es imposible interpretar las proposiciones que se desea expresar sobre esas entidades como proposiciones acerca de los “datos”, i. e., en el último caso como sobre las percepciones mismas. Según Gödel, la postulación de la existencia del gato y el sillón es razonable dado que es la mejor explicación de nuestras experiencias. No es que solamente vemos el gato y el sillón aunque no queramos verlos. Permanecen y otros nos comunican que también los ven. En esas circunstancias, la postulación de la existencia es la mejor explicación de lo que experimentamos. 9 Debe tenerse en cuenta que “platonismo” no quiere decir “perteneciente a la filosofía de Platón”, sino que refiere a un método filosófico de estructurar soluciones a diversos problemas consistente en la postulación de objetos abstractos, o sea, sin determinación espaciotemporal. Es posible ser platónico al considerar problemas que jamás preocuparon a Platón o aceptando soluciones diferentes a las aceptadas por él. 10 Quizá los dos ataques más fuertes que ha recibido el platonismo matemático en esta forma se deban a la misma persona: Paul Benacerraf, quien en sendos artículos [Ben65] y [Ben73] plantea dos desafíos al platonismo matemático tradicional que han llevado a modificaciones de la teoría dada la fuerza de sus argumentos. 7.8 Excurso filosófico: Lógica intuicionista 173 Con los objetos matemáticos pasa algo idéntico, según Gödel, solo que no a través del aparato perceptual. Pero de algún modo sabemos que siete es mayor que tres, no podemos hacer que no sepamos eso, y otros nos comunican lo mismo. El platonismo matemático, muy especialmente en esta versión, no tiene mucho predicamento entre filósofos, aunque quizá sí entre matemáticos11 . Su debilidad mayor está en la dificultad de proveer una epistemología razonable, una explicación de los modos que los humanos, seres espaciotemporales, tenemos de conocer esos objetos que no tienen determinación espaciotemporal. Frente a esta concepción, que implica que el universo no está constituido únicamente por objetos físicos, se levanta otra que sostiene que los objetos matemáticos no tienen el tipo de existencia objetiva que el platónico cree que tienen, sino que son construcciones, o sea objetos de algún modo dependientes de las mentes. No quiere decir esto que cada individuo, cada mente, pueda hacer la matemática que quiera, como si hacer matemática y escribir novelas fuese lo mismo. Una vez que se ha realizado una construcción, es esa la construcción “correcta”. Pero en tanto no ha sido realizada, está indeterminada. O sea, para el platónico, la realidad matemática está completa y determinada, y el matemático la explora y reporta sus descubrimientos, del mismo modo que un explorador ingresa en un continente desconocido y va reportando sus observaciones, describiéndolo. Para el intuicionista, la realidad matemática no está acabada y completa sino en construcción. El intuicionismo no tiene, por tanto, problemas para proveer una epistemología adecuada para el conocimiento matemático. Sus problemas filosóficos son de otra índole y emergen frente a la aparente necesidad y atemporalidad de los asertos matemáticos. Pensándolo bien, la divergencia planteada no debería acarrear profundos desacuerdos, a no ser por algo que se introduce en la matemática naturalmente y es la pesadilla de los filósofos: el infinito. Si la realidad matemática fuera finita, la actividad constructiva podría llegar a abarcarla toda, y no habría desacuerdo alguno. Pero los matemáticos tratan objetos infinitos (por ejemplo, el conjunto de los números naturales) como si fueran realidades acabadas, completas, y esto es inadmisible para los intuicionistas, porque entienden, con toda razón, que los procesos constructivos infinitos no se pueden acabar nunca, y en forma más discutible, agregan que ni siquiera idealmente. O sea, para el intuicionista no existe nada como el conjunto de todos los números naturales. Existen sí, conjuntos de naturales que tienen tantos elementos como se quiera, pero son siempre finitos. Según él, cuando un matemático dice que el conjunto de números naturales es infinito, no quiere decir que hay un objeto con infinitos elementos, sino que dado cualquier conjunto finito de números naturales, se puede construir un número natural que no está en el conjunto. Básicamente, los intuicionistas rechazan los infinitos actuales, aceptando solo el infinito potencial. Este movimiento de fortísimos tintes antimetafísicos se complementa con el desinterés semántico acerca de la noción de verdad, al menos en tanto “verdad” signifique lo que significa para el platónico. Veamos la motivación para esto, considerando un problema abierto en la matemática. Un número perfecto es un número natural igual a la suma de sus divisores diferentes a él. Por ejemplo, 6 es perfecto, ya que sus divisores diferentes de 6 son 1, 2 y 3 y 1+2+3=6. 28 es perfecto, ya que sus divisores diferentes de 28 son 1, 2, 4, 7 y 14 y 1+2+4+7+14=28. Se conocen muchos números perfectos. Todos los números perfectos conocidos son pares. Nadie sabe si existe algún perfecto impar, ya que nadie ha demostrado que ser perfecto implique ser par, ni tampoco nadie ha hallado un perfecto impar. Frente a esta situación y el enunciado “Existe un número perfecto impar”, el intuicionista dirá que preguntarse por su verdad es inapropiado. Suponer que la proposición expresada por ese 11 Se suele decir que los matemáticos son platónicos fanáticos mientras hacen matemática pero luego, en el bar, cuando se encuentran con el filósofo, frente a las debilidades del platonismo lo abandonan declarativamente y se pasan a algo más políticamente correcto. Debe ser una infamia. Capítulo 7. Consecuencia sintáctica 174 enunciado es verdadera o falsa es introducir tácitamente la presuposición metafísica de que el conjunto de los números naturales es una totalidad completa y acabada, y por supuesto, si es así, entonces el enunciado sería o bien verdadero o bien falso. Pero según el intuicionista no es así, no hay una totalidad de números naturales completa y acabada en la cual hay o no hay un perfecto impar. Se comprende la necesidad que tiene el intuicionista de rechazar nuestra lógica. Sea p la proposición Existe un número perfecto impar. Nosotros, a partir de nuestra lógica, la clásica, y el matemático que adhiere a ella (los llamaremos “matemáticos clásicos”, mote que incluye claramente a los platónicos pero no solo a ellos), aceptamos que no sabemos si p es verdadera o si p es falsa. Pero a la vez sostenemos que sabemos que la proposición E Existe un número perfecto par o no existe un número perfecto par. es verdadera. Y si nos preguntan por qué, respondemos que simplemente lo sabemos por lógica. Nuestra lógica tiene dos formas de afirmar eso: p ∨ ¬p, que es la representación formal de E, es tanto una fórmula válida como un teorema, según ya hemos visto. Frente a esto, el intuicionista dirá que estamos haciendo todo mal. Que partimos de un concepto de verdad metafísico en forma inadvertida y eso ha contaminado todo nuestro razonamiento. La validez es un concepto absolutamente dependiente de ese concepto estrafalario de verdad y la teoremicidad se debe a un sistema de reglas que fueron elegidas para preservar esa misma validez. Por supuesto, si esto fuera todo, el intuicionismo no sería más que una crítica a la lógica clásica, pero es mucho más que eso, debido a que tiene una interesantísima parte propositiva que vamos a exponer ahora. Si se le pregunta al intuicionista cómo es que hay que razonar entonces, dado que nuestra lógica es incorrecta, él comenzará insistiendo en el rechazo al concepto de verdad, y nos dirá: Mira, olvídate de la verdad. Preocuparse por eso está mal, es un disparate. No debería preocupar a nadie lo que es verdadero sobre los conjuntos que llamamos infinitos, porque sobre esas realidades no acabadas, no hay verdad. En vez de preocuparnos por las condiciones de verdad de un enunciado, debemos preocuparnos por las condiciones bajo las cuales podemos sostener un enunciado, o sea, debemos preocuparnos por las condiciones de asertabilidad. Lo que nos debe importar no es bajo qué condiciones es verdadera o falsa la proposición, sino bajo qué condiciones es asertable. Y se concede este paso fundamental, el rechazo del cumplimento las condiciones de verdad como regulador de la aceptación de las proposiciones en favor de las condiciones de asertabilidad, según lo entiendo, el intuicionista tiene la partida ganada. Veamos cómo prosigue su argumentación: En matemática, las condiciones de asertabilidad son las condiciones de prueba o demostración. Podemos afirmar algo, algo es asertable, cuando ha sido probado. Obsérvese el movimiento central del intuicionista: está queriendo sustituir los cimientos del edificio lógico, constituidos por las relaciones de valores de verdad de las proposiciones, por otros absolutamente epistémicos, referidos a lo demostrable. El punto no es otra cosa que lo que podemos afirmar, demostrar, saber. Entonces rechacemos esa semántica basada en la noción de verdad y tomemos otra, la adecuada para nuestros propósitos, basada en el concepto de demostración o prueba. Esta interpretación del significado de las fórmulas queda expresada así: 7.8 Excurso filosófico: Lógica intuicionista 175 Una prueba de A ∧ B es un par de pruebas, una de A y una de B. (O sea, una conjunción es asertable si y solo si lo son sus dos conyuntos). Una prueba de A ∨ B es una prueba de A o una prueba de B, con indicación de cuál es la que se posee. (O sea, una disyunción es asertable si y solo si uno de sus disyuntos, identificable, es asertable). Una prueba de A → B es una construcción que permite transformar toda prueba de A en una prueba de B. (Esta cláusula parece la más difícil de entender. Significa que un condicional es asertable si y solo si, partiendo de cualquier prueba del antecedente, es posible construir una prueba de del consecuente). Una prueba de ¬A es una prueba de A → ⊥ para cualquier B. (O sea, la negación de una proposición A es asertable cuando es posible construir la prueba de una contradicción a partir de cualquier prueba de la proposición A). No hay prueba de ⊥a . a⊥ es una constante lógica, que viene a funcionar como una contradicción, es lo no asertable en circunstancia alguna. Esta, la llamada interpretación Brouwer–Heyting–Kolmogorov12 (abreviada BHK) es la sólida base que la lógica necesita, libre de dudosos supuestos metafísicos. Ahora podemos ver más claramente el rechazo intuicionista a afirmar Existe un número perfecto par o no existe un número perfecto par. Para que el intuicionista aceptara que esta proposición es asertable, debería tener una prueba de uno de sus disyuntos, con indicación de cuál. Es decir, se debería conocer una prueba de Existe un número perfecto par. o una de No existe un número perfecto par. pero no se tiene prueba de ninguna de las dos. Hemos visto que los matemáticos clásicos aceptarán cualquier instancia del tercero excluido, o sea, cualquier instancia de fórmulas del tipo A ∨ ¬A, mientras que el intuicionista no lo hará. Esto no quiere decir que el intuicionista rechace todas las instancias, sino solo aquellas en las que se carece de prueba de ambos disyuntos. Para evaluar la profundidad del desacuerdo, examinemos las reglas de inferencia que hemos aceptado, para ver cuáles rechazaría el intuicionista y cuáles aceptaría. En vez de presentarlas sistemáticamente, podemos dirigirnos a un núcleo del problema prestando atención a la derivación clásica de la ley de tercero excluido (abreviada LTE). Esa derivación fue presentada en 7.2 y es: 12 Tres prominentes intuicionistas. Capítulo 7. Consecuencia sintáctica 176 1 ¬(A ∨ ¬A) 2 A 3 (A ∨ ¬A) I∨ , 2 4 ((A ∨ ¬A) ∧ ¬(A ∨ ¬A)) I∧ , 3, 1 5 ¬A I¬ , 2–4 6 (A ∨ ¬A) I∨ , 5 7 ((A ∨ ¬A) ∧ ¬(A ∨ ¬A)) I∧ , 6, 1 8 ¬¬(A ∨ ¬A) I¬ , 1–7 9 (A ∨ ¬A) E¬ , 8 Obviamente, el intuicionista debe rechazar alguna de las reglas que ponemos en juego en esta derivación, so pena de aceptar LTE, lo que no se puede permitir. La derivación se abre con un supuesto. El intuicionista no tiene ningún problema con la posibilidad de hacerlos, solo que al suponer una fórmula A lo interpreta como la suposición de que se tiene una prueba de A. La primera regla que se aplica es I∨ , que tiene la forma Regla I∨ i A Regla I∨ d A B∨A A∨B Es claro que se corresponde exactamente con lo que el intuicionista requiere de para poder afirmar una disyunción. Bajo su interpretación, siempre que se tiene una prueba de A se puede asertar A ∨ B o B ∨ A. De modo que no está aquí el problema. La siguiente regla que se aplica es I∧ , cuya forma Regla I∧ A B A∧B es inobjetable por parte del intuicionista: Recoge la idea, una vez reinterpretada, de que una prueba de A y una prueba de B constituyen una prueba de A ∧ B. Este tampoco es el problema. La siguiente regla en ser aplicada es I¬ , cuya forma Regla I¬ [A] .. . B ∧ ¬B ¬A se adapta perfectamente a las exigencias intuicionistas. Reinterpretada, expresa que a partir de una prueba de A se puede construir una prueba de una contradicción (la construcción, obviamente, es lo que queda en los puntos suspensivos). Por lo tanto, tampoco es este el problema. Y nos queda una única regla utilizada en la derivación, regla que el intuicionista debe rechazar, si no quiere aceptar la asertabilidad de LTE en toda su generalidad. Esta regla es E¬ : 7.8 Excurso filosófico: Lógica intuicionista 177 Regla E¬ ¬¬A A ¿Cómo puede ser que alguien no acepte que de la doble negación de A se sigue A? ¿No es claro que si la negación de la negación de A es verdadera, la negación de A es falsa, y consecuentemente, A es verdadera? Quien habla así olvida completamente el terreno sobre el que se situó el intuicionista desde el principio, rechazando hablar acerca de la verdad. La pregunta con sentido para el intuicionista es: Suponiendo que se puede asertar la doble negación de A ¿es asertable A? Para contestarla en el marco intuicionista, debemos recordar que podemos asertar A si tenemos una prueba de A. ¿Y de qué partimos? Partimos de lo siguiente: es asertable ¬¬A. Esto quiere decir (recordando la cláusula pertinente de BHK) que tenemos una construcción c1 que, a partir de una prueba de ¬A nos da una contradicción. Y una prueba de ¬A es una construcción c2 que, a partir de una prueba de A nos da una contradicción. O sea, juntando todo esto, lo que afirmamos desde el punto de vista intuicionista al afirmar ¬¬A es que tenemos una construcción que, dada una construcción cualquiera que produzca una contradicción a partir de una prueba de A, produce una contradicción. Lo podemos ver así, dada la definición de negación intuicionista: ¬¬A es (A → (B ∧ ¬B)) → (C ∧ ¬C). El intuicionista dirá que a partir de eso es necesario negar la negación de A, ya que la negación de A lleva a contradicción. Pero no aceptará que eso obligue a aceptar A, ya que no provee de por sí una prueba de A. Solo sabemos que si suponemos que tener una prueba de A lleva a contradicción, podemos construir una contradicción. Pero en todo esto las pruebas de A brillan por su ausencia y por lo tanto el intuicionista no se ve obligado a aceptar A. De este modo el intuicionista rechaza la regla E¬ . Quizá el lector esté pensando que si bien la derivación de LTE que mostramos necesita de E¬ , tal vez haya alguna derivación de LTE que prescinda de ella. No es así, se puede demostrar que todas las derivaciones de LTE posibles en el sistema de deducción natural clásico utilizan en algún paso E¬ . De hecho, los intuicionistas aceptan todas las demás reglas junto con ECQ (la regla que permite pasar a cualquier fórmula a partir de una contradicción), la regla de repetición (la que permite repetir cualquier fórmula anterior de una secuencia que no haya sido obtenida bajo un supuesto ya cerrado) y eso constituye el aparato deductivo de la lógica proposicional intuicionista. De esta manera, todo razonamiento intuicionista será aceptable para un clásico, pero no recíprocamente. Veamos un ejemplo famoso de un razonamiento perfectamente aceptable para un clásico pero que sería rechazado por un intuicionista: Ejemplo 7.7 Teorema: Existen dos números irracionales α y β tales que α β es racional. Demostración: √ √2 Consideremos el número 2 . Este número es racional o no es racional (es irracional). Si √ es racional, entonces existen dos números irracionales, α y β √ , ambos iguales a 2 tales que √ 2 √ α β es racional. Si es√irracional, entonces como se cumple ( 2 ) 2 = 2, existen dos números √ 2 √ irracionales, α = 2 y β = 2 tales que α β es racional. Como en ambos casos existen α y β irracionales tales que α β es racional, se concluye la tesis. Como decíamos, esta demostración es totalmente correcta desde el punto de vista clásico, y es inaceptable desde el punto de vista intuicionista. Sin formalizarla, podemos ver que el intuicionista √ √2 se negará a aceptar “Este número ( 2 ) es racional o no es racional” si no dispone una prueba de Capítulo 7. Consecuencia sintáctica 178 que lo es o bien una prueba de que no lo es. En ausencia de ambas, no aceptará la instancia de LTE que la proposición representa. Otro punto de discrepancia importantísimo entre clásicos e intuicionistas afecta una estrategia demostrativa en forma profunda. Supongamos que un clásico y un intuicionista quieren probar A. El clásico supone la negación de A, ¬A, y llega con métodos aceptables para el intuicionista a una contradicción. Afirma que esto es una prueba de A. ¿Aceptará esa prueba de A el intuicionista? La respuesta es "no" por lo siguiente: El clásico ha hecho esto 1 .. . ¬A .. . n B ∧ ¬B n+1 ¬¬A I¬ , 1–n n+2 A E¬ , n + 1 y por supuesto, el intuicionista lo rechazará debido a la presencia de la regla que no acepta justificando la última línea. Es decir, el intuicionista dirá que todo que se ha demostrado es la negación de la negación de A, y que luego de la línea donde eso se establece, la derivación desbarra. De este modo, esta regla derivada ha llegado a llamarse “absurdo clásico” Regla Absurdo clásico [¬A] .. . B ∧ ¬B A y no es aceptada por los intuicionistas. ¿Qué consecuencias tiene todo esto? Los intuicionistas, convencidos de la inadecuación de la lógica clásica para la actividad matemática abogan por una reforma de ella, que sería más o menos profunda según los campos de que se trate. Por ejemplo, en aritmética no sería demasiado importante, pero en análisis sería profundísima. La reacción de los matemáticos clásicos ha sido en general ver al intuicionismo como una teoría matemática más, pero en filosofía los debates han sido mucho más agudos. Esto es así porque la lógica intuicionista es una lógica adecuada a todas las realidades indeterminadas, inacabadas, mientras que la lógica clásica se adecua perfectamente a realidades determinadas, ya que esas realidades imponen las condiciones de verdad de todo lo que se diga sobre ellas. Por lo tanto, la lógica intuicionista viene como anillo al dedo a varias clases de antirrealismos, no solo en matemática. Un antirrealista con respecto al pasado, por ejemplo, puede negarse a aceptar la proposición “Napoleón vio un gato gris el día de su quinto cumpleaños o Napoleón no vio un gato gris el día de su quinto cumpleaños” por razones estrictamente análogas √ √2 a las que tendría el intuicionista para negarse a aceptar que “ 2 es racional o no es racional.” El lector interesado en conocer más sobre intuicionismo puede leer con mucho provecho los estupendos libros [Dum99] y [Dum00]. Espero que al lector no le dé un ataque de antirrealismo justo ahora, cuando retomaremos el estudio de la lógica clásica. 7.9 Ejercicios 7.9 179 Ejercicios 1. Seguramente el lector conoce algún texto de matemática en el cual se demuestran algunos teoremas matemáticos. ¿Son estas demostraciones derivaciones en un sistema formal? 2. Demostrar: a) {(p1 → p2 ), (p3 → p4 ), (p1 ∧ p3 )} ` (p2 ∧ p4 ) b) {(p1 → p2 ), p1 , (p2 → p3 )} ` (p3 ∨ p5 ) c) {(p1 → p2 ), ((p1 ∨ p3 ) → p8 )} ` (p1 ∧ p8 ) d) {(p1 → ((p1 ∧ p2 ) → p3 )), (p1 ∧ p2 )} ` p3 e) {p1 } ` (p2 → ((p2 ∧ p1 ) ∨ p3 )) f ) {(p1 → p2 ), (p2 → p3 )} ` (p1 → p3 ) g) {((p1 ∧ p2 ) → p3 ), (p1 → p2 )} ` (p1 → ((p1 ∧ p2 ) ∧ p3 )) h) {(p1 → p2 ), (p1 → (p2 → p3 ))} ` (p1 → p3 ) i) {(p1 → p2 ), (p3 → p4 ), (p1 ∨ p3 )} ` ((p1 ∧ p2 ) ∨ (p3 ∧ p4 )) j) {(p1 ∨ p2 ), (p1 → p4 ), (p2 → p5 )} ` (p4 ∨ p5 ) k) {(p1 ∧ (p2 ∨ p3 )), (p1 → p4 ), (p2 → (p4 → p6 )), ((p3 ∧ p4 ) → p6 )} ` (p5 ∨ p6 ) l) {(p1 ∨ (p2 ), (p3 → ¬p1 ), (p4 → p3 ), (¬p5 → p4 ), (p3 → ¬p2 )} ` p5 m) {(p4 → (p3 → ¬p2 )), p4 , (p3 → p2 )} ` ¬p3 n) {(¬p1 → p2 ), (p3 → (¬p1 → ¬p2 )), p3 } ` p1 ñ) {(p1 → p2 ), ((p2 ∨ p3 ) → p4 ), (p1 → ¬p4 )} ` ¬p1 o) {(p1 → (p2 ∨ p3 )), (p1 → p5 ), (p5 → ¬p2 ), (¬p7 → ¬p3 ), (p7 → p5 )} ` ¬p1 p) {((p1 ∨ p2 ) → (p3 ∨ p4 )), ((p3 ∨ p4 ) → (p5 ∧ p6 )), p1 } ` p5 q) {(p1 ∧ p2 ), (p4 → ¬p2 ), (p3 → ¬p1 )} ` (¬p3 ∧ ¬p4 ) r) {(p1 → (p2 → ¬p3 )), (p1 → p3 )} ` (p1 → ¬p2 ) 3. Demostrar que las siguientes reglas pueden aceptarse como derivadas (el estudiante podrá usarlas apenas lo demuestre). a) Regla Modus tollens (MT) (A → B) ¬B ¬A b) Regla Contraposición (A → B) (¬B → ¬A) c) Regla Transitividad (A → B) (B → C) (A → C) d) Silogismos disyuntivos (A ∨ B) (A ∨ B) ¬A ¬B B A e) Dilemas disyuntivos (A ∨ B) (A ∨ B) (A → C) (A → C) (B → C) (B → D) C C∨D f ) De Morgan Capítulo 7. Consecuencia sintáctica 180 ¬(A ∨ B) ¬(A ∧ B) (¬A ∧ ¬B) (¬A ∨ ¬B) g) Definición → (A → B) (A → B) ¬(A ∧ ¬B) (¬A ∨ B) h) Definición ∧ (A ∧ B) (A ∧ B) ¬(A → ¬B) ¬(¬A ∨ ¬B) i) Definición ∨ (A ∨ B) (A ∨ B) (¬A → B) ¬(¬A ∧ ¬B) 4. Sean A, B y C fórmulas tales que C es consecuencia sintáctica del conjunto {A, B}. Demostrar que (A→(B→C)) es un teorema. 5. Sea Γ un conjunto de fórmulas tal que: a) Todos los teoremas pertenecen a Γ. b) Para cualesquiera dos fórmulas A y B, si A y (A→B) pertenecen a Γ, entonces B pertenece a Γ. i Mostrar que si A y B pertenecen a Γ, entonces (A∧B) pertenece a Γ. ii Mostrar que si A y ¬A pertenecen a Γ, entonces toda fórmula del lenguaje Λ pertenece a Γ. 6. ¿Cuántos pasos como mínimo tiene una derivación en deducción natural de un teorema que tenga diez mil ocurrencias de constantes lógicas? 7. Dadas las siguientes premisas, elija una de las opciones como conclusión que se sigue de ellas. Demuestre, traduciendo al lenguaje Λ y evaluando la relación de consecuencia sintáctica, que efectivamente el argumento así formado es correcto lógicamente. a) Si hay agua en el planeta entonces es probable que haya vida en él. O no hay actividad atmosférica en el plantea o no hay agua en él. No es probable que haya vida en el planeta. Posibles conclusiones: Hay actividad atmosférica en el planeta. No hay actividad atmosférica en el planeta No hay agua en el planeta. b) Si hay viento entonces, si no llueve, el incendio se extenderá. Hay viento o no llueve. Es necesario que la lectura del higrómetro descienda para que no llueva. La lectura del higrómetro no desciende. Posibles conclusiones: El incendio se extenderá. Si no llueve, el incendio se extenderá. El incendio no se extenderá. 8. a) Si un teorema es de la forma (A ∨ B), ¿son A y B necesariamente teoremas? b) Si un teorema es de la forma (A ∧ B), ¿son A y B necesariamente teoremas? 9. ¿Puede un teorema tener como constantes lógicas solamente la conjunción y la disyunción? 10. Demuestre que ninguna contradicción es teorema. 7.9 Ejercicios 181 11. a) Se ha atribuido a un político la frase: “Si [se] es de izquierda no [se] es corrupto y si [se] es corrupto no [se] es de izquierda”. Claramente, desde el punto de vista de la lógica proposicional clásica se trata de un pleonasmo, ya que {(p → ¬q)} ` (q → ¬p), de modo que la segunda mitad de la frase se puede inferir de la primera. ¿Sucede lo mismo en lógica intuicionista? Justifique. b) ¿Sería el mismo caso si hubiera dicho una instancia de “Si no se es A se es B y si no se es B se es A”? Justifique. 12. Suponga que en un sistema formal existe la regla de inferencia A A ¿Es necesariamente esta regla inútil, es decir, si tenemos un sistema que incluye esta regla y consideramos el sistema que se obtiene al eliminarla, ambos sistemas tendrán los mismo teoremas? III Lógica de primer orden 8 Introducción . . . . . . . . . . . . . . . . . . . . . . . 185 9 Sintaxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 9.1 9.2 9.3 9.4 9.5 Alfabeto Fórmulas El teorema de lectura única Árbol de formación de una fórmula Lenguajes de Primer Orden 10 Semántica . . . . . . . . . . . . . . . . . . . . . . . . . 203 10.1 10.2 10.3 10.4 10.5 Interpretaciones Estructuras Valores de verdad bajo una interpretación Modelos, fórmulas válidas, tautologías Conjuntos satisfacibles e insatisfacibles 11 L PO y lenguaje natural . . . . . . . . . . . 221 11.1 11.2 11.3 11.4 11.5 La elección de los predicados La cuantificación En la práctica La igualdad Excurso filosófico: Descripciones definidas según Russell Excurso filosófico: Una versión del argumento ontológico 11.6 12 Consecuencia semántica . . . . . . . . . . 239 12.1 12.2 Definición y primeros ejemplos Propiedades de la consecuencia semántica en primer orden La consecuencia semántica y la corrección argumental Excurso filosófico: Lógica aristotélica y crítica de Russell 12.3 12.4 13 Consecuencia sintáctica . . . . . . . . . . . 257 13.1 13.2 13.3 13.4 13.5 13.6 Las reglas de inferencia El sistema de deducción natural para L PO Consecuencia sintáctica Heurística Propiedades de la consecuencia sintáctica Excurso filosófico: Contextos indirectos 8. Introducción N los capítulos anteriores hemos presentado la lógica proposicional. A partir de aquí se nos abren opciones acerca de cómo proseguir nuestro estudio. Una posibilidad es examinar características generales de esa lógica, como la corrección y la completitud, que son cuestiones acerca de las relaciones entre la consecuencia semántica y la consecuencia sintáctica. No tomaremos esa dirección ahora –lo dejaremos para más adelante– sino que daremos las motivaciones que tenemos para estudiar otra lógica, que es lo que haremos en esta parte del curso. Desde nuestro punto de vista, la lógica proposicional representa una excelente herramienta para distinguir algunos argumentos como válidos. Esto debe ser visto como una limitación de esta lógica. No porque pretendamos construir una lógica que permita resolver el problema de la validez para todos los argumentos, sino porque existen inferencias muy comunes que son válidas pero no pueden ser clasificadas como tales utilizando la lógica proposicional. Para ejemplificar lo que acabamos de decir, examinemos el siguiente argumento: E Si tenemos conocimiento, entonces o algunas cosas son conocidas sin prueba o podemos probar toda premisa mediante premisas previas, y así sucesivamente. No podemos probar toda premisa mediante premisas previas y así sucesivamente pero tenemos conocimiento. Algunas cosas son conocidas sin prueba. Este argumento es válido y esto puede ser determinado utilizando el instrumental de la lógica proposicional. Sea p: Tenemos conocimiento q: Algunas cosas son conocidas sin prueba. r: Podemos probar toda premisa mediante premisas previas y así sucesivamente. Capítulo 8. Introducción 186 Como q es consecuencia tanto semántica como sintáctica de {(p → (q ∨ r)), (¬r ∧ p) }, podemos afirmar que el argumento es válido con el instrumental proporcionado por la lógica proposicional. El argumento que acabamos de presentar es un ejemplo profesoral, especialmente preparado para que la lógica proposicional capture su validez. Una minúscula modificación hará que obtengamos otro, igualmente válido, pero cuya validez sea imposible de establecer con ese instrumental: Si tenemos conocimiento, entonces o los axiomas de la geometría son conocidos sin prueba o podemos probar toda premisa mediante premisas previas, y así sucesivamente. No podemos probar toda premisa mediante premisas previas y así sucesivamente pero tenemos conocimiento. Algunas cosas son conocidas sin prueba. Es claro que este argumento es válido: el lector podrá comprobar que la proposición“Los axiomas de la geometría son conocidos sin prueba” es consecuencia lógica del conjunto de premisas. Y a su vez, “Algunas cosas son conocidas sin prueba” es consecuencia lógica de “Los axiomas de la geometría son conocidos sin prueba”. Por lo tanto, el argumento es válido. Sin embargo, su validez no queda capturada por el instrumental de la lógica proposicional. Sea p: Tenemos conocimiento q: Algunas cosas son conocidas sin prueba. r: Podemos probar toda premisa mediante premisas previas y así sucesivamente. s: Los axiomas de la geometría son conocidos sin prueba. Aunque el argumento es válido, no se cumple {(p → (s ∨ r)), (¬r ∧ p)} |= q. En realidad no tenemos nada en la lógica proposicional que capture la validez de esa inferencia que hicimos según la cual si algo se cumple para un ente en particular (en este caso, se cumple que conocemos sin prueba esos entes particulares que son los axiomas de la geometría), entonces ese algo se cumple para algunos entes. Tal vez el lector pueda pensar que estos argumentos en los que la validez reposa en último término en constantes lógicas que quedan representadas en el lenguaje natural por palabras como algún, algunos, todos, ninguno, etc., son eficazmente tratados por la silogística, que es la lógica desarrollada por Aristóteles y cultivada durante casi toda la historia de la disciplina en Occidente. Y parcialmente, el lector tendría razón si así pensara. El archiconocido argumento “Todos los hombres son mortales. Sócrates es hombre. Por lo tanto, Sócrates es mortal”, que tanta tiza ha consumido, es por supuesto válido. Su validez no se captura con la lógica proposicional (verifíquelo el lector) y sí con la silogística. Sin embargo, la silogística no captura la validez de algunos argumentos tratables mediante la lógica proposicional. Además de eso, existen otros argumentos muy sencillos cuya validez no queda certificada por ninguna de las dos lógicas que venimos mencionando. Por ejemplo: Hipatia es una perra. Hipatia tiene un único collar. El collar de Hipatia es el collar de una perra. Nuestro objetivo en el resto del curso será el estudio de una lógica que nos permita tratar con todos estos argumentos en forma eficaz, es decir, que de alguna manera subsumirá a la lógica proposicional, a la silogística y además podrá tratar con argumentos inaccesibles a cualquiera de 187 ellas1 . El recorrido a realizar será el mismo que el que hemos seguido para la lógica proposicional: el establecimiento de la sintaxis, la semántica, y el estudio de dos modos formales de capturar la consecuencia lógica: las relaciones de consecuencia semántica y de consecuencia sintáctica. Como el aparato de la lógica proposicional se incorpora en enorme medida en lo que sigue, en general necesitaremos exposiciones y razonamientos más breves, ya que conceptualmente hemos hecho un largo camino totalmente aprovechable de aquí en adelante. La lógica que estudiaremos se llama Lógica de predicados de primer orden o simplemente Lógica de primer orden y vio la luz en un trabajo de Frege llamado Conceptografía, publicado en 1879 [Fre72], cuya importancia es difícil de exagerar. Puede parecer curioso que una lógica que permita tratar argumentos tan sencillos como los presentados demorara dos mil trescientos años en aparecer desde el surgimiento de la Lógica como ciencia y más aun que las mentes más avisadas hayan podido decir cosas como “Que la lógica ha llevado ya esa marcha segura desde los tiempos más remotos puede colegirse por el hecho de que, desde Aristóteles, no ha tenido que dar un paso atrás, a no ser que se cuenten como correcciones la supresión de algunas sutilezas inútiles o la determinación más clara de lo expuesto, cosa empero que pertenece más a la elegancia que a la certeza de la ciencia. Notable es también en ella el que tampoco hasta hoy ha podido dar un paso adelante. Así pues, según toda apariencia, hállase conclusa y perfecta.” [Kan28] En 1787, cuando Kant escribía esto, la lógica conocida por la humanidad era incapaz de certificar que si Kant es un filósofo, entonces los textos de Kant son los textos de un filósofo. 1 En cuanto a la potencia de la lógica que vamos a estudiar hay filósofos que afirman que es suficientemente potente como para capturar la validez de todos los argumentos matemáticos, lo que obviamente no es poco. Esta afirmación es conocida como Tesis de Hilbert. 9. Sintaxis enfrentar un proyecto tan ambicioso como el que acabamos de plantear debemos empezar casi desde cero. Esto significa construir un lenguaje formal adecuado a nuestros propósitos, y por lo tanto, la primera tarea a emprender consiste en establecer el alfabeto, para luego determinarlo mediante la sintaxis. P 9.1 ARA Alfabeto La elección del alfabeto estará guiada por la expresividad que deseamos tenga nuestro lenguaje. Investiguemos qué cosas deseamos poder representar con él. Considere el silogismo más famoso de la historia: Todos los hombres son mortales. Sócrates es hombre. Sócrates es mortal. La incapacidad de la lógica proposicional para capturar la validez de ese argumento está íntimamente relacionada con el hecho de que en ella no podemos discernir que el mismo nombre “Sócrates” aparece en una premisa y en la conclusión. (Observe que es crucial para la validez del argumento que el nombre sea el mismo. Si dejamos inalteradas las premisas y en la conclusión cambiamos “Sócrates” por “Protágoras”, el argumento así obtenido no es válido). Necesitamos entonces disponer de medios para desagregar los constituyentes de proposiciones en una forma que va más allá de las posibilidades de la lógica proposicional. Por lo dicho, es claro que necesitamos tener la posibilidad de representar nombres. Nuestro alfabeto nos proveerá entonces de símbolos que en él incluiremos con el propósito de que sirvan para representarlos. Estos símbolos serán llamados constantes de individuo (o simplemente constantes), y su grafía será una letra “c” minúscula subindizada por un número natural. De esta manera, los símbolos c4 , c1324 , c0 , etc., pertenecen al alfabeto del lenguaje formal de la lógica de primer orden. Capítulo 9. Sintaxis 190 El alfabeto de la lógica de primer orden incluirá los símbolos c0 , c1 , c2 , ... y en general, toda c subindizada con un numeral natural. Por supuesto, es necesario que tengamos además la capacidad de expresar la adscripción a Sócrates de su calidad de hombre. Esto puede verse como la expresión de que Sócrates tiene una determinada propiedad o que Sócrates pertenece a un cierto conjunto. La propiedad en cuestión sería la de ser hombre, el conjunto sería el conjunto de los seres humanos. Nos va a interesar entonces expresar que un individuo tiene una propiedad o pertenece a un conjunto, y para hacer esto necesitamos disponer de alguna forma de representar nombres de propiedades o conjuntos. Por ello, incluiremos en nuestro alfabeto infinitos símbolos cuya grafía será la siguiente: una letra “R”, que como se ve será mayúscula, supraindizada con un 1 (ya veremos por qué) y subindizada con un número natural. Así, los símbolos R124 , R1315 , etc., pertenecen al alfabeto de nuestro lenguaje. Si hemos elegido la constante de individuo c14 para representar el nombre “Sócrates” y el símbolo R1117 para representar la propiedad de ser hombre o el conjunto de los seres humanos, representaremos la proposición Sócrates es hombre con R1117 c14 . Estos símbolos, de la forma R1n con n natural, serán llamados letras de relación de aridad 1. Si bien la introducción de las letras de relación de aridad 1 da una gran capacidad expresiva al lenguaje, esto no es suficiente para llegar a lo que pretendemos. Supongamos que deseamos expresar “Platón es discípulo de Sócrates”. En cuanto a los nombres tenemos el problema resuelto, simplemente elegimos dos constantes de individuo. Ahora bien, ¿qué expresa el enunciado? Una posibilidad es pensar que expresa que Platón tiene una determinada propiedad, a saber, la de ser discípulo de Sócrates. Otra posibilidad es pensar que expresa que Sócrates tiene una propiedad, a saber, la de ser maestro de Platón. Y también sería correcto pensar (y esto crucial para el éxito de nuestro proyecto, como veremos) que expresa que dos individuos se encuentran en una determinada relación, a saber, la de ser discipulo de. Observe que esta relación, cuando se da, siempre involucra dos individuos. No es una propiedad que tenga uno de ellos. Del mismo modo nos va a interesar poder representar una proposición como “Juan es hijo de Pedro y de María” en una forma que evidencie una relación entre tres individuos, la de ser hijo de ... y de ... Así, debemos considerar relaciones que se dan entre una cantidad arbitraria de individuos. La aridad de una relación es, justamente, la cantidad de individuos entre los que se da y lo que acabamos de decir significa que nuestro lenguaje tiene que poder representar relaciones de cualquier aridad. Así, representaremos relaciones de aridad 2, de aridad 3, etc. Lo haremos del modo siguiente: el alfabeto de nuestro lenguaje tendrá todos los símbolos cuya grafía es una “R” supraindizada con un natural positivo y subindizada con un natural cualquiera. Consecuentemente el alfabeto 3 0 de nuestro lenguaje tendrá los símbolos: R24 21 , R0 , etc. pero no al símbolo R15 . Pretendemos que el supraíndice indique la aridad de la relación representada, y que tengamos la posibilidad de representar tantas relaciones de una aridad dada como queramos. Si elegimos R212 para que esté por la relación ser discípulo de, c7 para que esté por “Platón” y c3 por “Sócrates”, podemos traducir la proposición Platón es discípulo de Sócrates 9.1 Alfabeto 191 escribiendo R212 c7 c3 donde el orden en que se colocan las constantes de individuo es de primordial importancia. R212 c3 c7 representaría algo muy diferente, a saber, la proposición según la cual Sócrates es discípulo de Platón. Habrá observado el lector que estamos tratando las propiedades como relaciones de aridad 1. Es exactamente así. La propiedad, por ejemplo, de ser rojo puede ser considerada como una relación que involucra individuos, no pares o ternas de ellos, etc., como quedará claro al considerar la semántica que propondremos para este lenguaje. Estos símbolos que acabamos de introducir serán llamados letras de relación o letras de predicado. Existe una relación de aridad 2 para la cual tendremos un símbolo especial, es decir, este símbolo, a diferencia de las “erres” supra y subindizadas, que pueden utilizarse para denotar cualquier relación, denotará siempre la misma relación. Esta relación es la igualdad y por razones que no merecen ser explicadas adoptaremos para ella el símbolo “=”. Así, podríamos representar la proposición “Platón es Aristocles” como c1 = c2 donde la primera constante de individuo está por “Platón” y la segunda por “Aristocles”. El alfabeto de la lógica de primer orden incluirá los símbolos R10 , R11 , R12 , ..., R20 , R21 , R22 , ... y =. Aun estamos lejos de tener los medios necesarios para alcanzar la expresividad que deseamos. Es menester para ello tener la posibilidad de expresar que todos los individuos cumplen algo, ya sea tener una propiedad, o estar en una determinada relación y también que al menos un individuo cumple algo. Es por esto que introduciremos los cuantificadores y las variables. Supongamos que queremos expresar que Sócrates tiene al menos un alumno. Esto se puede parafrasear diciendo que “existe un individuo que está en la relación ‘ser discípulo de’ con Sócrates”. Introduciremos el símbolo ∃, llamado cuantificador existencial, con el propósito de que nos sirva para expresar la existencia de un individuo que cumple algo. Como veremos detalladamente al estudiar la sintaxis propiamente dicha, este símbolo siempre será seguido por otro cuya grafía será una ‘x’ subindizada con un número natural. Esos símbolos, como x0 , x5 , x17 serán llamados variables de individuo. Estamos proponiendo que en nuestro lenguaje habrá fórmulas que contendrán el bloque indisoluble ∃xn , siendo n un número natural. Este bloque no podrá ser una fórmula completa porque en todos los casos nos interesará expresar que existe un individuo que cumple algo y para ello necesitamos las letras de relación o el símbolo de igualdad que indicarán lo que cumple. Entonces proponemos que el bloque ∃xn sirva para expresar “Existe un individuo que cumple...”, donde lo que iría por los puntos suspensivos será expresado a través de las letras de relación o el símbolo de igualdad. Comencemos considerando algunos casos simples. Supongamos que hemos escogido la letra de relación R112 para que esté por la propiedad de ser azul. La proposición expresada por “Existe algo azul”, “Hay al menos una cosa azul”, o incluso “Hay cosas azules”1 podrá ser representada como ∃x0 R112 x0 . Observe que la variable colocada inmediatamente después del cuantificador es la misma que sigue a la letra de relación. Abundaremos sobre esto al ver la semántica; hasta entonces es bueno 1 Afirmar que hay cosas azules no es lo mismo que afirmar que hay más de una cosa azul. Capítulo 9. Sintaxis 192 pensar en lo escrito como representando “Existe algo tal que ese algo es azul”, donde la función anafórica del “ese” se recoge al colocar la misma variable que figura al lado del cuantificador. Si queremos expresar que Sócrates tiene un discípulo, tenemos varias posibilidades. Una de ellas es considerar la propiedad ser discípulo de Sócrates, representarla con la letra de relación R16 y escribir ∃x2 R16 x2 . Otra posibilidad es considerar la relación de aridad 2 es discípulo de y representarla con, por ejemplo, R21 , tomar la constante de individuo c1 para que esté por el nombre “Sócrates” y escribir ∃x1 R21 x1 c1 . También necesitaremos expresar que todos los individuos cumplen algo. Para ello introduciremos en nuestro alfabeto el símbolo ∀, llamado cuantificador universal2 , el cual también será siempre seguido por una variable de individuo, y tal que valiéndonos de él podemos expresar “Todo es azul” como ∀x0 R112 x0 y “Todo es discípulo de Sócrates’’ o “Todos son discípulos de Sócrates” como ∀x1 R21 x1 c1 . Unas palabras acerca de las variables de individuo que son esos símbolos cuya grafía es una “x” subindizada por un natural. Es muy difícil encontrar en el lenguaje natural un correlato preciso de ellas. Tal vez en el caso en el que están afectadas por un cuantificador existencial lo que más se acerque sean los pronombres indefinidos tipo uno, como en “Hay uno que es alto”. En el caso de las variables que aparecen afectadas por el cuantificador universal es mucho más oscuro el correlato con algún elemento del lenguaje natural ya que, al menos en español, la expresión “Todos cumplen algo” funciona perfectamente elidiendo “los individuos” y en estas expresiones no aparecen pronombres indefinidos. El alfabeto de la lógica de primer orden incluirá los símbolos ∀, ∃, x0 , x1 , x2 , ... Tornemos ahora nuestra atención a expresiones como “Sócrates es griego y sabio”, o “Todos los hombres son mortales”. Consideremos la primera. En cuanto a sus condiciones de verdad, como el lector sabrá apreciar, es totalmente equivalente a la conjunción de dos proposiciones, a saber “Sócrates es sabio” y “Sócrates es griego”. Por supuesto, podemos expresar cada una de estas proposiciones en el lenguaje que estamos introduciendo y si queremos expresar su conjunción no necesitamos más que rescatar el símbolo apropiado para ello que habíamos visto al estudiar la lógica proposicional. En cuanto a la segunda, “Todos los hombres son mortales”, parece claro que si la queremos expresar en este marco debemos utilizar el cuantificador universal. Pero se nos presenta un problema: cuando utilizamos el cuantificador universal expresamos que todos los individuos cumplen algo. Pero la proposición que estamos considerando no afirma, al menos no directamente, algo de todos los individuos (que en principio pueden ser cualquier objeto), sino meramente algo 2 Esta introducción no es estrictamente necesaria ya que se puede expresar que todos los individuos cumplen una propiedad negando que exista alguno que no la cumpla, pero facilita la comprensión de las fórmulas. 9.1 Alfabeto 193 de todos los hombres. ¿Cómo podemos expresar que todos los hombres son mortales afirmando algo de todos los individuos, o sea, de todos los objetos? Consideremos lo siguiente: tomemos un objeto cualquiera del universo. Se nos pueden dar cuatro casos: (a) (b) (c) (d) que el objeto sea hombre y sea mortal, que el objeto sea hombre y no sea mortal, que el objeto no sea hombre y sea mortal, o que el objeto no sea hombre y no sea mortal. Al afirmar que todos los hombres son mortales, lo que estamos diciendo es que jamás nos encontraremos con el caso (b). Es decir, todos los individuos, o bien serán serán mortales o bien no serán hombres. Por lo tanto hemos encontrado una propiedad que se afirma cumplen todos los individuos, a saber, ser mortal o no ser hombre, y afirmar que esa propiedad vale para todos los individuos del universo es equivalente a afirmar que todos los hombres son mortales. Por supuesto, podemos expresar esa propiedad con la disyunción y la negación, que tomaremos prestadas del lenguaje de la lógica proposicional, o también mediante el condicional, como recordará el lector que considere la cuestión de la equivalencia pertinente. Así, la proposición“Todos los hombres son mortales” podrá ser expresada, entre otras posibilidades, como ∀x4 (¬R10 x4 ∨ R11 x4 ) o como ∀x2 (R10 x2 → R11 x2 ) donde se han elegido las letras de predicado R10 y R11 para que estén por la propiedad ser hombre y ser mortal respectivamente. Podríamos ofrecer otros ejemplos, pero en definitiva, lo que estamos fundamentando es la inclusión en el alfabeto del lenguaje de la lógica de primer orden de todos los símbolos de los conectivos lógicos de la lógica proposicional. Es obvio que también necesitaremos los paréntesis, por razones análogas a las que se habían ofrecido para incluirlos en el alfabeto del lenguaje de la lógica proposicional. Hemos llegado al final de nuestro recorrido para definir el alfabeto de la lógica de primer orden: Alfabeto de la lógica de primer oden Consta de los siguientes símbolos: Constantes de individuo Variables Letras de relación o de predicado Cuantificadores Conectivos proposicionales Símbolo de igualdad Paréntesis c0 , c1 , c2 , ... x0 , x1 , x2 , ... R10 , R11 , R12 , ..., R20 , R21 , R22 , ... ∀, ∃ ∧, ∨, →, ↔, ¬ = (, ) 194 9.2 Capítulo 9. Sintaxis Fórmulas Corresponde ahora indicar exactamente cuáles cadenas de símbolos de nuestro alfabeto pertenecen al lenguaje y cuáles no. Esta descripción, que constituye el núcleo de la sintaxis, se hará también teniendo en cuenta nuestros propósitos al formular el lenguaje. Se trata de un emprendimiento bastante más complejo que el análogo para la lógica proposicional, y esto se debe no solamente a la mayor riqueza en la dimensión representacional, sino también a que existirán fórmulas de nuestro lenguaje tales que no habrá expresión corriente alguna del lenguaje natural de la cual sean una traducción adecuada. Esta complicación se encuentra en el núcleo del salto prodigioso que Frege hizo dar a la Lógica al presentar un lenguaje con la capacidad expresiva que requerimos (y aun mayor). La reflexión fregeana partió, por supuesto, de un análisis de expresiones del lenguaje natural y corrió según las líneas que vamos a presentar brevemente. Consideremos la oración El cielo es azul. En ella distinguimos un nombre, “el cielo”, y lo que la gramática ha llamado predicado, “azul”, además de la cópula, “es”. Ese análisis en términos de sujeto y predicado que la Lógica hasta Frege seguía a pies juntillas, fue puesto en cuestión por este iniciando un cambio totalmente revolucionario. Frege propuso analizar esa oración, para propósitos lógicos, no en términos de sujeto y predicado sino en términos de conceptos y objetos. Lo primero que hizo Frege fue retirar el nombre “el cielo” de la expresión que venimos considerando obteniendo una forma incompleta: ... es azul. Observe el lector que esta expresión incompleta no es algo que vaya a encontrar jamás en el lenguaje natural. Sin embargo, según Frege, esta expresión que presenta un hueco, (o sea, no debe ser confundida con lo que expresa la oración “Es azul”) se corresponde con un concepto. Si completamos la expresión con diversos nombres, obtenemos proposiciones que por supuesto podrán ser verdaderas o falsas: “Frege es azul”, “Mi casa es azul”, “Este tomate es azul’’. Según Frege, los nombres denotan objetos y esas expresiones que se completan una vez que en sus “huecos” se colocan nombres, denotan conceptos. Estas expresiones incompletas, cuya referencia son conceptos, serán llamadas predicados3 . En este caso el concepto denotado por la expresión generada al retirar el nombre “el cielo” es lo que llamaríamos la propiedad de ser azul. Los objetos cuyos nombres, al completar el predicado producen proposiciones verdaderas, caen bajo el concepto, según Frege, y el conjunto de los objetos que caen bajo el concepto es la extensión del concepto. A todos los propósitos, podemos no hablar de propiedades y hablar de conceptos. Y más, el procedimiento de retirar nombres de la expresión de una proposición puede conducirnos a expresar predicados cuya referencia son conceptos que reconocemos como relaciones: consideremos Sócrates es maestro de Platón. Si retiramos el nombre “Sócrates” obtenemos el predicado ...es maestro de Platón, 3 Es de central importancia observar que se está estableciendo una correlación entre el plano lingüístico y un plano no língüístico. En el nivel lingüístico tenemos nombres y predicados, que refieren, respectivamente, a objetos y conceptos. Los nombres son lo que en el habla común se considera un nombre, pero los predicados no son lo que la gramática tradicional llama así. Son expresiones incompletas que no se encuentran en el lenguaje natural en forma aislada. 9.2 Fórmulas 195 lo que denota el concepto “ser maestro de Platón” que requiere un solo objeto para completarse formando una proposición. Algo análogo sucede si retiramos el nombre “Platón”. Pero si retiramos ambos nombres, “Platón” y “Sócrates”, obtenemos el predicado ... es maestro de ... que según Frege también denota un concepto y nosotros reconocemos como como la relación “ser maestro de”. El trabajo de Frege es más complejo que lo que acabamos de decir, entre otros motivos porque reconoce diversos órdenes, es decir, conceptos cuyos “huecos” deben ser llenados, para obtener proposiciones verdaderas, por nombres de otros conceptos, como por ejemplo se ve en el siguiente caso: Partimos de la oración El fuego es rojo. Retiramos el nombre “el fuego” y obtenemos ...es rojo que denota un concepto cuyo hueco debe ser llenado por nombres de objetos para obtener proposiciones verdaderas. Pero además podemos considerar el concepto ...es un color. Obviamente el hueco de esta última expresión puede ser llenado por el nombre de un concepto para obtener proposiciones verdaderas. En particular podemos formar El rojo es un color. Entonces ...es un color denota un concepto de segundo orden ya que los nombres que llenando su hueco forman proposiciones verdaderas son a su vez nombres de conceptos. En la lógica que estudiaremos, la lógica de primer orden, no existirá esta proliferación de órdenes. Abundaremos sobre el punto más adelante, pero en principio es a esto a lo que debe su nombre. Lo dicho basta para iniciar nuestro estudio de la parte combinatoria de la sintaxis. Comencemos considerando la proposición “El cielo es azul”. Es claro que si queremos representarla en nuestro lenguaje lo podemos hacer mediante una letra de relación unaria y una constante de individuo, por ejemplo así: R11 c2 Consideremos ahora la operación que hace Frege que es retirar el nombre “el cielo”. Lo que queda debe denotar la propiedad y aparentemente para eso hemos introducido las letras de relación. Sin embargo, será conveniente recoger la idea fregeana de que el predicado “... es azul” es algo incompleto, listo para ser “llenado” por un nombre, obteniéndose al hacer esto, una proposición. La indicación de ese hueco estará a cargo de las variables. Así debemos ver una expresión de nuestro lenguaje, por ejemplo R11 x5 como destinada a representar lo que Frege llamaría un predicado, esa estructura con huecos, que al ser llenados por nombres se convierte en una proposición, y nosotros reconocemos como lo que denota una propiedad. Ese “llenado” por un nombre, si lo fuéramos a ver reflejado en nuestro lenguaje sería la sustitución de la variable por una constante de individuo. Habíamos dicho que en nuestro lenguaje tendríamos fórmulas sin un correlato directo en el Capítulo 9. Sintaxis 196 lenguaje natural. Sucede que serán fórmulas no solamente las expresiones obtenidas una vez hecha la sustitución de las variables por constantes de individuo, sino también aquellas que hemos traído a cuento a través de los predicados fregeanos. Pero es claro que algo como “... es azul” no puede ser verdadero o falso, ni tiene correlato directo en el lenguaje natural y sin embargo tendremos fórmulas que introducimos con el propósito de representarlo. Por lo tanto tendremos fórmulas que, en caso de que les queramos asignar un valor de verdad no tendremos una forma natural de hacerlo. Pero esto lo veremos al tratar la semántica. Luego de este largo interludio tenemos los elementos necesarios para indicar exactamente cuáles cadenas de símbolos serán fórmulas en nuestro lenguaje. Comenzaremos con una definición: Definición 9.2.1 — Términos. Llamaremos términos a las constantes de individuo y a las variables. Según lo que hemos discutido, aceptaremos toda cadena formada por una letra de relación n-aria seguida por n términos será una fórmula. Además, toda cadena formada por un término seguido por el símbolo “=” seguido por un término será una fórmula. Las fórmulas de este tipo son especiales, lo que se recoge en la siguiente Definición 9.2.2 — Fómulas atómicas. . (i) Rnjt1 ...tn con t1 ...tn términos es una fórmula (llamada atómica). (ii) t1 = t2 con t1 y t2 términos es una fórmula (llamada atómica). Por ejemplo, son fórmulas atómicas: R50 c1 c4 x2 x7 c1 R20 c1 c2 R123 c3 x25 = x445 c3 = c8 c16 = x2 Observe que en el caso de que algunos de los términos que aparecen en una fórmula atómica sean variables, esas fórmulas no representarán proposiciones, al menos no en el sentido de que puedan ser consideradas verdaderas o falsas directamente. Volvamos por un momento a los conceptos fregeanos. Supongamos que digo que “Todo es azul”. Esto significa que al llenar con el nombre del objeto que sea el hueco de “... es azul” obtendré una proposición verdadera. ¿Cómo expresamos en nuestro lenguaje formal esa condición de que, sin importar el nombre4 elegido para llenar el hueco, se obtendrá una proposición verdadera? Lo que tendremos es, por ejemplo, R13 x0 y queremos expresar que R13 cn es verdadera para todo n. Para esto utilizamos el cuantificador universal que, recordará el lector, debe aparece como un bloque indisoluble formado por él seguido por una variable. En nuestro caso obtendríamos ∀x0 R13 x0 Esta consideración nos impulsa a establecer la siguiente regla sintáctica: Si A es una fórmula, entonces para todo n, ∀xn A es una fórmula. Consideraciones análogas nos llevan a establecer que si 4 Estamos suponiendo que los nombres son nombres genuinos, es decir, expresiones denotativas, no cosas como “el mayor número natural”. 9.2 Fórmulas 197 A es una fórmula entonces para todo n, ∃xn A es una fórmula. Observe que no se está requiriendo que A tenga la variable que está adosada al cuantificador ni ninguna otra condición. Vamos a estipular que se puede cuantificar cualquier fórmula, como veremos en breve. Finalmente tenemos que describir cómo se comportan sintácticamente los conectivos de la lógica proposicional. Las reglas sintácticas que los rigen serán por supuesto totalmente análogas a las que vimos al estudiar esa lógica. Resumiendo, podemos decir lo siguiente: cualquier fórmula de la lógica de primer orden se obtiene a través de un proceso que comienza tomando términos, formando fórmulas atómicas, cuantificándolas y/o conectándolas a través de los conectivos de la lógica proposicional y a través de este proceso solo se obtienen fórmulas. Esto nos permite ofrecer la siguiente definición de secuencia de formación: Definición 9.2.3 — Secuencia de formación para la lógica de primer orden. Una se- cuencia de formación es una secuencia finita en la que cada elemento cumple lo siguiente: (i) (ii) (iii) (iv) (v) (vi) (vii) (viii) O bien es una fórmula atómica. O bien es de la forma ¬A, siendo A es un elemento anterior en la propia secuencia. O bien es de la forma (A ∧ B), siendo A y B elementos anteriores en la propia secuencia. O bien es de la forma (A ∨ B), siendo A y B elementos anteriores en la propia secuencia. O bien es de la forma (A → B), siendo A y B elementos anteriores en la propia secuencia. O bien es de la forma (A ↔ B), siendo A y B elementos anteriores de la propia secuencia. O bien es de la forma ∀xn A, siendo A un elemento anterior en la propia secuencia. O bien es de la forma ∃xn A, siendo A un elemento anterior en la propia secuencia. Definición 9.2.4 — Fórmula de la lógica de primer orden. A es una fórmula de lógica de primer orden si y solo si existe una secuencia de formación para la la lógica de primer orden de la cual A es el último elemento. Notación 9.1. Al lenguaje de la lógica de primer orden, o sea, al conjunto de las fórmulas de la lógica de primer orden lo notaremos L PO Es muy importante observar que, tal como habíamos dicho, no hacemos esta construcción para que una fórmula atómica con variables represente una proposición. Al sustituir sus variables por constantes de individuo obtenemos la representación de una proposición. Pero no es esta la única forma de obtener proposiciones a partir de fórmulas atómicas que tienen variables. El caso que hemos visto nos servirá de ejemplo. Partimos del predicado ...es azul que representamos como R13 x0 . Si cuantificamos sobre esta fórmula universalmente obtenemos un representante de la proposición “Todo es azul” ∀x0 R13 x0 Lo mismo sucede si cuantificamos existencialmente: obtenemos un representante de la proposición “Algo es azul” Capítulo 9. Sintaxis 198 ∃x0 R13 x0 O sea que cuantificando hemos obtenido representantes de proposiciones. Esto se debe a que las variables que aparecían en la fórmula sin cuantificar quedan bajo el alcance de un cuantificador. Cuando una variable de una fórmula queda bajo el alcance de un cuantificador se dice que esta variable es ligada y cuando no queda bajo el alcance de cuantificador alguno se dice que esta variable es libre. La definición precisa es: Definición 9.2.5 — Variable libre/variable ligada. . Las variables de una fórmula atómica son libres y una fórmula atómica no tiene variables ligadas. Las variables libres (ligadas) de la fórmula ¬A son las variables libres (ligadas) de A. Las variables libres (ligadas) de las fórmulas (A ∧ B), (A ∨ B), (A → B), (A ↔ B) son las variables libres (ligadas) de A y de B. Las variables libres de las fórmulas ∀xn A y ∃xn A son las variables libres de A excepto xn . Las variables ligadas de las fórmulas ∀xn A y ∃xn A son las variables ligadas de A y xn . Debido a las reglas sintácticas, cada vez que en una fórmula aparece un cuantificador ∀xn o ∃xn , debe ser seguido por una fórmula A. Esa fórmula A es llamada el alcance del cuantificador. Si la fórmula A tiene la variable libre xn , se dice que esa variable cae bajo el alcance del cuantificador, quedando ligada por el mismo. Por ejemplo: En R50 c1 c4 x2 x7 c1 las variables x2 y x7 son libres. En ∀x0 R20 c1 x0 la variable x0 es ligada. En ∃x0 R20 x4 x0 la variable x0 es ligada y x4 es libre. En ∀x445 ∀x25 x25 = x445 ambas variables están ligadas. En ∀x2 ∀x3 R30 x3 x4 x2 las variables x2 y x3 son ligadas y x4 es libre. Examinemos ahora la fórmula (∃x1 R21 x1 x2 ∧ R21 c0 x1 ) . En ella aparece la variable x1 dos veces. (Nunca se cuenta la aparición que está “pegada” al cuantificador). Decimos que esa variable tiene dos ocurrencias en la fórmula. ¿Está la variable x1 libre o ligada en la fórmula? La respuesta es: Ambas cosas, está libre y está ligada. En la primera ocurrencia está ligada -bajo el alcance del cuantificador existencial, porque este está seguido por la fórmula R11 x1 que es la que contiene esa primera ocurrencia, y es el alcance del cuantificador-, y en la segunda está libre, ya que no cae bajo el alcance de cuantificador alguno. En definitiva, las ocurrencias libres de las variables son aquellas que no caen bajo el alcance de cuantificador alguno, y las ocurrencias ligadas de las variables son aquellas que caen bajo el alcance de algún cuantificador. En nuestra fórmula, el alcance del único cuantificador que aparece es R21 x1 x2 , quedando todo el resto fuera de este alcance. La variable x2 si bien está en el alcance del cuantificador, no cae bajo él, porque en general, la variable xn solo puede caer bajo el alcance de ∀xn o de ∃xn . Veámoslo con detalle analizando una de sus secuencias de formación, en la que no justificaremos la pertinencia de cada uno de sus términos sino que solo atenderemos a la calidad de libre o ligada de las variables que aparezcan: 1. 2. 3. 4. En R21 x1 x2 las variables x1 y x2 están libres. En ∃x1 R21 x1 x2 la variable x1 está ligada y la variable x2 está libre. En R21 c0 x1 la variable x1 está libre. En (∃x1 R21 x1 x2 ∧ R21 c0 x1 ) la variable x1 está libre (en su primera ocurrencia, que proviene de 9.3 El teorema de lectura única 199 3) y está ligada (en su segunda ocurrencia, que proviene de 2), mientras que la variable x2 está libre. Las fórmulas con variables libres no representarán proposiciones, mientras que las fórmulas que no las tengan sí lo harán. Eso justifica la siguiente Definición 9.2.6 — Fórmula abierta. Fórmula cerrada o sentencia. . Las fórmulas que tienen variables libres se llaman fórmulas abiertas. Las fórmulas que no tienen variables libres se llaman fórmulas cerradas o sentencias. Para que una fórmula sea abierta basta que tenga una ocurrencia libre de una variable. 9.3 El teorema de lectura única Al igual que hicimos al ocuparnos de la lógica proposicional, debemos preguntarnos por la posibilidad de que aparezcan fórmulas estructuralmente ambiguas, es decir, que puedan ser leídas, por ejemplo, como una conjunción de dos fórmulas y también como la cuantificación universal de una fórmula, lo que tendría efectos catastróficos para nuestros propósitos. Gracias a la introducción de los paréntesis en el lenguaje y a las reglas de su disposición, este indeseable resultado se evita. La demostración es totalmente análoga a la que hicimos para el lenguaje de la lógica proposicional. Para llevarla a cabo hay que notar que desde el punto de vista sintáctico, los cuantificadores se comportan como la negación (es decir, se introducen antecediendo a una fórmula), y que las fórmulas atómicas no pueden ser a la vez atómicas y de otro tipo, y que dentro de las atómicas, si una fórmula es una igualdad no es una letra de relación seguida de términos. Debido a que no se necesita ninguna idea nueva para realizarla, no haremos la demostración. Directamente consignaremos el resultado pertinente: Teorema 9.3.1 — Lectura única. Toda fórmula de L PO tiene una y solo una de las siguientes formas: 1. Rnjt1 ...tn o t1 = t2 (o sea, es una fórmula atómica) 2. ¬A, siendo A una única fórmula. 3. (A ∧ B), siendo A y B fórmulas únicas. 4. (A ∨ B), siendo A y B fórmulas únicas. 5. (A → B), siendo A y B fórmulas únicas. 6. (A ↔ B), siendo A y B fórmulas únicas. 7. ∀xn A, siendo A una única fórmula. 8. ∃xn A, siendo A una única fórmula. 9.4 Árbol de formación de una fórmula El Teorema de lectura única nos asegura que cada fórmula tiene un árbol de formación, que es un diagrama que se construye del siguiente modo: 1. En la raíz del árbol se coloca la fórmula en cuestión. 2. Como es una fórmula, o bien: a) Es una fórmula atómica (en cuyo caso no tiene descendientes) Capítulo 9. Sintaxis 200 b) Es de la forma ¬A, ∀xn A, o ∃xn A, en cuyo caso tiene como descendiente a A. c) Es de la forma (A ∧ B), (A ∨ B), (A → B), (A ↔ B), en cuyo caso tiene como descendientes a A y a B. 3. Se repite el proceso con los descendientes obtenidos, hasta que solo queden fórmulas atómicas en los nodos terminales del árbol. Ejemplo 9.1 Árbol de formación de la fórmula ∀x2 ¬∃x3 ((R12 x3 x2 ∧ ¬R11 x3 ) → ∀x5 R14 x5 c7 ) ∀x2 ¬∃x3 ((R12 x3 x2 ∧ ¬R11 x3 ) → ∀x5 R14 x5 c7 ) ¬∃x3 ((R12 x3 x2 ∧ ¬R11 x3 ) → ∀x5 R14 x5 c7 ) ∃x3 ((R12 x3 x2 ∧ ¬R11 x3 ) → ∀x5 R14 x5 c7 ) ((R12 x3 x2 ∧ ¬R11 x3 ) → ∀x5 R14 x5 c7 ) (R12 x3 x2 ∧ ¬R11 x3 ) ∀x5 R14 x5 c7 R12 x3 x2 ¬R11 x3 R14 x5 c7 R11 x3 Las fórmulas que aparecen en los nodos del árbol son las subfórmulas de la fórmula dada (incluyendo a ella misma). 9.5 Lenguajes de Primer Orden Hemos visto que en la lógica de primer orden disponemos de un conjunto infinito de símbolos que consta de los paréntesis, los conectivos de la lógica proposicional, los cuantificadores, las variables, las constantes de individuo y las letras de relación, además del símbolo específico para la igualdad. Los paréntesis funcionan como si fueran signos de puntuación, que evitan el traspaso de problemas estructurales del lenguaje natural al lenguaje formal y aseguran la lectura única de las fórmulas. Los conectivos heredados de la lógica proposicional tendrán en todos los contextos el mismo “comportamiento” y lo mismo podremos decir de los cuantificadores, las variables y el símbolo de igualdad. Sin embargo hemos visto que la introducción de constantes de individuo y letras de relación es debida a nuestro deseo de traducir a nuestro lenguaje formal nombres de objetos y de propiedades o relaciones. Así, aparece una diferencia fundamental: en todos los contextos el símbolo “∧” tendrá el mismo comportamiento, lo que es decir que tendrá siempre el mismo significado, a saber, estará indicando algo verdadero si y solo si los dos componentes que conecta son verdaderos. Y lo mismo podemos decir de los demás conectivos lógicos, de los cuantificadores y del símbolo de la igualdad. Por otro lado, y en contraste, un nombre no significará lo mismo en todos los contextos imaginables. La evaluación de si una proposición que incluye un nombre es verdadera o falsa depende en forma estricta de la consideración de la denotación de ese nombre. Por ejemplo, la proposición “Miguel Ángel es un gran pintor” es verdadera si “Miguel Ángel” denota cierto florentino famoso que vivió en el siglo XVI, y si por el conjunto de los grandes pintores entendemos a aquellos individuos que son así calificados en al menos la mitad de los libros de Historia de la 9.5 Lenguajes de Primer Orden 201 Pintura. Pero podría ser falsa si cambiásemos la denotación del nombre de objeto “Miguel Ángel” o la denotación del nombre de propiedad “ser un gran pintor”. Debido a esta diferencia, las constantes de individuo y las letras de relación serán llamadas símbolos no lógicos y los restantes símbolos serán llamados símbolos lógicos. Esta diferencia es importante y tiene efectos prácticos: cuando uno desea trabajar con la lógica de primer orden, normalmente lo hace para enfrentar problemas concretos que involucran un conjunto dado de individuos y de relaciones. Como ejemplo trivial, puedo estar interesado en un problema que involucra cinco triángulos y la relación entre ellos que resulta relevante es “tener mayor área que”. En ese caso, está claro que no necesito más que cinco constantes de individuo y una letra de relación, que será binaria. Al hacer esa selección, se determina un lenguaje de primer orden. Es decir, un lenguaje de primer orden queda determinado haciendo una selección de símbolos no lógicos. De aquí surge la existencia de infinitos lenguajes de primer orden. Así, cada lenguaje de primer orden tiene un alfabeto que consta de paréntesis, cuantificadores, los conectivos de la lógica proposicional, variables, el símbolo de igualdad y un conjunto (finito o infinito) de constantes de individuo y de letras de relación. Entre los infinitos lenguajes de primer orden se cuenta el lenguaje vacío, que es aquel que no tiene símbolos no lógicos. Por ejemplo, la fórmula ∀x0 ∀x1 x0 = x1 pertenece a este último lenguaje. De aquí en más nos referiremos a cada lenguaje de primer orden particular indicando cuál es el conjunto de sus símbolos no lógicos. Por ejemplo, El conjunto de los símbolos no lógicos de L1 es {R20 , R21 } El conjunto de los símbolos no lógicos de L2 es {c0 , c1 } El conjunto de los símbolos no lógicos de L3 es {R30 , R20 , R21 , R11 , c0 , c1 } A veces, en un abuso notacional se escribe L1 = {R20 , R21 } aunque claramente el lenguaje no es ese conjunto, sino que queda determinado por él. 10. Semántica A semántica de la lógica de primer orden consistirá en la atribución de los valores de verdad Verdadero o Falso bajo determinadas interpretaciones a algunas fórmulas del lenguaje. Esto requerirá especificar cómo hacerlo para cada uno de los infinitos lenguajes de primer orden. En lógica proposicional manejábamos interpretaciones que eran modelos o contramodelos de las fórmulas, y esas interpretaciones quedaban determinadas a través de las asignaciones proposicionales, es decir, una vez que dábamos un único valor de verdad a cada letra proposicional. En la lógica que estamos estudiando una interpretación será algo bastante más complejo, con un universo extralingüístico a tener en cuenta mucho más rico. L 10.1 Interpretaciones Considere un lenguaje de primer orden L dado. L está determinado por sus símbolos no lógicos y una interpretación para L consistirá en algo complejo destinado a dar “significado” a esos símbolos: un conjunto no vacío M y una función de denotación. El conjunto M puede ser cualquiera –siempre que no sea vacío– y será llamado dominio de la interpretación. La función de denotación será la encargada de otorgar “significado” a los símbolos no lógicos, asignándole algún objeto a cada uno de ellos. Normalmente la interpretación se designa con el mismo nombre que su dominio, solo que se lo escribe en un tipo de letra especial. De ese modo, hablaremos de la interpretación M de dominio M. Lo dicho hasta el momento es fundamental, y merece un recuadro antes de hacer las precisiones necesarias. Dado un lenguaje de primer orden L , una interpretación para L consta de un conjunto no vacío –el dominio de la intepretación– y una función de denotación que asigna algún objeto a cada uno de los símbolos no lógicos de L . El lector hará bien en este punto pensando en la enorme diferencia que existe entre la semántica de L P y la que queremos establecer para L PO: en la primera, las interpretaciones ya eran Capítulo 10. Semántica 204 asignaciones de valores de verdad a todas las fórmulas del lenguaje, mientras que en la segunda, las interpretaciones no involucran directamente los valores de verdad. Por supuesto, las fórmulas serán verdaderas o falsas bajo una interpretación dada, pero la interpretación misma no es la asignación de valores de verdad a las fórmulas. Estudiemos ahora cómo deben ser esas funciones de denotación que, junto con un dominio, constituyen las interpretaciones. Ellas deben asignar algún objeto a cada uno de los símbolos no lógicos del lenguaje L sobre el que se hace la interpretación, objeto que será llamado la denotación del símbolo. Como los símbolos no lógicos son las constantes de individuo y las letras de relación, debemos considerar cómo tratan las funciones de denotación a cada una de esas categorías. Las constantes de individuo fueron introducidas para que funcionaran como nombres de individuos, y el dominio de la interpretación funcionará como “universo del discurso”. Por lo tanto, la función de denotación asignará a cada una de las constantes de individuo del lenguaje L un elemento del conjunto M. Los elementos de M que quedan asignados como denotación de constantes de individuo son llamados individuos destacados en la interpretación. Veamos un ejemplo. Sea el lenguaje L1 que queda determinado por {c3 , c5 , c11 , R14 , R20 }. Sea el conjunto M = {Juan, María, Pedro, Diego, Elena}, en el que todos sus elementos son personas. Necesitamos asignar una denotación a cada constante de individuo de L1 , y la denotación de cada una de ellas debe ser un único individuo de M. Podemos elegir entonces: c3 denota a María c5 denota a Pedro c11 denota a Elena. En general, el objeto denotado se indica supraindizando el símbolo al que se le asigna denotación con el elegido para nombrar la interpretación. Así cM 3 = María cM 5 = Pedro 1 cM 11 = Elena . Nos resta asignar denotación a los otros símbolos no lógicos, o sea, a las letras de relación. Concentrémonos en las unarias. Habíamos dicho que deseábamos que estos símbolos indicasen propiedades de individuos. Es claro que la propiedad en cuestión determina el conjunto de los individuos que la poseen, y que conociendo ese conjunto siempre haremos atribuciones correctas de la propiedad a individuos particulares. Por esto, consideraremos que la denotación de un símbolo de relación unaria será un subconjunto de M, el subconjunto formado por aquellos individuos a los que se les atribuye la propiedad. Observe que al tomar esta decisión nos hemos desprendido de la idea complicada de “propiedad” y nos hemos quedado con la mucho más precisa de “conjunto”. Ejemplifiquemos con el caso que venimos tratando en el cual tenemos el lenguaje L1 determinado por {c3 , c5 , c11 , R14 , R20 } y deseamos construir una interpretación con dominio M={Juan, María, Pedro, Diego, Elena}. En el lenguaje tenemos una letra de relación unaria R14 y queremos que esta indique la propiedad ser mujer. Para ello, haremos que la denotación de esa letra sea el conjunto de los individuos que tienen la propiedad. Por lo tanto nuestra elección será: M R14 denota a {María, Elena}, o R14 1 Hemos = {María, Elena} utilizado el símbolo “=” en el metalenguaje. Para evitar confusiones podríamos haber optado por otro símbolo para la igualdad en el lenguaje formal, pero esto no parece muy natural. Con un mínimo de atención, se puede evitar toda consecuencia indeseable de esta situación 10.1 Interpretaciones 205 Falta considerar cómo se debe asignar denotación a las letras de relación n-arias con n > 1. Obviamente queremos que estos símbolos indiquen relaciones de su aridad. Consideremos una relación n-aria cualquiera. Esta vincula n individuos en un orden. Si conociéramos todos los conjuntos ordenados de n individuos que efectivamente se encuentran en la relación, siempre haremos atribuciones correctas con respecto a esta. Por ejemplo, si no sé que “es hermano de” se puede reducir a “tiene los mismos padres que”, pero dada una familia cualquiera conozco cuáles pares ordenados de individuos están vinculados por la relación “es hermano de” nunca haré una atribución incorrecta por más que desconozca todo acerca de las relaciones de paternidad y maternidad. En forma totalmente análoga a lo que habíamos hecho con las letras de relación unaria, a las cuales habíamos asignado como denotación subconjuntos de M, a las letras de aridad superior n les asignaremos como denotación conjuntos de n-uplas ordenadas de elementos del conjunto. Volvamos a nuestro ejemplo del lenguaje L1 , del cual nos falta asignar denotación a una letra de relación binaria: R20 . Supongamos además que el conjunto M = {Juan, María, Pedro, Diego, Elena} es el de los integrantes de una familia formada por el matrimonio de Juan y María cuyos hijos son Diego, Pedro y Elena. ¿Cómo deberíamos hacer denotar a la letra R20 para que indicase la relación “...es hijo de...”? Está claro que coloquialmente diríamos que Diego, Pedro y Elena son los hijos en esta familia. Sin embargo si a partir de esto alguien desea hacer que la denotación de la letra R20 sea el conjunto {Diego, Pedro, Elena} estaría cometiendo un grave error. La relación “...es hijo de...” se da entre pares ordenados de individuos. En nuestro caso, Pedro es hijo de María pero María no es hija de Pedro. Como Pedro es hijo de María y no al revés, diremos que el par ordenado hPedro, Maríai está en la relación en cuestión mientras que el par hMaría, Pedroi no está en esa relación. Nuevamente es claro que la relación determina los pares que están en ella y que conociendo esos pares siempre atribuiremos correctamente la existencia de la relación entre dos individuos. Es por esto que optaremos por asignar como denotación de la letra de relación R20 al conjunto de pares ordenados que están en la relación “...es hijo de...”. En nuestro caso, R20 denota a {hJuan,Diegoi, hJuan, Pedroi, hJuan, Elenai, hMaría,Diegoi, hMaría, Pedroi, hMaría, Elenai}, o M R20 = {hJuan,Diegoi, hJuan, Pedroi, hJuan, Elenai, hMaría,Diegoi, hMaría, Pedroi, hMaría, Elenai} Vemos que hemos asimilado la noción de “relación binaria” con la de “conjunto de pares ordenados”. De hecho, en matemática se define una relación binaria justamente así: es un conjunto de pares ordenados, y en general, una relación n-aria se define como un conjunto de n-uplas ordenadas2 . Resumimos ahora el caso general. Si nuestro lenguaje las contiene, la función de denotación asignará, a cada constante de individuo, un elemento del conjunto M; a cada letra de relación unaria, un subconjunto de M; a cada letra de relación binaria, un conjunto de pares ordenados de elementos de M; y en general, a cada letra de relación n-aria, un conjunto de n-uplas ordenadas de elementos de M. 2 Es de notar que este compromiso indisoluble de la interpretaciones con los conjuntos hace que la lógica sea extensional, o sea, las interpretaciones solo dependerán de los elementos de los conjuntos que involucren, y no de la forma en que estos se describan. Si cambiamos un elemento, tenemos una nueva interpretación. Si alteramos la descripción de uno de los conjuntos que involucra, y la nueva descripción sigue correspondiendo al mismo conjunto, la interpretación es la misma. Veremos más sobre esto al tratar contextos indirectos. Capítulo 10. Semántica 206 Estamos en condiciones de caracterizar completamente las interpretaciones para los lenguajes de primer orden: Definición 10.1.1 Interpretación para un lenguaje de primer orden Una interpretación M para un lenguaje de primer orden dado L es un par formado por: (a) Un conjunto no vacío M (llamado dominio de la interpretación) (b) Una función de denotación que asigna (i) A cada constante ci de L un elemento cM i de M. M 1 (ii) A cada letra de relación unaria Ri de L un subconjunto R1i de M y (iii) A cada letra de relación n-aria Rni , (n > 1) de L un conjunto de n-uplas ordenadas M Rni de elementos de M. 10.2 Estructuras Es claro que una interpretación vincula dos niveles: uno lingüístico, constituido por los símbolos no lógicos del lenguaje y otro conjuntístico constituido por un conjunto, elementos de ese conjunto, subconjuntos de ese conjunto, conjuntos de pares ordenados de elementos de ese conjunto, etc. Este segundo nivel conjuntístico determina lo que se llama una estructura. La estructura queda determinada considerando en orden el conjunto, las denotaciones de las letras de individuo, las denotaciones de las relaciones unarias, las denotaciones de las relaciones binarias, etc. Las denotaciones de las constantes de individuo se consideran en el orden que dan sus subíndices y lo mismo ocurre con las denotaciones de las letras de la misma aridad. En el ejemplo que hemos trabajado, la estructura es la siguiente: M = hM, María, Pedro, Elena, D, Hi siendo M = {Juan, María, Pedro, Diego, Elena} D = {María, Elena} H = {hJuan,Diegoi, hJuan, Pedroi, hJuan, Elenai, hMaría,Diegoi, hMaría, Pedroi, hMaría, Elenai} Una estructura, siguiendo la convención recién mencionada determina una interpretación. Por ejemplo, sea el lenguaje L4 = {c4 , c7 , c8 , R11 , R14 , R23 , R35 }. y la estructura A = hA; a, b, a; B, C; D; Ei donde A = {a, b, c, d} B = {d} C = {b, c} D=∅ E = {ha, b, ai, ha, b, ci, hd, d, di} 10.3 Valores de verdad bajo una interpretación 207 La estructura nos indica unívocamente la interpretación porque En primer lugar aparece el conjunto sobre el que se hace la interpretación. El primer elemento destacado que aparece es la denotación de la constante de individuo de subíndice más bajo de nuestro lenguaje. En nuestro caso, la denotación de c4 es el elemento a. Análogamente, quedan determinadas las denotaciones de las restantes constantes de individuo: c7 denota al elemento b y c8 denota al elemento a. En forma similar, se encuentra la denotación de las letras de predicado: R11 denota el conjunto B, R14 denota el conjunto C, R23 denota el vacío y R35 denota al conjunto E. Por supuesto, la interpretación también determina unívocamente la estructura. Es por esto que se puede hablar indistintamente de una interpretación o de una estructura sabiendo cómo encontrar una a partir de la otra. La estructura y la interpretación se denotan frecuentemente de la misma manera, colocando en una tipografía especial el nombre del conjunto sobre el cual se construye. Es claro que para un mismo conjunto, existen muchas estructuras. Es posible que necesitemos diferenciar dos interpretaciones o estructuras sobre un mismo conjunto, y en ese caso lo haremos subindizando el nombre del conjunto con una tipografía especial. Así, Mα y Mβ son dos interpretaciones o estructuras de L sobre el conjunto M. Por ejemplo, consideremos las siguientes estructuras, donde B, C, D y E son los conjuntos que vimos anteriormente, y F = ∅: A1 =hA; a, b, a; B, C; D; Ei, y A2 = hA; a, a, b; C, B; D; Fi En ambas el conjunto A es {a, b, c, d}, pero la función de denotación sobre el lenguaje L4 = {c4 , c7 , c8 , R11 , R14 , R23 , R35 } es diferente: 10.3 10.3.1 Denotación en A1 Denotación en A2 c4 a a c7 b a c8 a b R11 {d} {b, c} R14 R23 R35 {b, c} {d} ∅ ∅ {ha, b, ai, ha, b, ci, hd, d, di} ∅ Valores de verdad bajo una interpretación Fórmulas atómicas El camino que vamos a seguir es muy parecido al que ya vimos en lógica proposicional: resolveremos el problema de la asignación de valores de verdad a las fórmulas más simples, es decir, las atómicas, y a partir de esto asignaremos valores de verdad a las más complejas. Una fórmula atómica solo puede tener dos formas: o bien es de la forma Rnit1 , ...,tn , donde cada uno de los ti es un término (esto es, una variable o una constante de individuo) o bien es de la forma t1 = t2 , donde t1 y t2 son términos. Consideremos dos casos: 208 Capítulo 10. Semántica 1. Ninguno de los términos que aparece en la fórmula atómica es una variable. Esto, a su vez, nos da dos posibilidades: a) La fórmula atómica en cuestión es de la forma Rnit1 , ...,tn y además todos los términos que aparecen en ella son constantes de individuo. Dada una interpretación M , esta asigna denotación tanto a la letra de relación como a los términos que aparecen en la fórmula. Diremos que la fórmula Rnit1 , ...,tn es verdadera bajo la interpretación M si y solo si la n-upla formada por las denotaciones de los términos t1 , ...,tn (en ese orden) pertenece a la denotación de la letra de relación Rni , o sea, la interpretación M hace M verdadera a la fórmula Rnit1 , ...,tn si y solo si ht1M , ...,tnM i pertenece a Rni . b) La fórmula atómica en cuestión tiene la forma t1 = t2 y ambos términos son constantes de individuo. Diremos que la interpretación M la hace verdadera si y solo si la denotación de ambos términos es la misma en esa interpretación, o sea, t1M = t2M 3 . 2. Alguno de los términos que aparece en la fórmula atómica es una variable. Ya expusimos las razones por las cuales estas fórmulas no son aptas para representar proposiciones. Por ello, no asignaremos valores de verdad a fórmulas atómicas que incluyan variables. Esto, que en principio puede parecer algo defectuoso o arbitrario, tiene un correlato claro en el lenguaje natural. Suponga que estamos trabajando sobre los números naturales, considerando la propiedad ser mayor que 15. Si decimos algo como “x es mayor que 15”, lo que con un lenguaje de primer orden podría ser perfectamente representado a través de la fórmula R11 x0 , no estoy expresando una proposición. Lo que expresado no tiene un valor de verdad. Se obtiene una proposición si se sustituye la x por un nombre o si se cuantifica. Pero sea como sea, lo expresado no es una proposición, no tiene valor de verdad y por lo tanto, en nuestra semántica no asignaremos valores de verdad a fórmulas atómicas que contengan variables. Observe el lector que una fórmula atómica con variables es inevitablemente una fórmula abierta. Por lo tanto hemos descrito cómo asignar inequívocamente un valor de verdad bajo una interpretación a una fórmula atómica cerrada y hemos optado por considerar que las fórmulas atómicas abiertas carecerán de valor de verdad. 10.3.2 Cuantificador universal Sabemos por las prescripciones sintácticas que siendo A una fórmula, ∀xn A será una fórmula. Y siguiendo nuestra idea de una semántica composicional, el valor de verdad de esta última debe depender de fórmulas más simples que ella. Como dijimos, lo que expresa coloquialmente la fórmula ∀xn A es que todos los elementos del conjunto dado por la interpretación “cumplen” lo que expresa la fórmula A. Guiados por ese principio asignaremos valores de verdad a las fórmulas cuantificadas universalmente. Consideremos los siguientes casos. 1. A partir de una fórmula A, que no tiene ocurrencias de la variable xn se forma la fórmula ∀xn A. Este es el caso llamado cuantificación vacua. El valor de verdad de la fórmula ∀xn A bajo la interpretación dada será el valor de verdad de A bajo la interpretación dada en caso de que lo tenga. 2. A partir de una fórmula A que tiene ocurrencias de la variable xn y además otras variables libres se forma la fórmula ∀xn A, que es abierta. Por consideraciones análogas a las ya hechas anteriormente no asignaremos valor de verdad a esta fórmula. 3. A partir de la fórmula A cuya única variable libre es xn se forma la fórmula ∀xn A. Este caso merece consideraciones especiales que desarrollamos inmediatamente. 3 Observe que esto implica asignar denotación fija al símbolo “=”: la denotación de ese símbolo es siempre el conjunto {ha, ai : a ∈ M}. 10.3 Valores de verdad bajo una interpretación 209 Debemos asignar un valor de verdad a la fórmula ∀xn A donde A tiene a xn como su única variable libre, y esto debe hacerse en una forma dependiente de fórmulas más simples que ella. Parece natural entonces decir que la fórmula ∀xn A será verdadera si y solo si cada vez que sustituimos todas las ocurrencias libres de la variable xn en A por una de las constantes de individuo del lenguaje, obtenemos una fórmula verdadera. Sin embargo esto, natural como es, constituye un error. Es importante tener claro por qué. Volvamos a considerar el ejemplo del matrimonio formado por Juan y María cuyos hijos son Diego, Pedro y Elena. Formemos un lenguaje de primer orden que conste de dos constantes de individuo c1 y c2 y dos letras de relación unarias R11 y R12 . El dominio de la interpretación será {Juan, María, Diego, Pedro, Elena}. La denotación de c1 será María, la de c2 será Elena, la de R11 será el subconjunto {María, Elena} y la de R12 será {Juan, Diego, Pedro}. Observe que la letra de relación R11 denota la propiedad ser mujer y la letra R12 denota la propiedad ser hombre. Considere ahora la expresión “Todos son mujeres”. Claramente en esta interpretación la proposición expresada debería ser considerada falsa ya que en el conjunto hay individuos que no son mujeres. En nuestro lenguaje formal esa proposición se representaría como ∀x0 R11 x0 . A pesar de que esa fórmula debería ser considerada falsa bajo la interpretación dada, se cumple lo siguiente: si sustituimos la variable cuantificada por cualquier constante de individuo de nuestro lenguaje en la fórmula que sigue al cuantificador, obtenemos una fórmula verdadera: 1. Sustituyendo x0 por c1 en R11 x0 obtenemos R11 c1 , la que es verdadera bajo la interpretación ya que la denotación de la constante (María) pertenece a la denotación de la letra de relación ({María, Elena}). 2. Sustituyendo x0 por c2 en R11 x0 obtenemos R11 c2 , la que es verdadera bajo la interpretación ya que la denotación de la constante (Elena) pertenece a la denotación de la letra de relación ({María, Elena}). Y no tenemos más constantes de individuo en el lenguaje para realizar la sustitución. O sea, es verdad que, siempre que sustituimos la variable libre por una constante de individuo en nuestro lenguaje en la fórmula A obtenemos una fórmula verdadera. Sin embargo, sería claramente incorrecto asignar el valor de verdad verdadero a la fórmula ∀x0 R11 x0 bajo la interpretación considerada. Hay más de un modo de resolver este problema. Nosotros optaremos por esta línea de pensamiento: nos vemos en esta situación debido a que nuestro lenguaje no provee nombres para todos los elementos del dominio de la interpretación, y de esta manera resulta una suerte de “invisibilidad” de algunos elementos de ese conjunto a través de las fórmulas más simples que estamos considerando. Por lo tanto, una vía de solución es dotar a nuestro lenguaje de nombres para todos los elementos del dominio de la interpretación. Si dispusiéramos de un nombre para cada elemento del dominio, o sea, si cada elemento del dominio fuera denotado por una constante de individuo del lenguaje sería perfectamente correcto este enfoque sustitucional. De todo esto surge la necesidad de considerar extensiones del lenguaje de primer orden con el que estemos trabajando. Una extensión L + de nuestro lenguaje L será cualquier lenguaje que se obtenga agregando símbolos no lógicos a L . De todas las extensiones posibles de un lenguaje, al estar trabajando con una interpretación, nos interesarán aquellas que nos permiten dar un nombre a cada elemento del dominio de la interpretación. Es decir, agregaremos tantas constantes de individuo como sea necesario para que cada elemento del dominio sea denotado por al menos una constante. En el ejemplo anterior teníamos un lenguaje con dos constantes de individuo c1 y c2 y el dominio tenía cinco elementos: Juan, María, Diego, Pedro y Elena. Según lo que venimos diciendo Capítulo 10. Semántica 210 extendemos el lenguaje de forma tal que tengamos constantes de individuo suficientes como para nombrar cada elemento del conjunto. En nuestro caso, eso implica agregar por lo menos tres constantes de individuo (esto es lo mínimo que hay que agregar pero se pueden agregar más). Obviamente, al cambiar el lenguaje cambia la interpretación, ya que debemos asignar denotación a las constantes añadidas. Formamos entonces una nueva interpretación M + que tiene el mismo dominio que M (la interpretación que se había dado para el lenguaje sin extender), coincide con M en la denotación de los símbolos de L y otorga denotación a las nuevas constantes de tal forma que cada elemento del dominio sea denotado por alguna de ellas. A L , que está determinado por c1 , c2 , R11 y R12 le agregamos tres constantes de individuo resultando L + que queda determinado por c1 , c2 , R11 , R12 , c3 , c4 y c5 . La interpretación M + queda definida así: El dominio M = {Juan, María, Diego, Pedro, Elena}. La denotación de c1 será María, la de c2 será Elena, la de R11 será el subconjunto {María, Elena} y la de R11 el conjunto {Juan, Diego, Pedro} (igual que en M ). La denotación de c3 será Juan, la denotación de c4 será Pedro, la denotación de c5 será Diego (por supuesto, es indiferente cuál constante denota cuál elemento. Lo único que importa es que todos los elementos del dominio sean denotados por alguna constante). En esta nueva interpretación funciona correctamente en sentido intuitivo el principio que habíamos intentado: la fórmula ∀xn A donde A tiene como única variable libre xn es verdadera si y solo si cualquier sustitución de la variable libre xn en A por una constante de individuo resulta en una fórmula verdadera. En nuestro ejemplo, ∀x0 R11 x0 es falsa porque la fórmula R11 c3 es falsa, ya que la denotación de c3 no pertenece a la denotación de R11 . Y es claro que esto no depende de cómo se asigna la denotación de las nuevas constantes, ni de cuántas se agreguen, sino solo de que se cumpla lo requerido, esto es, que en la interpretación de la extensión cada elemento del conjunto sea denotado por al menos una constante. De todo lo dicho surge la adecuación de la siguiente caracterización semántica de las fórmulas que venimos tratando: Una fórmula de la forma ∀xn A donde A tiene como única variable libre xn , es verdadera bajo una interpretación M de un lenguaje L si y solo si, bajo una interpretación M + de un lenguaje L + , con el mismo dominio que M y que extiende la función de denotación de M de modo que todos los elementos del dominio sean denotados por alguna constante de L + , se cumple que al sustituir xn por cualquier constante de individuo en todas sus ocurrencias libres en A, se obtiene una fórmula verdadera. 10.3.3 Cuantificador existencial Nuevamente, la idea de hacer una semántica composicional nos llevará a resolver el valor de verdad de una fórmula del tipo ∃xn A, donde A es una fórmula, a partir de fórmulas más simples. Recordemos que queremos que esta fórmula expresa lo que coloquialmente describiríamos diciendo que al menos un elemento del conjunto de la interpretación "cumple" lo que la fórmula A expresa. Distinguimos los siguientes casos: 1. A partir de una fórmula A, que no tiene ocurrencias de la variable xn se forma la fórmula ∃xn A. Este es el caso llamado cuantificación vacua. El valor de verdad de la fórmula ∃xn A bajo la interpretación dada será el valor de verdad de A bajo la interpretación dada en caso de que lo tenga. 10.3 Valores de verdad bajo una interpretación 211 2. A partir de una fórmula A que tiene ocurrencias de la variable xn y además otras variables libres se forma la fórmula ∃xn A, que es abierta. Por consideraciones análogas a las ya hechas anteriormente no asignaremos valor de verdad a esta fórmula. 3. A partir de la fórmula A cuya única variable libre es xn se forma la fórmula ∃xn A. Nuevamente, este es el caso que se debe considerar en forma particular, lo que haremos a continuación. Aquí, en forma análoga al caso del cuantificador universal, estaríamos tentados de afirmar que la fórmula existencial será verdadera si lo es alguna de las fórmulas que se obtienen sustituyendo todas las ocurrencias de la variable libre en A por una constante de individuo del lenguaje L pero eso sería un error. Consideremos nuevamente el caso que hemos elegido para ejemplificar, en el que tenemos una interpretación M tal que: (i) El dominio M = {Juan, María, Diego, Pedro, Elena}. (ii) La denotación de c1 será María, la de c2 será Elena, la de R11 será el subconjunto {María, Elena} y la de R12 será el subconjunto {Juan, Pedro, Diego} . Bajo esta interpretación, la fórmula ∃x0 R12 x0 expresará que hay al menos un hombre, lo que obviamente queremos que sea verdadero. Pero como no tenemos ningún hombre del conjunto denotado por una constante de individuo de L , al sustituir x0 por una constante de L en la fórmula R12 x0 , siempre obtendremos una fórmula falsa. Ya conocemos el remedio para esto: se extiende el lenguaje, agregando constantes de modo que cada individuo del conjunto quede denotado por al menos una de ellas y se trabaja sobre esta nueva interpretación. Así, una fórmula de la forma ∃xn A, donde A tiene como única variable libre xn es verdadera bajo una interpretación M de un lenguaje L si y solo si, bajo una interpretación M + de un lenguaje L + , con el mismo dominio que M y que extiende la función de denotación de M de modo que todos los elementos del dominio sean denotados por alguna constante de L + , se cumple que al sustituir xn por alguna constante de individuo en todas sus ocurrencias libres en A, se obtiene una fórmula verdadera. Como ya dijimos, la extensión de la función de denotación puede hacerse de muchas maneras. Sin embargo, la atribución semántica que reciben las fórmulas no depende de cuáles denotaciones se asignan a las constantes agregadas. 10.3.4 Comportamiento semántico de los conectivos proposicionales En esta sección la mente del lector puede descansar ya que no recibirá novedad alguna. La lógica de primer orden incorpora en su totalidad la semántica propuesta para la lógica proposicional, o sea, el comportamiento semántico de los conectivos proposicionales es el ya estudiado. Esto permite ver a la lógica proposicional como un fragmento de la de primer orden, es decir, podemos esperar que la clase de inferencias que se pueden evaluar por medio de la lógica de primer orden incluya estrictamente a la de las inferencias cuya validez se puede asegurar por medio de la lógica proposicional. Por lo tanto estamos en condiciones de establecer las reglas semánticas para un lenguaje cualquiera de primer orden: 10.3.5 Evaluación semántica de un lenguaje L bajo una interpretación M Cualquier fórmula (cerrada) X del lenguaje L será verdadera o falsa bajo una interpretación M , (lo que escribiremos como M (X) =V o M (X)=F) según las siguientes reglas: Capítulo 10. Semántica 212 Semántica de L PO Sea L + una extensión de L obtenida agregando a este lenguaje constantes de individuo de forma que haya tantas como para denotar cada elemento de M por al menos una constante. Sea M + una interpretación sobre L + que tiene el mismo dominio que M , coincide con ella en la denotación de los símbolos de L y otorga denotación a las constantes de individuo de tal forma que cada elemento del dominio esté denotado por alguna de ellas. M 1. M (Rnit1 , ...,tn ) = V si y solo si (t1M , ...,tnM ) pertenece a Rni . 2. M ( t1 = t2 ) = V si y solo si t1M = t2M 3. M (¬A) = V si y solo si M (A) = F 4. M (A ∧ B) = V si y solo si M (A) = V y M (B) = V 5. M (A ∨ B) = F si y solo si M (A) = F y M (B) = F 6. M (A → B) = F si y solo si M (A) = V y M (B) = F 7. M (A ↔ B) = V si y solo si M (A) = M (B) 8. M (∀xn A) = V si y solo si M + (A(xn , c j ))= V para toda c j de L + , donde A(xn , c j ) es la fórmula que se obtiene sustituyendo todas las ocurrencias libres de xn por c j en A. 9. M (∃xn A) = V si y solo si M + (A(xn , c j ))= V para alguna c j de L + , donde A(xn , c j ) es la fórmula que se obtiene sustituyendo todas las ocurrencias libres de xn por c j en A. 10. Todas las fórmulas cerradas de L son V o F bajo M . En las reglas para las fórmulas cuantificadas se apela al valor de verdad que otorga la interpretación M + , el cual puede hallarse usando todo el conjunto de reglas que hemos dado. 10.4 Modelos, fórmulas válidas, tautologías Una vez determinada la semántica de L PO (o de los lenguajes basados en L PO, podemos definir nociones análogas a las que habíamos considerado en L P. Definición 10.4.1 — Modelos, contramodelos. Un modelo de una fórmula es una interpre- tación bajo la cual es verdadera, y un contramodelo una interpretación bajo la cual es falsa. Un modelo de un conjunto de fórmulas es una interpretación bajo la cual todas las fórmulas del conjunto son verdaderas. Obsérvese que la únicas fórmulas que tienen modelos y contramodelos son las sentencias. Ejemplo 10.1 Toda interpretación es modelo de una sentencia de la forma ∃xn xn = xn .4 Sea M una interpretación cualquiera. Su dominio no es vacío, por lo que L + tiene por lo + + menos una constante de individuo ck y obviamente cM = cM . Por lo tanto, por la claúsula 2, k k + M (ck = ck ) =V, lo que implica, por la cláusula 9, M (∃xn xn = xn ) =V. Ejemplo 10.2 Toda interpretación es contramodelo de la sentencia (∀xn R11 xn ∧ ¬∃xn R11 xn ). Sea M una interpretación cualquiera tal que M (∀xn R11 xn ) =V. Entonces, M + (R11 c j ) =V para toda constante c j de L + , según la cláusula 8. Sea ck una constante de L + . (En L + tiene que 4 Debido a que xn no es una variable, ∃xn xn = xn no es una fórmula, sino un esquema de fórmula. Se obtiene una fórmula al sustituir n por cualquier numeral natural. De aquí en más cometeremos abuso de lenguaje refiriéndonos a estos esquemas de fórmulas como fórmulas. 10.4 Modelos, fórmulas válidas, tautologías 213 existir por lo menos una constante ya que el dominio de M no es vacío y la extensión de L tiene por lo menos una constante por cada elemento de ese dominio.) Entonces M + (R11 ck ) =V, lo que implica que M (∃xn R11 xn ) =V, según la cláusula 9 y por lo tanto,M (¬∃xn R11 xn ) =F, según la cláusula 3. Por lo tanto, ninguna interpretación es modelo a la vez de ∀xn R11 xn y de ¬∃xn R11 xn , con lo que todas las intepretaciones son contramodelos de (∀xn R11 xn ∧ ¬∃xn R11 xn ), según la cláusula 4. Los dos ejemplos anteriores nos dan los análogos a los conceptos de tautología y contradicción, presentados para L P. Definición 10.4.2 — Fórmula válida, contradicción. Una fórmula válida es una sentencia de la cual todas las interpretaciones son modelo. Una contradicción es una sentencia que no tiene modelos. Antes de proseguir, aflojemos las restricciones impuestas por la rigidez del lenguaje formal, como lo hicimos al trabajar en la lógica proposicional. De ahora en más, usaremos las primeras letras del abcedario en minúsculas a, b, c, ... sin subindizar para indicar constantes de individuo, las últimas letras en minúsculas u, v, x, y..., también sin subindizar, para indicar variables, y letras mayúsculas para indicar letras de predicado. La aridad de estas se hará evidente a partir de la cantidad de términos que les siguen. Así, al representar una fórmula como Abxz indicamos inequívocamente que A es una letra de predicado ternaria. Ejemplo 10.3 Las fórmulas que siguen son válidas: (∀xPx ∨ ∀xQx) → ∀x(Px ∨ Qx) (∀xPx → ∀xPx) (Pa → ∃xPx) ∃x(Px → ∀yPy) La última fórmula de la lista anterior es llamada “fórmula del trago” por Smullyan debido al siguiente chiste: Llega un cuate grandote y con pinta de muy malo a una cantina, tira un par de tiros al aire, golpea en el mostrador y grita: “¡Cantinero! ¡Sírvame un tequila y sírvale a todos, porque cuando yo bebo, todos beben!”. Algarabía general en la cantina, gritos, etc. Al rato, el mismo cuate grita: “¡Caaaantinero! ¡Sírvaaame un teeequila y sírvaaale a toooodos, porque cuaaaando yo beeebo, toooodos beeeeeben!” Más festejos. Al rato, el mismo cuate: “¡Caaaaantineero! ¡Shíiiirvame un teeeeeequila y... shíiiiirvale a tooooooooodos, porque cuaaaaaaando sho bebo, toooooooooodos beeeeeben!”. Y así se iban alegrando todos mientras tomaban las vueltas mandadas por este tipo, hasta que grita: “¡Caaaaaaaaaaantineeeeero! ¡Cóoooobremé y cóooobrelee a tooooooooodoss, poooooque cuando shoo paaaagooo, tooooooodos pagan!”. La fórmula “dice” que hay un individuo tal que si él tiene la propiedad P, entonces todos los individuos la tienen. Y es una fórmula válida. O sea, podemos decir, refiriéndonos a la humanidad, que existe un individuo tal que si él fuma, entonces todos fuman. Puede parecer extraño, pero es así. Veamos que efectivamente se trata de una fórmula válida. Desde un punto de vista informal se puede ver la validez de la sentencia considerando que solo hay dos casos posibles: o bien todos los individuos cumplen la propiedad P o bien existe algún individuo que no cumple la propiedad P. Si estamos en el primer caso, es claro que existe un individuo tal que si él tiene la propiedad P, entonces todos la tienen. Cualquier individuo del dominio cumple eso. Si estamos en el segundo caso, también existe un individuo tal que si tiene la propiedad P, entonces todos la tienen. Cualquiera de los individuos que no tienen la propiedad P cumple eso, ya que en esas condiciones el antecedente del condicional es falso. 214 Capítulo 10. Semántica Un poco más formalmente, consideremos una interpretación M de dominio M. Hay dos y solo dos posibilidades: 1. PM = M 2. PM 6= M Si se cumple la primera posibilidad, entonces cualquier constante de individuo a del lenguaje extendido hace que M + [(Pa → ∀yPy)] = V , ya que el consecuente del condicional es verdadero. Por lo tanto la fórmula del trago es verdadera bajo M . Si se cumple la segunda posibilidad, existe un elemento de M denotado por una constante a en + M tal que se cumple M + (Pa) = F y por tanto M + [(Pa → ∀yPy)] = V , ya que el antecedente del condicional es falso. Y esto implica que la fórmula del trago es verdadera bajo M . Como en cualquiera de los casos posibles la fórmula es verdadera bajo M , se concluye que la fórmula es verdadera bajo M cualquiera, o sea es válida.5 Una pregunta pertinente es si existirá un procedimiento mecánico, análogo a las tablas de verdad, para determinar en todos los casos, dada una sentencia de L PO, si se trata de una fórmula válida o no. La respuesta es que no, no existe. No se trata de no conozcamos uno, sino de que con una definición precisa y razonable de lo que es un “procedimiento mecánico”, se puede demostrar que tal procedimiento no existe. Para precisar un poco más, es demostrable que no se puede confeccionar un programa de computadora que determine en todos los casos si una fórmula es válida o no lo es. Este es uno de los descubrimientos lógicos más importantes del siglo pasado, hecho por Alonzo Church e, independientemente, por Alan Turing, al que se suele referir diciendo que la lógica de primer orden es indecidible. Tiene importantes implicaciones en otras áreas de la filosofía, como por ejemplo, en filosofía de la mente. Es un tema ineludible en un segundo curso de lógica para estudiantes de filosofía. Volvamos a la clasificación de las sentencias. Es claro que el lugar que ocupaban las tautologías en la lógica proposicional lo ocupan las fórmulas válidas en la lógica de primer orden. Sin embargo, seguiremos usando el término tautología. Lo reservaremos para aquellas fórmulas válidas en virtud exclusivamente del comportamiento semántico de los conectivos proposicionales, o sea, que seguirían siendo válidas aunque se cambiara el comportamiento semántico de los cuantificadores. Precisamos el concepto de esta manera: Definición 10.4.3 — Valuación booleana. Una valuación booleana es una asignación V de valores de verdad a todas las sentencias de la lógica de primer orden tal que para cualesquiera sentencias A y B: V (¬A) =F si y solo si V (A) =V V (A ∧ B) =V si y solo si V (A) =V y V (B) =V V (A ∨ B) =F si y solo si V (A) =F y V (B) =F V (A → B) =F si y solo si V (A) =V y V (B) =F V (A ↔ B) =F si y solo si V (A) = V (B) Definición 10.4.4 — Tautología en lógica de primer orden. Una sentencia es una tautología si todas las valuaciones booleanas le asignan valor de verdad V. Debe observarse que todas las interpretaciones son valuaciones booleanas pero no se cumple lo recíproco. Por ejemplo, existe una valuación booleana que asigna valor de verdad V a todas las 5 Observe el lector la utilización de LTE en este razonamiento. Así como existe una lógica proposicional intuicionista, existe una lógica de predicados intuicionista. Y, en forma nada sorprendente, los intuicionistas rechazan que la fórmula del trago represente una “ley lógica”. 10.5 Conjuntos satisfacibles e insatisfacibles 215 fórmulas encabezadas por un cuantificador, con lo que daría valor V a ∃x¬Px como a ∀xPx y por tanto, no puede ser una interpretación. Por eso, si una fórmula es verdadera bajo todas las interpretaciones booleanas (tautología) es necesariamente verdadera bajo todas las interpretaciones (válida). Ejemplo 10.4 La sentencia ∀xPx → ∀xPx es una tautología. Sin importar cómo se comporta el cuantificador universal, esta fórmula toma valor V solo debido al comportamiento semántico del condicional. Otra forma de ver la diferencia entre fórmulas válidas y tautologías es darse cuenta de que quien conozca la lógica proposicional pero no la lógica de primer orden podría reconocer que la fórmula es “siempre” verdadera. Si una fórmula es válida y no tautológica, es necesario conocer el significado de los cuantificadores para dar cuenta de su validez. La fórmula del trago es válida y no tautológica, mientras que la fórmula (∃xPx ∨ ¬∃xPx) es una tautología (sea lo que sea que represente lo encabezado por el cuantificador existencial, es una instancia de LTE). Definición 10.4.5 La sentencia A es equivalente a la sentencia B si y solo si todos los modelos de A son modelos de B y recíprocamente. Notación 10.1. Si A es equivalente a B escribimos A ≡ B. Definición 10.4.6 La sentencia A implica la sentencia B si y solo si todos los modelos de A son modelos de B. Ejemplo 10.5 ∀xPx ≡ ¬∃x¬Px Sea M tal que M (∀xPx) =V. Esto significa que 1) para toda constante a de L + , M + (Pa) =V. Supongamos que fuera M (¬∃x¬Px) =F y llegaremos a una contradicción: En este caso, sería M (∃x¬Px) =V, y eso implica que para alguna constante b de L + , M + (¬Pb) =V, o sea que para alguna constante b de L + , M + (Pb) =F, lo que contradice 1). Esto demuestra que todos los modelos de ∀xPx son modelos de ¬∃x¬Px, y por tanto, que la primera fórmula implica la segunda. Queda como ejercicio mostrar que se cumple lo recíproco, con lo que quedará demostrada la equivalencia. 10.5 Conjuntos satisfacibles e insatisfacibles Continuamos con las definiciones análogas a las vistas en el estudio de L P: Definición 10.5.1 Un conjunto de sentencias se llama satisfacible si tiene un modelo e insatis- facible en caso contrario. De la definición surge que para mostrar que un conjunto dado es satisfacible, basta mostrar un modelo común de todas sus sentencias. Mostrar la instasfacibilidad de un conjunto requiere mostrar la imposibilidad de que exista un modelo común a sus sentencias. Ejemplo 10.6 El conjunto Γ = {∀xRax, Pb} es satisfacible. Es sencillo encontrar modelos de este conjunto. Para hacerlo, es necesario determinar un dominio, y una vez establecido este, otorgar denotación a los símbolos no lógicos R (una letra de predicado binaria), P (una letra de predicado unaria) y a las constantes a y b. Capítulo 10. Semántica 216 Vamos a presentar varios modelos del mismo conjunto. 1. La presencia de dos constantes nos puede hacer pensar en tomar un dominio con dos elementos. Esto no es necesario, como veremos, pero hagámoslo así. Tomemos como dominio de la interpretación que queremos construir el conjunto M={1, 2}. Ahora debemos asignar denotación a los símbolos no lógicos. Tomemos como denotación de la constante a el número 1 y como denotación de la constante b el número 2. Una vez hecho esto, hay que asignar denotación a P y R. Con respecto a P, la presencia en Γ de la fórmula Pb y la denotación ya elegida para la constante b, nos obliga a elegir como denotación de esa letra un subconjunto de Γ al que pertenezca el elemento 2. Podemos sencillamente elegir, como denotación de P, {2}. Finalmente, la denotación de R debe ser un conjunto de pares ordenados de elementos de M. La presencia en Γ de la fórmula ∀xRax y la denotación ya elegida para a nos obliga a elegir como denotación de R un conjunto de pares tal que le pertenezcan todos los pares posibles en los que 1 sea la primera componente. O sea, debemos elegir como denotación de R al conjunto {h1, 1i, h1, 2i}. Así, el modelo M hallado es: Dominio: {1, 2} aM = 1 bM = 2 PM = {2} RM = {h1, 1i, h1, 2i} 2. Obtenemos otro modelo N tomando las mismas denotaciones que en modelo anterior y considerando como dominio un conjunto cualquiera que incluya a {1, 2}, por ejemplo, N, el conjunto de los números naturales. 3. Otra posibilidad es tomar como dominio el conjunto de los símbolos no lógicos del lenguaje en el que se expresan las sentencias que tenemos bajo consideración: O = {a, b, P, R}. Tomamos como denotación de la letra a la propia letra a, como denotación de la letra b la letra R, la denotación de P será el conjunto {a, R} y la de R será {ha, ai, ha, bi, ha, Pi, ha, Ri hP, bi}. En este caso, el modelo O hallado es: Dominio: {a, b, P, R} aM = a bM = R PM = {a, R} RM = {ha, ai, ha, bi, ha, Pi, ha, Ri hP, bi} En este ejemplo no se utilizaron objetos extralingüísticos para encontrar el modelo. Es conveniente recordar que siempre se tienen a mano los objetos propios del lenguaje para pensar en modelos 4. Considerando otro enfoque, podemos pensar en la posibilidad de encontrar un modelo Z cuyo dominio tenga un único elemento. Ni siquiera es necesario comprometerse con qué cosa será ese objeto. Lo podemos representar con un círculo o punto, y lo llamamos u. u Como ya está dado el dominio, resta determinar la función de denotación. Obviamente, no tenemos muchas opciones para aZ y aZ , ambas deben ser u. aZ = bZ u 10.5 Conjuntos satisfacibles e insatisfacibles 217 Como el modelo debe hacer verdadera la sentencia Pb, es obligado que la denotación de la letra P sea el conjunto {u}, el propio dominio: aZ = bZ u PZ Resta dar denotación a la letra R. Obviamente, no podemos elegir RM = ∅ porque la sentencia ∀xRax debe ser verdadera en la interpretación, por lo que es obligado que RM = {hu, ui}. Desde el punto de vista gráfico, las relaciones binarias pueden representarse con un conjunto de flechas que vayan desde las primeras componentes de sus pares a sus segundas componentes. En nuestro caso, lo representamos con una flecha que empieza en u y llega a u: aZ = bZ u PZ RZ Ahora solo resta hallar un objeto u realmente existente y se tiene un modelo. Ejemplo 10.7 El conjunto {∃x∃y(¬x = y ∧ ∀z(z = x ∨ z = y))} es satisfacible y todo conjunto es modelo de él si y solo si tiene exactamente dos elementos. Ante todo, observemos que la única sentencia del conjunto bajo consideración pertenece al lenguaje vacío, es decir, no aparecen en ella símbolos no lógicos. Por lo tanto, en la interpretación no tenemos que dar una función de denotación, basta encontrar un dominio. Comencemos como en el último ejemplo, busquemos la posibilidad de encontrar un dominio con un único elemento u. En el lenguaje extendido L + habrá al menos una constante cuya denotación será u, y si hay más constantes, todas denotarán u. Si la sentencia es verdadera bajo una interpretación I cuyo dominio es unitario, tendremos: I (∃x∃y(¬x = y ∧ ∀z(z = x ∨ z = y))) = V o sea I + (∃y(¬a = y ∧ ∀z(z = a ∨ z = y))) = V para alguna constante a de L + , por lo que I + ((¬a = b ∧ ∀z(z = a ∨ z = b))) = V para algún par de constantes a y b de L + , lo que implica que en ese lenguaje extendido hay constantes a y b tales que I + (¬a = b) = V Pero eso implica, a su vez, que aI 6= bI + + lo que es imposible ya que en I + todas las constantes denotan el mismo objeto, u. Por lo tanto, ninguna interpretación de dominio unitario es modelo de la sentencia bajo consideración. Consideremos ahora una interpretación K cuyo dominio sea un conjunto de dos elementos, u y v. Mostremos que es modelo de la sentencia. Capítulo 10. Semántica 218 En L + hay al menos dos constantes, a y b, tales que una de ellas denota u y la otra denota v. Cualquier otra constante, en caso de existir, denota uno de esos dos objetos. Sin perder generalidad, + + consideramos que aK = u y bK = v. Como u y v son objetos diferentes, tenemos K + (¬a = b) = V Por otro lado, para cualquier constante c de L + , se tiene que cK = u o cK = v, por lo que + + K + ((c = a ∨ c = b)) = V para toda constante c, de modo que K + (∀z(z = a ∨ z = b)) = V Entonces K + ((¬a = b ∧ ∀z(z = a ∨ z = b))) = V con lo que K + (∃y(¬a = y ∧ ∀z(z = a ∨ z = y))) = V y finalmente K + (∃x∃y(¬x = y ∧ ∀z(z = x ∨ z = y))) = V lo que demuestra que todo conjunto de dos elementos es modelo de la sentencia. Por otro lado, si una interpretación P tiene un dominio con más de dos elementos, encontraríamos que en L + habría al menos tres constantes denotando objetos diferentes, y por lo tanto, si a, b y c denotan esos tres objetos, tendríamos K + ((c = a ∨ c = b)) = F con lo que K (∀z(z = a ∨ z = b)) = F y K no sería modelo del conjunto puesto a consideración. En general, para cada n natural positivo, existe una sentencia Sn de L PO tal que un conjunto será modelos de Sn si y solo si tiene exactamente n elementos. También existe una sentencia Tn será modelo de Tn si y solo si tiene menos que n elementos (si n es mayor que 1), y otra Un tal que todo conjunto con más de n elementos será su modelo. Ejercicio 10.1 Hallar un esquema de sentencia tal que toda sentencia que responda a él tenga como modelo cualquier conjunto con al menos n elementos y solo a ellos y otro esquema de sentencias que sean modeladas por todos los conjuntos con más de n elementos y solo por ellos. Ejemplo 10.8 El conjunto Γ = {∀x∃yRxy, ¬∃xRxx, ∀x∀y∀z((Rxy ∧ Ryz) → Rxz)} es satisfacible y ninguno de sus modelos tiene dominio finito. En este caso, para encontrar un modelo se debe dar, además de un dominio, la denotación de la letra binaria R. La sentencia que aparece en tercer lugar en el conjunto expresa que la relación R es transitiva, o sea que cumple la propiedad característica de los órdenes. La segunda sentencia expresa que ningún elemento está relacionado por R consigo mismo, de manera que podemos pensar en un orden estricto. A partir de aquí es sencillo considerar, por ejemplo, como dominio el conjunto de los números naturales, N y como denotación de R la relación menor que, que usualmente se nombra con el signo <. Así obtenemos una interpretación N que es modelo del conjunto dado: 10.5 Conjuntos satisfacibles e insatisfacibles 219 1. N es modelo de ∀x∃yRxy porque dado cualquier número natural n existe otro, m tal que n < m. 2. N es modelo de ¬∃xRxx porque ningún número natural está relacionado consigo mismo en la relación menor que. 3. N es modelo de ∀x∀y∀z((Rxy ∧ Ryz) → Rxz) porque la relación menor que es transitiva. Mostremos ahora que si M es modelo de Γ, su dominio es infinito. En general, si en el dominio de una interpretación hay exactamente j elementos, esa interpretación será contramodelo del conjunto Γ y lo podemos demostrar así: Supongamos que una interpretación M es modelo de Γ y su dominio tiene j elementos. La denotación de R en M será un conjunto de pares ordenados de elementos de ese dominio. Como la sentencia ∀x∃yRxy es verdadera bajo M , cada uno de los elementos del dominio debe aparecer como primera componente en alguno de los pares que conforman la denotación de R. Tomemos un elemento cualquiera del dominio, llamémosle a1 . Este elemento debe aparecer como primera componente de un par en la denotación de R. Tomemos un par cualquiera en el que a1 es la primera componente y llamemos a su segunda componente a2 . Repitamos el procedimiento, llamando a3 a la segunda componente de un par cualquiera cuya primera componente es a2 . En general, si hemos hallado a1 , a2 , ..., an , para hallar an+1 buscamos un par cualquiera en la denotación de R que tenga a an como su primera componente y llamamos an+1 a su segunda componente. Hacemos esto hasta obtener a j+1 . Es claro que se tiene RM a1 a2 RM a2 a3 RM a3 a4 .. . RM a j a j+1 Si M es modelo de Γ, entonces RM debe ser transitiva, para que la sentencia ∀x∀y∀z((Rxy∧Ryz) → Rxz) sea verdadera bajo M . Entonces se cumple que si k < l, RM ak al , por transitividad. Dado que en el dominio de M solo hay j elementos, es necesario que a j+1 sea uno de los elementos a1 , ..., a j . Supongamos que es ah con 1 ≤ h ≤ j. Tenemos: RM ah ah+1 .. . RM a j ah lo que implica (ya que teníamos RM ah a j+1 ) que RM ah ah , con lo que la sentencia ¬∃xRxx es falsa bajo esa interpretación. Esto demuestra que ninguna interpretación con dominio finito es modelo de Γ. Ejemplo 10.9 El conjunto Γ = {∃x(Hx ∧ ∀y(Hy → (Axy ↔ ¬Ayy)))} es insatisfacible: Sea M tal que M (∃x(Hx ∧ ∀y(Hy → (Axy ↔ ¬Ayy)))) = V Entonces, para alguna constante a de L + M + (Ha ∧ ∀y(Hy → (Aay ↔ ¬Ayy))) = V de donde 1. M + (Ha) = V 220 Capítulo 10. Semántica 2. M + (∀y(Hy → (Aay ↔ ¬Ayy))) = V Por 2, se tiene que 3. M + (Ha → (Aaa ↔ ¬Aaa))) = V De 1 y 3 surge que 3. M + (Aaa ↔ ¬Aaa) = V Pero ninguna interpretación puede otorgar el valor V a la sentencia Aaa ↔ ¬Aaa, porque para ello debería otorgar el mismo valor de verdad a Aaa y a su negación. Queda demostrado, por tanto, que el conjunto Γ es insatisfacible. 11. L PO y lenguaje natural OMO vimos, al utilizar la lógica proposicional para propósitos de evaluación de la corrección argumental es necesario identificar las proposiciones que se expresan en lenguaje natural y su conexiones en términos expresables mediante las constantes lógicas disponibles en ese marco, para lograr una adecuada representación de los argumentos en el lenguaje formal. Al trabajar con L PO la situación es la misma, se debe lograr una adecuada traducción de las proposiciones expresadas en lenguaje natural al lenguaje formal, pero este proceso presenta complejidades características derivadas del hecho de que L PO “mira dentro” de proposiciones que para la lógica proposicional resultan inanalizables. C 11.1 La elección de los predicados Un ejemplo sencillo es que en el marco de la lógica proposicional una oración como Sócrates es hombre. no encuentra mejor traducción que, por ejemplo, que p5 , mientras que el el marco de L PO, la traducción debe hacerse reconociendo por un lado el nombre “Sócrates” y por otro lado la presencia del predicado "... es hombre”. Como regla general, para los nombres elegiremos constantes de individuo y para las relaciones letras de relación de la aridad adecuada. En este caso eso es muy sencillo. Construimos un “diccionario” que ponga en correspondencia los elementos que advertimos a través del lenguaje natural con los del lenguaje formal elegidos para representarlos. Por ejemplo: Nombre o predicado Sócrates ... es hombre Constante de individuo o letra de relación c7 R14 Capítulo 11. L PO y lenguaje natural 222 Y la representación correspondiente sería R14 c7 . Normalmente, el problema se torna más complejo porque frecuentemente tenemos varias formas de representar una misma proposición. Por ejemplo, consideremos la oración Platón fue discípulo de Sócrates y maestro de Aristóteles. Con respecto a los nombres, no hay dudas. En la oración aparecen tres y sabríamos cómo representarlos si lo tenemos que hacer. Para concretar, fijemos ya esa parte del diccionario: Nombre Constante de individuo Sócrates Platón Aristóteles c7 c8 c9 Pero, ¿qué sucede con los predicados? ¿Cuál de los predicados siguientes es el que debemos adoptar? 1. ... fue discípulo de Sócrates y maestro de Aristóteles 2. Platón fue discípulo de ... y maestro de Aristóteles 3. Platón fue discípulo de Sócrates y maestro de ... 4. ... fue discípulo de ... y maestro de Aristóteles 5. ... fue discípulo de Sócrates y maestro de ... 6. Platón fue discípulo de ... y maestro de ... 7. ... fue discípulo de ... y maestro de ... Tenemos siete posibilidades1 . ¿Cuál de ellas es la correcta? La respuesta es que todas lo son, pero que presentan grandes diferencias. Los tres primeros predicados son unarios, los tres siguientes binarios y el último ternario. Y son todos predicados diferentes. La cuestión de la elección entre ellos para la traducción de la oración solo puede decidirse contextualmente, según otras proposiciones que aparezcan en el argumento a evaluar. Diferentes elecciones nos pueden llevar a representar esta misma oración así (mantenemos el orden en que se mencionan los predicados y recordamos las constantes elegidas para los nombres): 1. R11 c8 2. R12 c7 3. R13 c9 4. R21 c8 c7 5. R22 c8 c9 6. R23 c7 c9 7. R31 c8 c7 c9 En general, el análisis más fino es el que permite la mejor captación de de la dinámica lógica de los argumentos, pero tiene como contrapartida una mayor dificultad operacional. La decisión, como dijismos, debe hacerse contextualmente. Por ejemplo, supongamos que se trata de analizar el argumento 1 En general, el proceso de retirar eligiendo entre n nombres da lugar a 2n − 1 posibles predicados. 11.1 La elección de los predicados 223 Juan es hermano de Pedro. Todos los hermanos de Pedro son abogados. Juan es abogado. Y tenemos la duda de cómo representar la primera premisa, que al tener dos nombres, puede ser representada por medio de 22 − 1 = 3 predicados diferentes. ¿Cuál de los predicados siguientes considerar? 1. ... es hermano de Pedro 2. Juan es hermano de... 3. ... es hermano de ... Si consideramos el último predicado, no habrá problema en la evaluación argumental, siempre que consideremos uniformemente el predicado en todo el argumento (o sea, no considerar una vez la expresión que contiene la palabra “hermano” como un predicado y otra vez como un predicado diferente. Nos quedaría el diccionario: Nombre o predicado Constante de individuo o letra de relación Juan Pedro ... es hermano de ... ... es abogado c1 c2 R21 R11 y la traducción del argumento: R21 c1 c2 ∀x1 (R21 x1 c2 → R11 x1 ) R11 c1 Intuitivamente es claro que esto funcionaría porque en la segunda premisa sin importar con qué constante sustituyamos x1 , obtendremos algo que es consecuencia de ella al hacer la sustitución. Y si la hacemos por c1 obtenemos un condicional cuyo antecedente es la otra premisa y su consecuente la conclusión. Si consideramos el primer predicado, tampoco habrá problema en la evaluación argumental. En este caso el diccionario sería: Nombre o predicado Constante de individuo o letra de relación Juan Pedro ... es hermano de Pedro ... es abogado c1 c2 R12 R11 y la traducción del argumento: R12 c1 ∀x1 (R12 x1 → R11 x1 ) R11 c1 Capítulo 11. L PO y lenguaje natural 224 La explicación intuitiva de por qué debería funcionar esta formalización es idéntica que en el caso anterior. Pero si formalizamos utilizando el segundo predicado obtenemos: Nombre o predicado Juan Pedro Juan es hermano de ... ... es abogado Constante de individuo o letra de relación c1 c2 R12 R11 y no tenemos forma de traducir “Todos los hermanos de Pedro son abogados” utilizando la letra de predicado R12 , porque esa letra solo se aplicará a los hermanos de Juan. De manera que en cada caso debemos decidir cuáles predicados utilizar para la traducción, y no hay recetas simples. Lo mejor es basarse en la intuición del pretendido funcionamiento lógico del argumento. Si este es muy complejo, puede suceder que sea necesario revisar la identificación de predicados porque una identificación inadecuada puede llevarnos a un mal análisis contextual. Sobre proposiciones aisladas, ninguna identificación de predicados tiene primacía, pero cuando las proposiciones interactúan lógicamente no todas las atribuciones de predicados son relevantes. A partir de esta sección, dejaremos de usar el lenguaje formal cuando nos parezca conveniente. Usaremos a, b, c, ..., es decir, las primeras letras del abecedario para las constantes de individuo; u, v, x,... es decir, las últimas para variables, y mayúsculas para las letras de predicados. Prescindiremos además de los paréntesis que no eviten ambigüedades. 11.2 La cuantificación La otra novedad que introduce la lógica de primer orden es la cuantificación. Cuando se trata de traducir proposiciones que se resuelven en un único cuantificador, la tarea resulta simple. Pero cuando hay más de una cuantificación en la misma proposición se debe traducir con extremo cuidado. Consideremos, por ejemplo, el argumento siguiente, del que ya dijimos que es lógicamente incorrecto. Todas las cosas tienen una causa. Hay una causa de todas las cosas. Si razonamos sobre la elección de predicados, nos daremos cuenta de que lo apropiado es elegir un predicado binario, formando este diccionario, ya que se habla tanto de tener causa como de ser causa, por lo que la los predicados unarios posibles no tienen la flexibilidad expresiva necesaria para capturar lo expresado: Nombre o predicado Constante de individuo o letra de relación ... es causa de ... C ¿Qué dice la conclusión en términos del predicado “...es causa de...”? Es claro que afirma que hay una cosa que se relaciona con todas a través de la relación que denota el predicado. O sea, la traducción sería: ∃x∀yCxy 11.3 En la práctica 225 ¿Y qué dice la premisa? ¿Dice acaso que todas las cosas se están relacionadas con una a través de la relación C, que es lo mismo que afirma la conclusión? No, no dice eso. Dice que cada cosa está relacionada con alguna a través de la relación, lo que es muy diferente. Lo podemos parafrasear como “para cada cosa existe alguna cosa que es su causa”. La traducción correcta es: ∀x∃yCyx Observe el lector varios aspectos importantes: La necesidad de usar variables diferentes. Si hubiéramos puesto, por ejemplo, ∀x∃xCxx, tendríamos que la cuantificación universal estaría actuando sobre una fórmula cerrada, de modo que su valor de verdad sería el mismo que el de ∃xCxx, que expresa que hay algo que es causa de sí mismo. La importancia del orden en que se colocan los cuantificadores. Un intercambio en el orden lleva a un cambio de significado muy importante. En este caso es sencillo advertir el orden correcto. Un enunciado expresa que existe algo que tiene la propiedad de ser causa de todas las cosas, el otro enunciado expresa que todas las cosas tienen la propiedad de ser causadas por algo. Eso indica el orden de cuantificación correcto. El orden en que se colocan las variables siguiendo a las letras de predicado. En la última fórmula el orden hubo de ser yx porque la letra de relación expresa que lo primero es causa de lo segundo, y cuantificamos universalmente sobre lo segundo (todo es causado), y existencialmente sobre lo primero. ¿Qué expresa en este contexto la fórmula ∀x∃yCxy? La respuesta es algo así como la ley del karma: “Para toda cosa, hay algo que ella causa” o, más coloquialmente “Todo es causa de algo”. 11.3 En la práctica En esta sección veremos algunas expresiones del lenguaje natural de cierta complejidad en las que tengamos que poner en juego lo visto hasta el momento en el capítulo. Ejemplo 11.1 Traducir a L PO la siguiente proposición: Ningún boxeador combate con cualquiera que lo desafía. La elección de predicados parece muy evidente: ... es boxeador ...combate con ... ... desafía a ... Obsérvese que la elección de predicados en este caso es transparente. Concentrémonos en expresar lo dicho usando los cuantificadores. La frase comienza con el sintagma ningún boxeador combate. Expresa algo de todos los boxeadores: a saber, que no combaten lo que luego se aclara. Podemos parafrasear entonces: Para todo boxeador, se cumple que no combate con cualquiera que lo desafía. El “para todo boxeador”, se expresa así con cuantificadores que deben ranguear sobre todo un dominio, no solo sobre los boxeadores: Capítulo 11. L PO y lenguaje natural 226 Para toda cosa, si esa cosa es boxeador, se cumple que esa cosa no combate con cualquiera que la desafía. Observemos ahora que “no combate con cualquiera que la desafía” es sustituible por “no combate con todos los que la desafían”. Parafraseando: Para toda cosa, si esa cosa es boxeador, se cumple que esa cosa no combate con todos los que la desafían. Tornemos la atención al problema planteado por "esa cosa no combate con todos los que la desafían". Si pensamos un poco, veremos que expresa algo acerca de todos los que desafían a esa cosa: que no todos los que desafían esa cosa son combatidos por ella. Parafraseando: Para toda cosa, si esa cosa es boxeador, se cumple que no todos los que desafían esa cosa son combatidos por esa cosa. Ahora solo resta tratar “todos los que desafían esa cosa son combatidos por esa cosa", y lo hacemos en forma análoga a la cuantificación propuesta sobre los boxeadores: la expresamos como “para todo objeto, si ese objeto desafía esa cosa, es combatido por esa cosa”. El parafraseo final queda: Para toda cosa, si esa cosa es boxeador, se cumple que no para todo objeto, si ese objeto desafía esa cosa, es combatido por esa cosa. Tomando este diccionario Nombre o predicado Constante de individuo o letra de relación ... es boxeador ... combate a ... ... desafía a ... B C E la traducción queda: ∀x(Bx → ¬∀y(Dyx → Cxy)) Otra forma de traducir esto mismo sería la siguiente: El sintagma ningún boxeador desafía está expresando que no existen boxeadores que desafíen. O sea, se podría parafrasear así: No existe cosa alguna que sea boxeador y combata con todos los que la desafían. Como el lector podrá apreciar fácilmente, de tomar por este camino la traducción quedaría así: ¬∃x(Bx ∧ ∀y(Dyx → Cxy)) Ejemplo 11.2 Traducir a L PO la siguiente proposición: Ana tiene al menos un lunar en cada mejilla. El problema de los nombres es trivial, solo aparece “Ana”. Mucho más delicado es el problema de los predicados. Hay una solución brutal, que es retirar el nombre, obteniendo un predicado: 11.3 En la práctica 227 ...tiene un lunar en cada mejilla Desde ese punto de vista, la oración se formalizaría (traduciendo ese predicado unario como T y “Ana” como a) simplemente como Ta, pero esa solución puede ser, debido a diferentes contextos, muy insuficiente. De modo que intentemos el análisis más fino del que seamos capaces. Las palabras “lunar” y “mejilla” son nombres comunes. Para los nombres comunes siempre podemos establecer un predicado. Dado el nombre común A existe el predicado “... es (un) A”. De modo que tenemos identificados dos predicados unarios ... es (un) lunar ... es (una) mejilla Salta a la vista que la palabra “tiene” expresa alguna relación. Podemos estar tentados de considerar la relación denotada por el predicado unario “Ana tiene...”, pero más fino analíticamente es considerar el predicado binario ...tiene... Dado que la oración está expresando dónde tiene lunares Ana, se podría pensar que mejor aun considerar el predicado ternario ...tiene...en... pero en realidad esto es más rígido que considerar además de “...tiene...” el predicado ...está en... con el fin de dar la ubicación de las cosas. Analicemos ahora la proposición expresada. Se nos dice que Ana tiene en cada mejilla por lo menos un lunar. Podemos hacer esta serie de parafraseos: Para toda mejilla de Ana se cumple que Ana tiene al menos un lunar en ella. Para toda mejilla de Ana se cumple que existe al menos una cosa que es un lunar, está en esa mejilla y Ana la tiene. Para todo objeto, si ese objeto es una mejilla de Ana, se cumple que existe al menos una cosa que es un lunar, está en ese objeto y Ana la tiene. Para todo objeto, si ese objeto es mejilla y Ana tiene ese objeto, se cumple que existe al menos una cosa que es un lunar, está en esa mejilla y Ana la tiene. Llegados a este punto, podemos dudar de si es correcto caracterizar la relación entre Ana y sus mejillas con el predicado ...tiene... Nos damos cuenta de que hay un matiz: las mejillas son de Ana, y los lunares también, pero el “tiene” de los lunares es más parecido a “luce” o “lleva”, no parece cargar su sentido sobre la pertenencia. Con esto in mente, introducimos un nuevo predicado, que había quedado oculto bajo la estructura superficial de la frase, por una elisión obvia: no se aclara explícitamente que las mejillas de las que se habla son de Ana, porque cualquier hablante competente lo comprende sin pensarlo. Pero la proximidad del microscopio de Frege hace que estos bichitos ocultos se muestren. Introducimos entonces un nuevo predicado: Capítulo 11. L PO y lenguaje natural 228 ...es de... (en el sentido de “pertenece a”) con lo que el parafraseo quedaría: Para todo objeto, si ese objeto es mejilla y ese objeto es de Ana, se cumple que existe al menos una cosa que es un lunar, está en ese objeto y Ana la tiene. Con todo esto podemos construir una buena traducción de la oración al lenguaje formal (no lo haremos al lenguaje formal sino a la simplificación que utilizamos para trabajar más cómodamente, pero a partir de aquí el pasaje al lenguaje formal es directo): El diccionario es: Nombre o predicado Ana ... es lunar ... es mejilla ... tiene ... ... está en ... ... es de ... Constante de individuo o letra de relación a L M T E Dxy Traducción: ∀x((Mx ∧ Dxa) → ∃y(Ly ∧ Eyx ∧ Tay)) 11.4 La igualdad La igualdad tiene un uso evidente, cuando se quiere traducir una proposición que la establece. Pero también tiene un uso no tan evidente que aparece cuando nos referimos a cantidades de objetos. Imaginemos que un teólogo nos proponga esta oración: Existen exactamente tres dioses. ¿Es posible traducirla al lenguaje de L PO? La respuesta es afirmativa, y el modo de hacerlo interesante. Tomemos como diccionario Nombre o predicado Constante de individuo o letra de relación ... es dios D ¿Es esta traducción adecuada? ∃x∃y∃z(Dx ∧ Dy ∧ Dz) Un error frecuente en los estudiantes es creer que sí, que se trata de una traducción adecuada. La confusión se debe a que aparecen tres variables diferentes en la fórmula. Pero si recordamos que las variables representan “huecos” en predicados, nos daremos cuenta de que esos tres huecos pueden ser llenados por el mismo nombre. Observe el lector que la interpretación en la que el dominio es un conjunto con un solo objeto y la denotación del predicado D es ese mismo conjunto 11.5 Excurso filosófico: Descripciones definidas según Russell 229 es modelo de la fórmula de arriba. Y en ese modelo claramente hay una sola cosa que es dios. De hecho, es fácil demostrar que ∃x∃y∃x(Dx ∧ Dy ∧ Dz) ≡ ∃xDx de modo que la fórmula en cuestión no dice más que “Existe al menos un dios” a pesar de su apariencia. Pero ahora empieza a estar claro el problema: tenemos que decir que esas cosas que son dioses y cuya existencia afirmamos, son diferentes entre sí. Y ahí aparece la igualdad. ¿Será esta una traducción adecuada? ∃x∃y∃z(Dx ∧ Dy ∧ Dz ∧ ¬x = y ∧ ¬x = z ∧ ¬y = z) Esta fórmula expresa que hay tres cosas diferentes entre sí que son dioses. Pero eso es compatible con que haya tres, cuatro, cinco... o la cantidad de dioses que se quiera, siempre que no sea menor a tres. Por eso no expresa que hay exactamente tres dioses sino que expresa que hay al menos tres dioses. Para afirmar que son exactamente tres, podemos agregar que para todos los objetos del universo se cumple que si ese objeto es dios, es uno de los tres objetos considerados. Eso se puede hacer así: ∃x∃y∃z(Dx ∧ Dy ∧ Dz ∧ ¬x = y ∧ ¬x = z ∧ ¬y = z ∧ ∀w(Dw → (w = x ∨ w = y ∨ w = z)) Esta fórmula sí es una correcta traducción de la oración que nos regaló el teólogo. Debería ser por lo menos llamativo que en ella no aparezca nada que refiera ni remotamente al número tres, que parece haber desaparecido bajo una horda de cuantificadores y relaciones de igualdad que se predican o se niegan. 11.5 Excurso filosófico: Descripciones definidas según Russell En esta sección vamos a ocuparnos de un quebradero de cabeza clásico de la filosofía del lenguaje, para observar cómo las herramientas lógicas permiten, en algunas ocasiones, dar respuestas robustas a problemas complicados. 11.5.1 Planteamiento del problema Una descripción definida es un objeto lingüístico de la forma El (o la) tal y cual Ejemplos de descripciones definidas son: El portero de la Facultad de Humanidades El mayor número natural La central donde ocurrió la última catástrofe nuclear soviética Está claro que gramaticalmente funcionan como sustantivos, y particularmente, pueden cumplir la función de sujeto en oraciones. Además, parecen referirse a un individuo, cuando no son vacías. El último ejemplo parece referir a la central de Chernobyl, mientras que el penúltimo es un ejemplo de descripción definida vacía, ya que no existe un número natural mayor que todos los demás. Las descripciones definidas vacías plantean interesantes y delicados problemas. Capítulo 11. L PO y lenguaje natural 230 El tercero excluido Consideremos la siguiente oración: El actual presidente de EEUU sabe jugar al go. Allí aparece una descripción definida, “el actual presidente de EEUU”. Con respecto a la verdad o falsedad de la oración, en el momento en que escribo estas líneas, el actual presidente EEUU es Barak Obama, y sé varias cosas sobre él, pero no sé si sabe o no jugar al go. De modo que no sé si la oración expresa algo verdadero o no. Pero aun en ese estado de ignorancia, sé que la siguiente oración es verdadera: El actual presidente de EEUU sabe jugar al go o el actual presidente de EEUU no sabe jugar al go. Sé eso porque es una instancia de LTE. Si llego a saber que “El actual presidente de EEUU sabe jugar al go” es verdadera, sabré que “El actual presidente de EEUU no sabe jugar al go” es falsa y recíprocamente, y en cualquier caso, la oración presentada es verdadera, con independencia del conocimiento que tenga de sus disyuntos. Pero consideremos la oración El actual rey de EEUU sabe jugar al go. Aquí también aparece una descripción definida, pero esta vez vacía. Y hay algo que molesta profundamente si intentamos aplicar el análisis anterior a esta oración. Quizá estemos tentados de decir que esa oración es falsa, ya que no existe el rey de los estadounidenses, pero en ese caso, aparentemente deberíamos aceptar que la oración El actual rey de EEUU no sabe jugar al go. es verdadera, lo que nos deja en una gran perplejidad. Quizá podamos escapar de esto diciendo que la oración en cuestión no tiene valor de verdad, o sea, no es verdadera ni falsa. Pero en tal caso es difícil explicar cómo es que le encontramos significado. Es decir, no es para nada difícil afirmar que expresiones como Blubablitrix Repollos ardiente la en habréis fulminante de. no son ni verdaderas ni falsas, pero son expresiones a las que no les encontramos significado, no las podemos entender. Es muy difícil explicar cómo una oración asertiva gramaticalmente correcta es comprendida sin que se le pueda asignar un valor de verdad ni a ella ni a su negación gramatical. La no existencia Nada parece más natural que establecer las condiciones de verdad de una oración que expresa una proposición del tipo a es F diciendo que será verdadera si y solo si el objeto denotado por a pertenece a la clase denotada por F, o en términos fregeanos, si pertenece a la extensión del concepto denotado por el predicado “... es F”. Esa fue exactamente la idea rectora en el establecimiento de la semántica de L PO, a partir de las sentencias atómicas. Pero entonces examinemos la oración 11.5 Excurso filosófico: Descripciones definidas según Russell 231 El rey de EEUU no existe. A diferencia del caso anterior, en el que podría decirse que la oración examinada no era ni verdadera ni falsa, no parece haber dudas acerca de que consideramos verdadera esta. Pero si la consideramos verdadera, parece que tenemos que aceptar que expresa la misma proposición que El rey de EEUU es un no existente. y nuestras condiciones de verdad nos dicen que el rey de EEUU es un elemento de la clase de las cosas no existentes, pero claramente nada es elemento de esa clase. Entonces el problema es... Concretamente, el problema es: dada una oración de la forma DDV es F donde DDV es una descripción definida vacía y F denota una clase 1. ¿Tiene significado? 2. ¿Es verdadera o falsa? Antes de considerar la solución de Russell a este problema, veremos brevemente las propuestas de otros dos filósofos al respecto: Frege y Meinong. 11.5.2 Frege El lector interesado debe referirse a un trabajo fundamental de Frege, Sobre sentido y referencia, de 1892 [Fre98]. En ese trabajo, uno de los más influyentes para la tradición analítica de la filosofía, Frege establece una teoría bidimensional del significado, postulando que este consta de dos aspectos, que él llama sentido y referencia. No es del caso desarrollar aquí esa teoría, y lo que hacemos en su lugar es recomendar con mucho énfasis la lectura del trabajo referido. Pero las respuestas finales de Frege a nuestras preguntas son que las oraciones del tipo DDV es F son significativas (tienen sentido, pero no referencia) y no son ni verdaderas ni falsas. 11.5.3 Meinong Es muy posible que Alexius Meinong haya sido bastante mal interpretado por el propio Russell y que realmente haya dicho cosas muy sensatas e interesantes. Esto es así porque existen meinongianos entre filósofos muy respetables. Pero al encontrarse con la teoría de Meinong, uno tiene la sensación de que es de las cosas más excéntricas que se le hayan ocurrido a alguien en la historia de la filosofía, y eso es mucho decir. Meinong sostiene que las descripciones definidas vacías, como “el círculo cuadrado” refieren y por eso son significativas. Los detalles de la teoría son sutiles, y tienen que ver con modos de no existir. Brevemente, para Meinong, la montaña de oro no existe, pero subsiste y es ese modo de no existencia el que nos permite hablar significativamente de ella. En su teoría, dado que Todos los objetos de oro son metálicos. es verdadera, La montaña de oro es metálica. Capítulo 11. L PO y lenguaje natural 232 sería verdadera, mientras que debido a la falsedad de En Uruguay hay montañas. también sería falsa La montaña de oro está en Uruguay. Para introducirse en la llamada “jungla de Meinong”, la referencia básica es [Mei04]. 11.5.4 Russell Russell va a aplicar el análisis lógico para dar su solución al problema. En un célebre artículo llamado Sobre el denotar [Rus05], ataca las teorías de Frege y de Meinong y propone la propia. Con respecto al ataque a Frege, se debe decir que Russell afirma atacar su teoría, pero los exégetas no se han puesto de acuerdo acerca de qué hace Russell cuando afirma hacer eso. Se considera que esa parte de Sobre el denotar es lo más intrincado que haya publicado Russell nunca, y frecuentemente se la llama “los pasajes oscuros”. Acerca de la opinión que le merecía la teoría de Meinong, es bastante elocuente este pasaje: Me parece que en tales teorías falla ese sentido de realidad que debe ser preservado aun en los estudios más abstractos. Debo sostener que la lógica no debe admitir un unicornio más que lo que puede hacerlo la zoología... un robusto sentido de realidad es muy necesario para enmarcar un análisis correcto de las proposiciones acerca de unicornios, montañas de oro, cuadrados redondos y otros pseudo objetos de ese tipo. [Rus19] La solución de Russell va a ser asombrosa. Va a implicar que expresiones como “el actual presidente de EEUU” no son denotativas, o sea, las descripciones definidas, según Russell, nunca denotan, no importa si son vacías o no. La raíz de ese desenlace se halla en su adscripción a un importante principio que toma de Frege, principio que ha sido enormemente influyente en la filosofía analítica. Según este principio, el significado de las expresiones debe ser analizado en el contexto de enunciados. Es así que Russell rechaza responder qué significan las descripciones definidas aisladas y sostiene que deben analizarse en el contexto de un enunciado. Tomemos, pues, el enunciado El actual presidente de EEUU sabe jugar al go. Russell va a advertir algo que ya había sido remarcado por Frege, y es que la estructura gramatical de los enunciados muchas veces oculta su forma lógica. Solo que Frege en este caso no lo había advertido o creído. Según Russell, el último enunciado destacado significa lo mismo que la conjunción de estos tres: 1. Existe al menos un objeto que es el actual presidente de EEUU 2. No hay más que un objeto que sea el actual presidente de EEUU. 3. Ese (único) objeto sabe jugar al go. O sea, si tomamos el diccionario Nombre o predicado ... es actual presidente de EEUU ... sabe jugar al go Constante de individuo o letra de relación P G 11.6 Excurso filosófico: Una versión del argumento ontológico 233 podemos traducir esa expresión a L PO como ∃x(Px ∧ ∀y(Py → y = x) ∧ Gx) Basta mirar la fórmula para darse cuenta de que no hay denotado ningún individuo, lo que debería hacerse con una constante de individuo. Esta proposición será verdadera o falsa según el actual presidente de EEUU sepa o no jugar al go. Con respecto a El actual rey de EEUU sabe jugar al go. el mismo análisis vemos arroja como resultado que es falsa, porque afirma la existencia de un rey de EEUU. ¡Y también es falsa, por el mismo motivo, El actual rey de EEUU no sabe jugar al go! O sea, a pesar de las apariencias, esta no es la negación de aquella, algo que la gramática oculta y el análisis lógico saca a luz. Ejercicio 11.1 Hallar la negación de El actual rey de EEUU sabe jugar al go según la teoría de Russell. Quizá el lector considere que no es necesario conocer la lógica de primer orden para proponer esta solución al problema de las descripciones definidas. Eso tiene su parte de razón. Se puede explicar todo lo que ha sido explicado sin apelar a esta lógica. Pero indudablemente, desde el punto de vista histórico es un hecho que esta solución fue propuesta una vez conocida una lógica con la capacidad expresiva de L PO, y esto no parece casual. Además, aceptado este enfoque, se sigue que la lógica adecuada para tratar argumentos en los que aparezcan descripciones definidas es la de primer orden. Para terminar este excurso, debemos decir que la teoría de Russell de las descripciones definidas ha encontrado, por supuesto, detractores. No obstante ello, es una de las teorías más robustas al respecto. Tiene la ventaja de no enmañarar la ontología, como hace la teoría de Meinong, y de ser más uniforme que la teoría de Frege, la que establece una tajante diferencia entre los enunciados en los que aparecen descripciones definidas vacías y aquellos en los que aparecen descripciones no vacías, ya que estos tienen valor de verdad y aquellos no. 11.6 11.6.1 Excurso filosófico: Una versión del argumento ontológico La versión cartesiana En este excurso vamos a analizar uno de los argumentos más célebres de la historia de la filosofía en la que posiblemente sea su versión más débil. El argumento ontológico es un argumento que pretende demostrar la existencia de Dios a partir de premisas a priori, es decir, que no dependen en modo alguno de la experiencia. El primer argumento ontológico fue propuesto por San Anselmo en su obra Proslogion [Fer79]. A diferencia de buena parte de la literatura teológico filosófica medieval, ese texto es muy agradable para lectores modernos, de modo que recomendamos su lectura. Según entiende el autor de estas líneas, el argumento original de San Anselmo es mucho mejor que la versión que vamos a presentar aquí, debida a Descartes, a quien cedemos la palabra para que nos hable desde su quinta Meditación: Pues bien, si del hecho de poder yo, sacar de mi pensamiento la idea de una cosa, se sigue que todo cuanto percibo clara y distintamente que pertenece a dicha cosa, le pertenece en efecto, ¿no puedo extraer de ahí un argumento que pruebe la existencia de Dios? Ciertamente, yo hallo en mí su idea (es decir, la idea de un ser sumamente Capítulo 11. L PO y lenguaje natural 234 perfecto), no menos que hallo la de cualquier figura o número; y no conozco con menor claridad y distinción que pertenece a su naturaleza una existencia eterna. [...]teniendo por costumbre, en todas las demás cosas, distinguir entre la existencia y la esencia, me persuado fácilmente de que la existencia de Dios puede separarse de su esencia, y que, de este modo, puede concebirse a Dios como no existiendo actualmente. Pero, sin embargo, pensando en ello con más atención, hallo que la existencia y la esencia de Dios son tan separables como la esencia de un triángulo rectilíneo y el hecho de que sus tres ángulos valgan dos rectos, o la idea de montaña y la de valle; de suerte que no repugna menos concebir un Dios (es decir, un ser supremamente perfecto) al que le falte la existencia (es decir, al que le falte una perfección), de lo que repugna concebir una montaña a la que le falte el valle. [...] aunque desde luego no es necesario que yo llegue a tener alguna vez en mi pensamiento la idea de Dios, sin embargo, si efectivamente ocurre que dé en pensar en un ser primero y supremo, y en sacar su idea, por así decirlo, del tesoro de mi espíritu, entonces sí es necesario que le atribuya toda suerte de perfecciones, aunque no las enumere todas ni preste mi atención a cada una de ellas en particular. Y esta necesidad basta para hacerme concluir (luego de haber reconocido que la existencia es una perfección) que ese ser primero y supremo existe verdaderamente. [Des13] El argumento parece muy sencillo. Podemos presentarlo de este modo: Paso Contenido Justificación 1 Supongamos que no existe un ser supremamente perfecto Un ser supremamente perfecto tiene todas las perfecciones La existencia es una perfección Existe un ser supremamente perfecto Contradicción Rechazamos el supuesto de 1, o sea, aceptamos que existe un ser supremamente perfecto Supuesto para llegar a una contradicción Premisa (analíticaa ) 2 3 4 5 6 Premisa (analítica, según Descartesb ) Por 2 y 3 Por 1 y 4 Porque el supuesto de 1 nos llevó a contradicción en 5. a “Analítica” quiere decir que su verdad solo depende de su significado. explicación usual de esta analiticidad reside en decir que siempre es más perfecto lo que existe que lo que no existe. Es un lugar común de la jerarquización ontológica medieval, la que llega a concebir grados de existencia. b La Esta reconstrucción intenta seguir la retórica de Descartes, quien dice “no repugna menos concebir un Dios (es decir, un ser supremamente perfecto) al que le falte la existencia...” y así parece querer inducirnos a partir de ese supuesto que sostiene la posición atea y a descubrir con repugnancia una contradicción. Pero en realidad, todo el argumento está expresado en las premisas 2 y 3 y la conclusión 4. Veamos algunas de las objeciones que ha recibido. 11.6.2 Objeciones Falta probar la posibilidad de Dios Leibniz [Lei83] consideró que el argumento no llegaba a probar la existencia de Dios por un detalle: según él, se está asumiendo la posibilidad de la existencia de Dios sin probarla. Si Dios 11.6 Excurso filosófico: Una versión del argumento ontológico 235 fuese un ser imposible (es decir, si su caracterización fuese contradictoria), entonces se podría “probar” cualquier cosa acerca de él, en el mismo sentido en que podemos probar Si un número es distinto de sí mismo, entonces ese número es omnipotente. Es fácil ver que esto es así traduciendo a L PO con el siguiente diccionario: Nombre o predicado Constante de individuo o letra de relación x un número x es omnipotente Nx Ox ∀x((Nx ∧ ¬x = x) → Ox) Es trivial ver que se trata de una fórmula verdadera bajo toda interpretación, todas las instancias del universal arrojan como resultado un condicional con antecedente falso. La objeción leibniciana es buena, como el lector podrá observar, en el sentido de que tiene razón en cuanto a que Descartes no ha probado que Dios exista, porque podría ser que la forma de caracterizar a Dios fuese inconsistente, y además hay buenas razones para creer que las “perfecciones” pueden chocar entre sí2 . Leibniz cree, por otra parte, que Descartes ha probado lo siguiente: Si la existencia de Dios es posible, entonces Dios existe. Veremos en breve si esto es correcto o no. Abre las porteras Hay una respuesta estándar a ciertas versiones del argumento ontológico que consiste en decir que si el argumento es correcto, uno análogo demostraría la existencia de cosas que en principio no parece razonable aceptar que existan. Esta respuesta apareció por primera vez con el argumento ontológico original, el de San Anselmo, en la pluma de un monje llamado Gaunilo, de quien lo único que se sabe es que pergeñó el contraargumento. Como Anselmo mandó que su texto con el argumento ontológico fuera reproducido con la respuesta de Gaunilo y su respuesta a la respuesta, su nombre se ha conservado en la memoria de la posteridad. Gaunilo dijo que aceptar el argumento de Anselmo llevaría a aceptar la existencia de unas islas perfectas. Lo mismo se podría decir aquí. Aceptado el argumento de Descartes, uno podría afirmar que existe el filósofo supremamente estúpido, porque siempre será más estúpido algo que exista que algo que no exista. Sin embargo, aunque esto parezca un contraargumento potente, tiene dos debilidades. Una es que siempre se puede argumentar que el caso de Dios es diferente a los de islas o filósofos, que la peculiar naturaleza de Dios hace que el argumento funcione sobre él y no sobre otras cosas (esto sostiene Descartes en su respuesta a la objeción de Gassendi y sostuvo Anselmo contra Gaunilo). La otra, que parece más grave, es que no es una respuesta directa al argumento, no muestra ninguna 2 La explicitación del conflicto entre dos atributos que se supone caracterizan a Dios se atribuye a Epicuro: “¿Es que Dios quiere prevenir el mal, pero no es capaz? Entonces no es omnipotente. ¿Es capaz, pero no desea hacerlo? Entonces es malévolo. ¿Es capaz y desea hacerlo? ¿De dónde surge entonces el mal? ¿Es que no es capaz ni desea hacerlo? ¿Entonces por qué llamarlo Dios?” [Lac18] y está sutilmente delineado por Cervantes en estas maravillosas líneas: “Al culpado que cayere debajo de tu juridición considérale hombre miserable, sujeto a las condiciones de la depravada naturaleza nuestra, y en todo cuanto fuere de tu parte, sin hacer agravio a la contraria, muéstratele piadoso y clemente, porque aunque los atributos de Dios todos son iguales, más resplandece y campea a nuestro ver el de la misericordia que el de la justicia.” [Cer80] Capítulo 11. L PO y lenguaje natural 236 falla en él. Es lo que se llama “poner en mala compañía” el argumento. Afirma que si ese argumento es correcto, hay otros, que nos parecen malos, que son buenos. Pero desde el punto de vista lógico esto dista de ser una buena respuesta. Al menos, quien la esgrime debe estar preparado para que el proponente del argumento ontológico le conteste: “Sí, ¿y?”. ¿Es la existencia un predicado? Comúnmente se supone que Kant dio una respuesta que redujo a polvo todas las versiones conocidas en su tiempo de los argumentos ontológicos, incluida la que estamos examinando. Esa respuesta puede resumirse diciendo que la existencia no es un predicado. Este autor dedica el capítulo cuarto de la tercera sección del libro segundo de su obra cumbre, Crítica de la razón pura, al problema, y lo titula De la imposibilidad de una prueba ontológica de la existencia de Dios. Dejemos la palabra a Kant: Poner un triángulo y suprimir en cambio sus tres ángulos, es contradictorio; no lo es, empero, suprimir el triángulo junto con sus tres ángulos. Exactamente lo mismo ocurre con el concepto de ente absolutamente necesario: si se suprime su existencia, se suprime la cosa misma, con todos sus predicados; ¿de dónde puede provenir entonces la contradicción? Externamente nada hay que pueda contradecirse, puesto que la cosa no ha de ser necesaria externamente; tampoco internamente, puesto que mediante la supresión de la cosa misma habéis suprimido al propio tiempo todo lo interior. Dios es todopoderoso; esto es un juicio necesario. La omnipotencia no puede suprimirse si ponéis una divinidad [...] Pero si decís: Dios no es, no se da la omnipotencia ni ningún otro de los predicados de él, pues todos ellos se han suprimido junto con el sujeto, y en este pensamiento no hay la menor contradicción. [...] yo no puedo hacerme el menor concepto de una cosa que, de suprimirse con todos sus predicados, dejaría una contradicción, y sin la contradicción [...] no tengo ningún atributo de imposibilidad. [Kan28] Actualmente no hay consenso acerca de esta cuestión. Hay filósofos que creen que la argumentación kantiana es correcta, mientras otros creen que la existencia puede ser tratada como un predicado. Desde nuestro punto de vista, el centrado en la lógica de primer orden, es claro que tenemos un cuantificador existencial, y que no tratamos a la existencia como un predicado3 . De hecho, los dominios de las interpretaciones son no vacíos, de forma que siempre “existe algo”, y no solemos tomar la existencia como un predicado lógico. Pero nada obsta para que podamos considerar un dominio de objetos entre los que podamos hacer distinciones a través de predicados, como por ejemplo “existentes realmente”, “existentes solo idealmente”, etc. Por eso, si aceptamos la argumentación kantiana, debemos rechazar el argumento cartesiano sobre la base de que en él no son factibles estas distinciones, lo que nos lleva a terrenos complicados. Lo usual para rechazar estas distinciones es decir que si las aceptamos, surgen dificultades inadmisibles para tratar enunciados como Los unicornios realmente existentes existen. pero esto nos lleva a grandes discusiones semánticas. Sin embargo, la falla del argumento en la versión cartesiana es tan profunda que aun concediendo que la existencia es un predicado se puede mostrar que no es válido. 3 Es de notar que para Frege la existencia es un predicado, solo que de segundo orden, es decir, un predicado que se predica de predicados. Concretamente, la extensión del concepto correspondiente es la clase de conceptos de extensión no vacía. 11.6 Excurso filosófico: Una versión del argumento ontológico 11.6.3 237 La falacia El argumento en la versión de Descartes es una falacia bastante burda, pero para descubrirla y evidenciarla es de ayuda cierta familiaridad con la lógica de primer orden. Aceptemos que la existencia es un predicado y trabajemos con el siguiente diccionario: Nombre o predicado Constante de individuo o letra de relación x existe x es supremamente perfecto Ex Sx Está claro que Descartes quiere demostrar que un ser supremamente perfecto existe, o sea que quiere llegar a lo que se expresa como 1 ∃x(Sx ∧ Ex) La reconstrucción del argumento comienza así: Supongamos que no existe un ser supremamente perfecto. O sea, supongamos ¬∃x(Sx ∧ Ex) o, lo que es equivalente ∀x(Sx → ¬Ex) Si se observa la marcha del argumento, esta suposición solo juega un papel retórico. La contradicción pretendida surge al demostrar, a partir de las premisas, que un ser supremamente perfecto existe. Por eso podemos concentrarnos en considerar cómo es que Descartes llega a 1 a partir de sus premisas, que son a priori. Aceptemos la premisa que se expresa con La existencia es una perfección. Es claro que a partir de esa premisa sola no podemos extraer la existencia de un ser supremamente perfecto, porque no dice nada acerca de seres supremamente perfectos. Para que el argumento funcione es necesaria la premisa restante: S Un ser supremamente perfecto tiene todas las perfecciones. que es muy convincente. Ahora bien, es convincente como una definición de “ser supremamente perfecto” o al menos como una caracterización de él. Es muy claro que de la existencia es una perfección y S surge Un ser supremamente perfecto existe (tiene existencia). Y este es todo el argumento. Pero veamos qué ha pasado: Descartes entiende que esa conclusión es lo que se expresa como ∃x(Sx ∧ Ex). Sin embargo, la premisa S solo fue aceptada como una caracterización de “ser supremamente perfecto”, lo que se podría expresar así: ∀x(Sx → T T Px) Capítulo 11. L PO y lenguaje natural 238 donde claramente, T T Px está por “x tiene todas las perfecciones”. Ahora bien, de que la existencia es una perfección aceptamos Todo objeto que tenga todas las perfecciones tiene la perfección de la existencia, es decir, existe. o sea ∀x(T T Px → Ex) Y es evidente que todo lo que se puede inferir de esto es que Para todo objeto, si es un ser supremamente perfecto, entonces existe. Pero esto es ∀x(Sx → Ex) lo que no contradice en modo alguno la suposición inicial, es decir, el conjunto {∀x(Sx → Ex), ∀x(Sx → ¬Ex)} es satisfacible. En particular, cualquier interpretación en la cual la denotación del predicado S sea vacía, es decir, donde no haya seres supremamente perfectos, hace verdaderas las dos fórmulas. ¿Por qué parece convincente el argumento de Descartes entonces? Por una razón muy burda: Cuando aceptamos como premisa que un ser superior tiene todas las perfecciones lo aceptamos como un universal, pero cuando llegamos a la conclusión, Descartes quiere que la leamos no como un universal, sino como una afirmación de existencia. Es algo tan trivial como que leemos Un ser supremamente perfecto existe lo que funciona como una caracterización, como si dijera Existe un ser supremamente perfecto lo que es una aserción de existencia. Y no se trata de que Descartes nos haya querido engañar, sino de que seguramente estaba convencido de la corrección de este razonamiento falaz. 12. Consecuencia semántica NA vez establecida la semántica de la lógica de primer orden, consideraciones análogas a las que se hicieron para el caso de la lógica proposicional nos llevan a definir la consecuencia semántica para lenguajes de primer orden en una forma que se expresa casi de la misma manera que para el lenguaje de la lógica proposicional. U 12.1 Definición y primeros ejemplos Definición 12.1.1 — Consecuencia semántica en lógica de primer orden. Sea Γ un conjunto de sentencias de L PO y A una sentencia de L PO. A es consecuencia semántica de Γ si y solo si todo modelo de Γ es también modelo de A. Notación 12.1. Usaremos la misma notación para la consecuencia semántica en lógica de primer orden que en lógica proposicional, esto es, Γ |= A. Si fuese necesario distinguirlas, utilizaremos los símbolos subindizados |=L P y |=L PO . Sin embargo, esto será extraordinario ya que los contextos casi siempre dejan claro cuál relación se está considerando. La identidad estructural de ambas definiciones se debe a que estamos frente a una manera estándar de formalizar la noción de consecuencia lógica: definir rigurosamente la consecuencia semántica. Para eso se define un lenguaje formal al que se le da una semántica, se definen los modelos, y la definición de consecuencia semántica se expresa de esta manera en que ya lo hicimos dos veces, con independencia del soporte formal y semántico que hayamos establecido. Por supuesto, el hecho de que la definición se exprese de en forma muy similar para la lógica proposicional y para la lógica de primer orden (la expresión es en español, nuestro metalenguaje tanto al tratar con lógica proposicional como con lógica de primer orden) no significa que la definición sea la misma ya que los conceptos involucrados - los de fórmula, sentencia y modelo- no son los mismos en ambas lógicas. Recordemos que en el marco de la lógica de primer orden, un modelo de una sentencia A es una interpretación M que consta de un conjunto no vacío y una función de denotación y que otorga el valor de verdad V a la sentencia bajo las estipulaciones vistas en 10.3.5. Capítulo 12. Consecuencia semántica 240 O sea, decir que una sentencia A es consecuencia semántica de un conjunto Γ en el marco del lenguaje de primer orden, es lo mismo que decir que elijamos como elijamos el conjunto y la función de denotación para interpretar, siempre que la interpretación asigne valor verdadero a las sentencias de Γ asignará valor verdadero a la sentencia A. Observe que se trata de algo mucho más rico que la noción análoga para lógica proposicional. En esta los modelos y contramodelos quedaban determinados por asignaciones de valores de verdad a las letras proposicionales, mientras que en el lenguaje de primer orden, hay que tener en cuenta qué sucede con las interpretaciones, que como vimos pueden ser pensadas en términos de estructuras, objetos mucho más complejos que cualquier cosa que hayamos encontrado en lógica proposicional. Esto hará de la evaluación de la relación de la consecuencia semántica para la lógica de primer orden algo de dificultad mucho mayor que para la lógica proposicional1 . Ahora mostraremos algunos ejemplos. Para no arrastrar la pesada notación del lenguaje formal, escribiremos las constantes de individuo con las primeras letras del abecedario, a, b, c, ...; las variables con las últimas, v, x, y, z, las letras de relación con mayúsculas P, Q, R, S,... La aridad de estas últimas quedará clara por la cantidad de variables o constantes de individuo que las sigan. Ejemplo 12.1 Demostrar que {∀x((Sx ∧ ¬Ax) → Hx), ∀x(Lx → Sx), ∃x(Lx ∧ ¬Hx)} |= ∃xAx Consideremos una interpretación M cualquiera tal que 1. M [∀x((Sx ∧ ¬Ax) → Hx)] =V 2. M [∀x(Lx → Sx)] =V 3. M [∃x(Lx ∧ ¬Hx)] =V Los puntos 1, 2 y 3 imponen que M sea modelo del conjunto dado. Queremos mostrar que esas condiciones imponen también M (∃xAx) =V. Sea M el dominio de M . Por 3, se tiene, considerando M + , una interpretación que extiende a M sobre un lenguaje que agrega constantes de individuo para denotar cada elemento de M, que, de acuerdo a la semántica del cuantificador existencial: i) M + [(La ∧ ¬Ha)] =V para alguna constante de individuo a del lenguaje extendido.2 Esto implica, por la semántica de la conjunción, que ii) M + (La) =V y iii) M + (¬Ha) =V, por lo que, según la semántica de la negación iv) M + (Ha) =F Considerando 2, por la semántica del cuantificador universal, sabemos que para toda constante del lenguaje extendido, y en particular para a, tenemos que la sustitución de la variable universalmente cuantificada por ella arroja una fórmula verdadera en M + : v) M + [(La → Sa)] =V, que junto con ii), dada la semántica del condicional implican vi) M + (Sa) =V 1 Como ya se advirtió, en un segundo curso de lógica para estudiantes de filosofía se debería aprender que es posible programar una computadora para que dado un conjunto de fórmulas de L P y una fórmula de L P, determine si la fórmula es o no consecuencia semántica del conjunto en todos los casos, pero que no es posible que una computadora resuelva en todos los casos el problema análogo para L PO. 2 Por supuesto, la constante podría pertenecer al lenguaje original. Lo que es seguro es que pertenece al lenguaje extendido. 12.1 Definición y primeros ejemplos 241 Considerando ahora 1 y iv), y razonando del mismo modo que cuando tratamos 2, llegamos a que vii) M + [((Sa ∧ ¬Aa)] =F, que junto con vi), por la semántica de la conjunción obliga a ix) M + (¬Aa) =F, con lo que, por la semántica de la negación es x) M + (Aa) =V, o sea que la sustitución de la constante de individuo a en la fórmula Ax arroja una fórmula verdadera en M + . Eso demuestra que xi) M (∃xAx) =V, según la semántica del cuantificador existencial. Como M es cualquier modelo del conjunto {∀x((Sx ∧ ¬Ax) → Hx), ∀x(Lx → Sx), ∃x(Lx ∧ ¬Hx)} (no le impusimos ninguna otra condición), queda probado que todo modelo del conjunto lo es de la fórmula ∃xAx. Para demostrar que una fórmula no es consecuencia semántica de un conjunto basta, por supuesto, encontrar un único modelo: uno que lo sea del conjunto y no lo sea de la fórmula. Ejemplo 12.2 Mostrar que {∃xPx, ∃xQx} 2 ∃x(Px ∧ Qx) Desde el punto de vista heurístico, nos puede convenir trabajar con puntos o círculos que representen los elementos del dominio, a los que les asignaremos los predicados P y Q en el caso de que en nuestro modelo del conjunto los tengan.Si no asignamos P y Q a un mismo punto, la interpretación otorga valor F a la fórmula ∃x(Px ∧ Qx). Está claro que todo modelo del conjunto con un solo elemento será también modelo de la fórmula. Por lo tanto, probemos con dos puntos, o sea, busquemos un modelo del conjunto cuyo dominio tenga dos elementos (los llamaremos u y v) y no sea modelo de ∃x(Px ∧ Qx). u v Para que la fórmula ∃xPx tome valor V bajo la interpretación, es necesario que al menos uno de los elementos del conjunto tenga la propiedad P. Hagamos que el elemento u cumpla esa condición. P u v Para que en estas condiciones la fórmula ∃xQx tome valor V, es necesario que uno de los elementos tenga la propiedad Q. Si suponemos que es u PQ u v Obtenemos un modelo de la fórmula ∃x(Px ∧ Qx), que no es lo que nos interesa. Si asignamos Q al elemento b P u Q v Vemos que tenemos representado un modelo del conjunto que no es modelo de ∃x(Px ∧ Qx). Podemos por lo tanto afirmar que la interpretación M definida por M = {u, v} PM = {u} QM = {v} es modelo del conjunto y contramodelo de la fórmula, lo que demuestra que no hay relación de consecuencia semántica. Capítulo 12. Consecuencia semántica 242 12.2 Propiedades de la consecuencia semántica en primer orden Podemos repasar los resultados que obtuvimos para la relación de consecuencia semántica en lógica proposicional y ver si se cumplen para la lógica de primer orden. Es lo que haremos en esta sección, que será breve debido a que los resultados son muy similares y las demostraciones análogas. Es claro que dado cualquier conjunto de sentencias y cualquier sentencia, esta es consecuencia semántica del conjunto o no lo es. Con respecto a las analogías que pueden establecerse con la relación de consecuencia semántica en lógica proposicional, tenemos lo siguiente: 1. Si Γ es insatisfacible, entonces Γ |= A para toda sentencia A 2. Si κ es una contradicción, entonces Γ |= κ si y solo si Γ es insatisfacible. Teorema 12.2.1 La demostración es idéntica al caso de la lógica proposicional, como la de los teoremas siguientes: Teorema 12.2.2 ν es una fórmula válida si y solo si |= ν Teorema 12.2.3 — Monotonía. Si Γ |= A, entonces para todo ∆, Γ ∪ ∆ |= A. Teorema 12.2.4 — Deducción. Para todo conjunto Γ y todas sentencias A y B, Γ, A |= B si y solo si Γ |= (A → B) Teorema 12.2.5 — “Absurdo”. Para todo conjunto Γ y toda sentencias A, Γ |= A si y solo si Γ, ¬A es insatisfacible. En lógica proposicional teníamos el importantísimo teorema 6.6.1 (página 115), del condicional asociado, que nos permitió reducir el problema de evaluar la relación de consecuencia semántica entre un conjunto finito y una fórmula a evaluar la tautologicidad de una fórmula, cosa que es realizable mediante el procedimiento mecánico de las tablas de verdad. Si razonamos en forma análoga en lógica de primer orden, obtenemos el Teorema 12.2.6 {A1 , ..., An } |= B si y solo si (A1 ∧ ... ∧ An ) → B es una fórmula válida. Sin embargo, este último teorema no reviste la misma importancia que el del condicional asociado para la lógica proposicional. Esto es debido a que no existe un procedimiento mecánico para evaluar la relación de consecuencia semántica en lógica de primer orden. De manera que enfrentados al problema de determinar si un conjunto y una fórmula dados están en relación de consecuencia semántica, podemos intentar, como hicimos en los primeros ejemplos de este capítulo, trabajar directamente con interpretaciones. Es de notar que el método de las tablas de verdad es completamente inútil, porque no disponemos de tablas aplicables sobre los cuantificadores, como sí las tenemos para aplicar sobre los conectivos proposicionales. El trabajo sobre interpretaciones no es sencillo. Veamos un ejemplo de error que se podría cometer fácilmente. Supongamos que sabemos que M (∃xQx) =V Tal vez uno esté tentado a razonar así: La fórmula ’dice’ que que en el dominio hay un elemento que cumple Q. Ese elemento 12.2 Propiedades de la consecuencia semántica en primer orden 243 es denotado por alguna constante en M + a la que llamaré a y por lo tanto infiero que M + (Qa) =V. Esto es un grave error, por lo siguiente: Supongamos que se parte de 1. M (∃xPx) =V 2. M (∃xQx) =V Aplicando el razonamiento anterior a 1, aceptaríamos que 3 M + (Pa) =V Pero ahora debería ser evidente que no podemos inferir de 2) que 4 M + (Qa) =V Como no lo podemos inferir en este caso, debemos concluir que 4) no se sigue de 2). ¿Y por qué no lo podemos inferir en este caso? La respuesta es que la inferencia no es correcta porque si bien 2) nos asegura que un individuo tiene la propiedad Q, nada nos asegura que sea un individuo que tenga además la propiedad P, como se indica en lo inferido en 3) a partir de 1). El error es, en términos informales, idéntico a partir de las premisas Al menos uno es rubio. Al menos uno es alto. y razonar así: Como al menos uno es alto, estoy seguro de que hay un individuo, (al que llamaré Juan), que es alto y puedo decir que Juan es alto. Ahora bien, como al menos un individuo es rubio, puedo tomar un individuo del dominio (lo llamaré Juan) y asegurar que es rubio. Por lo tanto Juan es rubio”. Y este razonamiento es claramente incorrecto, porque de que hay al menos un alto y hay al menos un rubio hemos llegado a algo que nos permite inferir que hay uno que es alto y rubio a la vez. En el fondo, lo que ocurre es que para cualquier constante a se tiene {∃xPx} 2 Pa Esto es solamente un ejemplo, pero basta para que nos percatemos de que las inferencias que se deben hacer al razonar sobre interpretaciones son bastante delicadas, y si no queremos naufragar al hacerlas, va a convenir desarrollar un procedimiento que recoja la idea intuitiva de validez argumental pero desde otro ángulo. A partir de ese procedimiento se llegará a la noción de consecuencia sintáctica para la lógica de primer orden,como veremos en breve. Es debido a estas dificultades en el tratamiento de la consecuencia semántica y al apartamiento –que ya hemos observado en el caso de la lógica proposicional– entre los razonamientos comunes y los que se hacen en términos de interpretaciones, que no insistiremos en la evaluación de esta relación como control de la corrección argumental, salvo en algunos casos sencillos, a lo que dedicaremos la próxima sección. Capítulo 12. Consecuencia semántica 244 12.3 La consecuencia semántica y la corrección argumental Mutatis mutandis, todo lo que hemos dicho acerca de corrección argumental y consecuencia semántica en el caso de la lógica proposicional es aplicable aquí. O sea, dado un argumento en lenguaje natural en el que descubrimos esta estructura Premisa 1 .. . Premisa n Conclusión y tal que las premisas son traducibles a L PO como sentencias P1 , ..., Pn y la conclusión como la sentencia C, si logramos determinar que {P1 , ..., Pn } |= C podemos decir que el argumento es válido. Sin embargo, debido a las dificultades que ya mencionamos existen para evaluar la relación de consecuencia semántica con los conocimientos de que disponemos, veremos solo la aplicación de este método en algunos casos sencillos. Ejemplo 12.3 Nuestro primer ejemplo será el argumento profesoral más conocido del mundo: reivindicaremos a generaciones de profesores que aburrieron a generaciones de estudiantes con el argumento Todos los hombres son mortales. Sócrates es hombre. Sócrates es mortal. mostrando con instrumental de la lógica de primer orden, que es válido. Para hacerlo, debemos traducir las oraciones a sentencias de L PO, para lo que consideraremos el siguiente diccionario: Nombre o predicado ... es hombre ... es mortal Sócrates Constante de individuo o letra de relación H M s La primera oración (Todos los hombres son mortales) es la más difícil de traducir, pero ya lo hemos hecho en 9.1 (página 193), y allí referimos al lector. Allí dimos diferentes posibilidades de traducción, entre las cuales elegiremos esta: ∀x(Hx → Mx) La traducción de la restante premisa es, claramente, Hs y la de la conclusión es Ms. Por lo tanto, el argumento será declarado válido al establecer {∀x(Hx → Mx), Hs} |= Ms Sea M tal que 12.3 La consecuencia semántica y la corrección argumental 245 1. M [∀x(Hx → Mx)] =V 2. M (Hs) =V Por 1 tenemos que 3. M [(Hs → Ms)] =V (ya que s es constante del lenguaje, no es necesario extenderlo, y al sustituir la variable por cualquier constante da una fórmula verdadera, por la semántica del cuantificador universal) 3 y 2 implican M (Ms) =V, dada la semántica del condicional. Esto demuestra que todo modelo del conjunto de premisas es modelo de la conclusión, por lo que el argumento es válido. Ejemplo 12.4 El siguiente argumento es válido: Todos insultan a cualquiera que insulta. Juan insulta a Pedro. María insulta a Diego. Tomemos el siguiente diccionario Nombre o predicado Constante de individuo o letra de relación ... insulta a ... Juan Pedro María Diego I j p m d Al traducir a L PO obtenemos ∀x(∃yIxy → ∀zIzx) I jp Imd La validez quedará establecida si demostramos {∀x(∃yIxy → ∀zIzx), I j p} |= Imd Sea M una interpretación tal que 1. M (∀x(∃yIxy → ∀zIzx)) =V 2. M (I j p) =V Por 2 y la semántica del existencial tenemos 3. M (∃yI jy) =V y por 1 y la semántica del universal 4. M (∃yI jy → ∀zIz j) =V 3 y 4 y la semántica del condicional implican Capítulo 12. Consecuencia semántica 246 5. M (∀zIz j) =V de donde, por la semántica del universal 5. M (Id j) =V por lo que la semántica del existencial asegura 6. M (∃yIdy) =V por 1 tenemos 7. M (∃yIdy → ∀zIzd) =V y por 6 y 7 8. M (∀zIzd) =V con lo que, finalmente 8. M (Imd) =V lo que prueba la existencia de la relación de consecuencia semántica entre el conjunto de premisas y la conclusión. 12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell En este excurso estudiaremos la lógica tradicional o aristotélica, con propósitos de contrastación con la lógica que presentamos en el curso (si bien hemos presentado dos lógicas, la proposicional y la de primer orden, es obvio que podemos considerar que la última incluye a la primera en un sentido muy claro, aunque no compartan el lenguaje). 12.4.1 La lógica aristotélica Con la expresión “lógica aristotélica” no nos referiremos exactamente a la lógica tal cual la presentó Aristóteles, sino solo a su parte medular, la silogística, y a los desarrollos –principalmente medievales– de esa teoría. Términos La primera observación que se debe hacer es que la lógica aristotélica es una lógica de términos. Se considera que los términos son los componentes de la proposición, en el siguiente sentido: Los esquemas inferenciales que toma en cuenta esta lógica contienen esquemas de proposición del tipo Todos los A son B Algún C es D Ningún E es F, etc. Obviamente, A, B, C, D, E y F son metavariables. Pero no están por el mismo tipo de cosas que por las que están G y H en 12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell 247 Si G, entonces H En este último esquema G y H están por proposiciones, mientras que en los primeros, las letras están por lo que se llama “términos”. Si decimos Todos los hombres son mortales. estamos usando el término “hombre” y el término “mortal”. Los términos pueden ser singulares o generales. Los generales son los que asociamos a clases. Los singulares son los que asociamos a individuos como los nombres propios, o los generales precedidos de demostrativos como “este” o “aquel”. Proposiciones categóricas La lógica aristotélica se centra en las llamadas proposiciones categóricas. En ellas se encuentran los siguientes componentes: 1. 2. 3. 4. 5. Un cuantificador (Todos o algunos) Un término que funge de sujeto La cópula (el verbo ser en alguna flexión) Una negación (opcional) Un término que funge de predicado De aquí surge la siguiente clasificación de las proposiciones categóricas explícitamente cuantificadas, donde Σ y Π son términos generales (sigma y pi para recordar, respectivamente, sujeto y predicado): Afirmativa universal Negativa universal Afirmativa particular Negativa particular Todos los Σ son Π Ningún Σ es Π (Todo Σ es no Π) Algún Σ es Π Algún Σ es no Π Forma A Forma E Forma I Forma O Las formas afirmativas A e I toman su nombre de las primeras vocales de la palabra latina affirmo, mientras que las formas negativas E y O las toman de las vocales de nego. En cuanto a las restantes formas de las proposiciones categóricas, son estas, siendo σ un término singular: Afirmativa indefinida Negativa indefinida Afirmativa singular Negativa singular Σ es Π Σ es no Π σ es Π σ es no Π Para propósitos lógicos, estos cuatro últimos tipos de proposiciones se consideran casos de los cuatro primeros, tomándose las indefinidas como particulares y las singulares como universales3 . 3 Por ejemplo, Sócrates es mortal, una afirmativa singular, se considera como Todos los Sócrates son mortales, y Herramienta es martillo, una afirmativa indefinida, como Alguna herramienta es martillo, y no como Toda herramienta es martillo. Capítulo 12. Consecuencia semántica 248 El cuadrado de oposición El cuadrado de oposición es un diagrama que muestra las relaciones lógicas entre proposiciones de las formas A, E, I y O con los mismos términos como sujeto y predicado. Es este: Ningún Σ es Π Todos los Σ son Π S U B A L T E R N A E CONTRARIAS A C C I O O N N T T R R A A D C I D C T T O O R R I I A A S S O SUBCONTRARIAS Algún Σ es Π S U B A L T E R N A Algún Σ es no Π Para interpretarlo se debe tener en cuenta que según la lógica aristotélica: Proposiciones contrarias no pueden ser ambas verdaderas, pero pueden ser ambas falsas (A y E). Proposiciones subcontrarias pueden ser ambas verdaderas, pero no ambas falsas (I y O). Proposiciones contradictorias no pueden ser ni ambas verdaderas ni ambas falsas; en todos los casos, en un par de proposiciones contradictorias, una es verdadera y la otra es falsa (A y O, por un lado, y E e I por otro). La proposición subalterna de una universal es la subcontraria de su contradictoria. Por lo dicho anteriormente, si una universal es verdadera, su contradictoria es falsa, y la subcontraria de esta última es verdadera. (I es subalterna de A y O es subalterna de E). El compromiso existencial Acabamos de decir que una proposición de la forma I, o sea Algún Σ es Π, es subalterna de la proposición de forma A Todos los Σ son Π y por lo tanto, la lógica aristotélica considera que siendo verdadera esta última, lo será la primera, de modo que la inferencia con premisa de forma A y conclusión correspondiente de forma I será considerada válida. Pero esto no está de acuerdo con el uso que hacemos en L PO. Si fuéramos a traducir obtendríamos Forma Lógica aristotélica Lógica de primer orden A I Todos los Σ son Π Algún Σ es Π ∀x(Σx → Πx) ∃x(Σx ∧ Πx) y está claro que {∀x(Σx → Πx)} 2L PO ∃x(Σx ∧ Πx), o sea que hemos encontrado una inferencia que la lógica aristotélica considera válida y la lógica moderna inválida. Ahora bien, una interpretación M asigna valor verdadero a ∀x(Σx → Πx) y falso a ∃x(Σx ∧ Πx) si y solo si ΣM = 0, / o sea, si no existen individuos que sean Σ. 12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell 249 Ejercicio 12.1 Demostrar {∀x(Σx → Πx), ¬∃x(Σx ∧ Πx)} |= ¬∃xΣx Por ejemplo, dado que no hay unicornios, la proposición Todos los unicornios son veloces. es tenida por falsa en la lógica aristotélica y por verdadera en L PO. O sea, las proposiciones de tipo A tienen compromiso existencial en la lógica aristotélica. Afirmar una de ellas compromete lógicamente con la existencia de ciertas entidades. Por otro lado, las proposiciones de la forma I, Algún Σ es Π, son tenidas como falsas en la lógica aristotélica en cualquiera de los dos casos siguientes: 1. Existen individuos que son Σ pero ninguno de ellos es Π. 2. No existen individuos que son Σ. por lo que las contradictorias de estas, las de la forma E, Ningún Σ es Π, serán verdaderas en cualquiera de esos casos, con lo que las proposiciones de esta forma no tienen compromiso existencial. Pero entonces, no habiendo individuos que sean Σ, y por lo tanto siendo Ningún Σ es Π verdadera, parece absurdo afirmar que su subalterna, Algún Σ no es Π es verdadera. Por si esto fuera poco, esta última proposición, que tiene compromiso existencial, se considera contradictoria de la de forma A, Todos los Σ son Π, de modo que en el caso en que no existan individuos que sean Σ son ambas falsas, lo que no puede suceder en un par de contradictorias. Por supuesto que todos estos problemas se evitan si se postula que la lógica aristotélica no trabaja con términos no denotativos. Seguramente esta haya sido la intención de los antiguos lógicos, quienes veían en la lógica una herramienta para trabajar sobre discursos acerca de la realidad. La lógica de primer orden tiene también algo como el compromiso existencial, dado por {∀xPx} |= ∃xPx. Esto se debe a que los dominios de las interpretaciones son no vacíos. Existe una lógica pensada para no tener compromisos existenciales, la llamada lógica libre, cuyos teoremas valen para interpretaciones cuyo dominio es cualquiera, inclusive el vacío4 . Por supuesto, en esa lógica {∀xPx} 2 ∃xPx. Teoría de la conversión La conversión simpliciter de una proposición categórica es el intercambio de su sujeto por su predicado y recíprocamente. Las proposiciones de tipo I conservan su valor de verdad al ser sometidas a conversión simpliciter, como el lector observará. Las proposiciones de forma A no conservan su valor de verdad bajo conversión simpliciter: si bien 1. Todos los uruguayos son americanos. es verdadera Todos los americanos son uruguayos. es falsa. Pero si 1 es verdadera, su subalterna de la forma I Algunos uruguayos son americanos. también lo será. Y esta proposición conserva su valor de verdad bajo conversión simpliciter, dando 4 Su nombre refiere, justamente, a que está libre de compromisos existenciales. Max Dickman, un renombrado lógico, le manifestó al autor que el resultado más notorio de trabajar en esa lógica es la necesidad de agregar en cada teorema una excepción generalmente trivial para los dominios vacíos. Capítulo 12. Consecuencia semántica 250 Algunos americanos son uruguayos. El ejemplo se puede generalizar, porque toda proposición de forma A implica su subalterna de forma I. Esta operación de pasar a la subalterna y someter esta a conversión simpliciter se llama conversión per accidens. Diremos que una proposición es convertible si su verdad implica la verdad de la proposición que se obtiene a someterla a conversión simpliciter o per accidens. En general tenemos Forma Convertible simpliciter Convertible per accidens A E I O No Sí Sí No Sí Sí No No Silogismos categóricos Los silogismos categóricos son argumentos con dos premisas y una conclusión, siendo esas tres proposiciones categóricas; y en los que aparecen tres términos. Un ejemplo: Todos los filósofos son tontos Algunos filósofos no son simpáticos Algunos tontos no son simpáticos En él las tres proposiciones constituyentes son categóricas, y aparecen tres términos, filósofos, tontos y simpáticos. El núcleo de la lógica aristotélica versa sobre esta clase de argumentos. Veamos algo de terminología: Los tres términos que aparecen en el silogismo reciben nombres. Uno es el término mayor, otro el término medio y el restante el término menor. Es la conclusión la que da la información acerca de cuáles son estos términos, según el cuadro siguiente: Término mayor Término medio Término menor Predicado en la conclusión Ausente en la conclusión Sujeto en la conclusión Así, el el silogismo recién expuesto, el término mayor es simpáticos, el medio filósofos y el menor tontos. De acuerdo a esto, también se clasifican las premisas en premisa mayor y premisa menor: Premisa mayor Premisa menor Contiene el término mayor Contiene el término menor En nuestro ejemplo la premisa mayor es Algunos filósofos no son simpáticos y la menor Todos los filósofos son tontos. Observe que la cuestión de cuál es la premisa mayor y cuál la menor no tiene nada que ver con el orden en que se presentan. Figuras, modos y reducción La figura de un silogismo queda definida por las funciones que cumple el término medio en las premisas, en cada una de las cuales puede ser sujeto o predicado. Con dos elecciones posibles para cada una de las dos premisas, hay cuatro figuras posibles: 12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell Figura Término medio en premisa mayor Término medio en premisa menor Primera Segunda Tercera Cuarta Sujeto Predicado Sujeto Predicado Predicado Predicado Sujeto Sujeto 251 En nuestro ejemplo, el término medio, filósofos, es sujeto en ambas premisas, de modo que nuestro silogismo es de la tercera figura. Por otro lado, cada una de las tres proposiciones categóricas de un silogismo puede adoptar una de las cuatro formas A, E, I, O, de manera que en cada figura hay 43 maneras de disponerse un silogismo. La disposición del nuestro es OAO, considerando el orden premisa mayor, premisa menor, conclusión. Combinando con las 4 figuras, obtenemos 4.64= 256 modos de los silogismos. La teoría silogística tiene como centro la determinación de los modos válidos. En cada figura hay 6 modos válidos, lo que da en total 24 modos válidos. De ellos, algunos se obtienen por subalternación de la conclusión a partir de otro válido. Por ejemplo, si un silogismo válido concluye una proposición de forma A, el silogismo con las mismas premisas y conclusión subalterna de la conclusión del primero (que tendrá forma I) también será válido. Así, un silogismo de modo AAA en la primera figura será váĺido, y el que se obtiene tomando la subalterna de la conclusión, de modo AAI en la primera figura, también será válido. Este último modo se llama modo subalterno. En el medioevo los 24 modos válidos recibieron estos nombres: Modos válidos de silogismos Primera figura Segunda figura Tercera figura Cuarta figura Barbara Celarent Darii Ferio Barbari Celaront Cesare Camestres Festino Baroco Cesaro Camestrop Darapti Disamis Datisi Felapton Bocardo Ferison Bramantip Camenes Dimaris Fesapo Fresison Camenop Cinco de ellos están en tipografía especial. Son modos subalternos. Ahora bien, esos nombres no son producto de un capricho pintoresco sino que codifican muchísima información. En todos ellos, las vocales indican en orden, la forma de la premisa mayor, la premisa menor y la conclusión. Nuestro silogismo ejemplo, con forma OAO en tercera figura, es válido, y es un ejemplo de Bocardo. El resultado central de la teoría de los silogismos es el siguiente: Si se acepta axiomáticamente la validez de los cuatro modos no subalternos listados de la primera figura, la validez de los restantes –excepto Baroco y Bocardo– se puede demostrar a través de la teoría de la reducción, que es una aplicación de la teoría de la conversión sobre sus componentes. Sobre la validez de Baroco y Bocardo hablaremos luego de exponer la teoría de la reducción, que está codificada de forma admirable en los pintorescos nombres que los medievales dieron a los modos válidos. La demostración de que un silogismo diferente de los cuatro no subalternos de la primera figura es válido consistirá en una transformación del mismo en uno de esos cuatro siguiendo reglas de conversión. La codificación en los nombres, increíblemente ingeniosa, es la siguiente: 252 Capítulo 12. Consecuencia semántica Dado el nombre de un modo de silogismo a transformar en uno de los aceptados como válidos de la primera figura (excepto Baroco y Brocardo): La primera letra es la misma que la del modo de primera figura aceptado como válido al que será reducido. Ejemplo: Fresison será reducido a Ferio. La letra “s” luego de una vocal (pero no si es final) indica: Convierta la proposición indicada por la vocal precedente simpliciter. Ejemplo: Tomamos un silogismo Fresison. Tiene forma EIO y está en la cuarta figura, de modo que el término medio está en posición de predicado en la premisa mayor y de sujeto en la menor. La premisa mayor es E, y como está seguida por una “s” se deben intercambiar sujeto y predicado. Lo mismo con la premisa menor, que es I. Ambas operaciones mantienen la verdad. Se obtiene un silogismo que solo será válido si el de partida lo era, y será de forma EIO con término medio en posición de sujeto en la premisa mayor y de predicado en la menor, o sea, Ferio de primera figura, el cual se ha aceptado axiomáticamente como válido. La letra “p” luego de una vocal (pero no si es final) indica: Convierta la proposición indicada por la vocal precedente per accidens. Ejemplo: Tomamos un silogismo Fesapo. Es de forma EAO en la cuarta figura, de modo que el término medio está en posición de predicado en la premisa mayor y de sujeto en la menor. Como indica la primera letra de su nombre, será reducido a Ferio. La premisa mayor se convertirá simpliciter obteniendo una proposición E con el término medio en posición de sujeto y la premisa menor se convertirá per accidens, o sea, de la A con término medio en posición de sujeto se pasará a la subalterna I y esta se convertirá simpliciter, obteniendo una I con término medio en posición de predicado. El resultado es un silogismo de la forma EIO de la primera figura, o sea Ferio, que solo será válido si el de partida lo era. Si el nombre termina en “s” o en “p” significa que la conclusión debe ser convertida simpliciter o per accidens, respectivamente. Ejemplo: Tomamos un silogismo Disamis. Es de forma IAI en tercera figura, o sea que el término medio es sujeto en ambas premisas. Será convertido a Darii, como indica su primera letra. La premisa mayor se convierte simpliciter, dejando el término medio en posición de predicado, y la conclusión, de forma I, también se convierte simpliciter, lo que hace que el término mayor pase a ser el menor, y consecuentemente, la que era premisa menor es la mayor. Se obtiene un silogismo de forma AII de la primera figura, o sea, Darii. Todas las transformaciones conservan la verdad. La letra “m” en un nombre indica que las premisas se deben cambiar (mutare) de orden para que la premisa mayor sea la primera en el silogismo obtenido. (Como ejemplo se puede ver el anterior de reducción de Disamis a Darii). La “c” en un nombre (excepto si es inicial) indica que no se puede reducir directamente a uno de la primera figura, sino que debe darse un prueba indirecta o por contradicción (contradictione). Estos son los casos de Baroco y Bocardo, que veremos seguidamente. La reducción de Baroco y Bocardo es especial. Ambos serán “reducidos” a Barbara de la primera figura, aunque esta “reducción” funciona así: Baroco es de forma AOO y Bocardo de forma OAO. En ambos la conclusión es de forma O. Se asume la premisa A y la contradictoria de la conclusión, que es también de forma A. Esas dos proposiciones de forma A son las premisas de un silogismo Barbara cuya conclusión contradice la premisa O del Baroco o Bocardo dado. Así, si las premisas del Baroco o Bocardo son ambas verdaderas, la contradictoria de su conclusión debe ser falsa, y por ende, su conclusión verdadera. 12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell 253 Ejemplifiquemos con Todos los filósofos son tontos Algunos filósofos no son simpáticos Algunos tontos no son simpáticos que ya sabemos es de modo Bocardo. Si asumimos su premisa A, Todos los filósofos son tontos y la contradictoria de su conclusión, que es Todos los tontos son simpáticos, tenemos las premisas de un Barbara con conclusión Todos los filósofos son simpáticos, que es contradictoria de la premisa O de nuestro Bocardo, Algunos filósofos no son simpáticos. De este modo, aceptando la validez de Barbara, surge que si ambas premisas del Bocardo son verdaderas, la contradictoria de su conclusión debe ser falsa (porque si fuera verdadera, junto con la premisa A de Bocardo implicaría la falsedad de la premisa O), y por lo tanto su conclusión debe ser verdadera. En el medioevo se se crearon versos que servían como sistemas mnemotécnicos conteniendo estos nombres extraordinariamente informativos, con las figuras en que se encuentran. La versión que se da en [Ald43] es la siguiente (cursivas en el original): Barbara, Celarent, Darii, Ferioque prioris: Cesare, Camestres, Festino, Baroko secundae: Tertia, Darapti, Disamis, Datisi, Felapton, Bokardo, Ferison habet: Quarta insuper addit Bramantip, Camenes, Dimaris, Fesapo, Fresison. Quinque subalterni, totidem generalibus orti, Nomen habet nullum, nec, si bene colligis, usum. 12.4.2 Alcance de la lógica aristotélica La lógica aristotélica puede tratar con argumentos de más de dos premisas, donde todas las proposiciones en juego son categóricas, llamados sorites (palabra que en griego quiere decir el que amontona). Un ejemplo de sorites, propuesto por Lewis Carroll en [Car] 1 2 3 4 5 6 7 Todos los policías de la ronda comen con nuestra cocinera. Ningún hombre de pelo largo puede dejar de ser poeta. Amos Judd no ha estado nunca en prisión. A todos los primos de nuestra cocinera les gusta el cordero frío. Solo los policías de la ronda son poetas. Solo sus primos comen con nuestra cocinera. Todos los hombres con el pelo corto han estado en prisión. Conclusión A Amos Judd le gusta el cordero frío. La validez de este sorites surge de la de los siguientes silogismos (observe cómo se trata la premisa 5, que prima facie no tiene una de las formas consideradas): Todos los policías de la ronda comen con nuestra cocinera. (1) Solo los policías de la ronda son poetas.(5) Todos los poetas comen con nuestra cocinera.(8) 254 Capítulo 12. Consecuencia semántica Todos los poetas comen con nuestra cocinera. (8) Ningún hombre de pelo largo puede dejar de ser poeta.(2) Todos los hombres de pelo largo comen con nuestra cocinera.(9) Todos los hombres de pelo largo comen con nuestra cocinera.(9) Solo sus primos comen con nuestra cocinera.(6) Todos los hombres de pelo largo son primos de nuestra cocinera.(10) Todos los hombres de pelo largo son primos de nuestra cocinera.(10) A todos los primos de nuestra cocinera les gusta el cordero frío.(4) A todos los hombres de pelo largo les gusta el cordero frío.(11) Aamos Judd no ha estado nunca en prisión.(3) Todos los hombres con el pelo corto han estado en prisión.(7) Amos Judd no tiene el pelo corto (lo tiene largo).(12) Amos Judd tiene el pelo largo.(12) A todos los hombres de pelo largo les gusta el cordero frío.(11) A Amos Judd le gusta el cordero frío. Es claro que la lógica aristotélica se puede considerar un fragmento muy pequeño de la lógica de primer orden, y que se encuentra constreñida a considerar proposiciones categóricas. 12.4.3 Implicaciones filosóficas según Russell La lógica aristotélica fue absolutamente dominante en el mundo occidental por lo menos desde el siglo V hasta el XIX. En la época helenística, una de las grandes escuelas filosóficas del período, la estoica, desarrolló una avanzada lógica que hoy puede reinterpretarse como nuestra lógica proposicional, pero estos trabajos estuvieron sepultados por el olvido y fueron mal entendidos cuando se redescubrieron, de modo que recién en el siglo XX se valoraron como un importante precedente de investigación lógica. En el siglo V Boecio tradujo al latín dos libros del Organon de Aristóteles, las Categorías y el Peri Hermeneias, que formaron parte del núcleo de lo que se llamó la Logica vetus. En el siglo XIII se tradujo al latín el resto del Organon, configurando la Logica nova. De modo que Aristóteles es el teórico que configura y enmarca absolutamente el pensamiento lógico durante los diez siglos que dura la edad media. Ya hemos visto la opinión de Kant a fines del siglo XVIII, acerca de que la Lógica parecía haber salido completa de la cabeza de Aristóteles. Sin embargo, pocos años después de que Kant explicitara esa idea, un inglés, George Boole, ideó un sistema algebraico apto para tratar problemas lógicos. Fue este el primer paso en una dirección que llevaría a un cambio radical en la disciplina: su matematización. El punto culminante en este camino se dio con Frege, quien creó una lógica radicalmente diferente a la aristotélica. La lógica de primer orden es un fragmento de la fregeana, ya que esta admitía los más diversos órdenes, pero lo central en su innovación es la introducción de las relaciones. Hemos visto que la lógica aristotélica funcionaba en una sintonía muy especial con la gramática. En lógica aristotélica los conceptos –que hoy entendemos como gramaticales– de sujeto y predicado se entienden también como genuinamente lógicos. Frege “despegó” la lógica de la gramática y eso, según Russell, tuvo profundísimas implicaciones filosóficas. De hecho, Russell acusa, en cierto modo, a la lógica aristotélica de haber promovido mala filosofía, en particular, mala metafísica. Su argumentación, que está expuesta en Logic as the Essence of Philosophy, recogida en [Rus09], es la siguiente: 12.4 Excurso filosófico: Lógica aristotélica y crítica de Russell 255 La lógica tradicional –aristotélica– considera solamente proposiciones de la forma S es P, quizá modificadas con negadores. Este tipo de proposiciones atribuyen una cualidad, designada por el predicado (gramatical) P a un objeto, designado por el sujeto (gramatical) S. El resultado de considerar satisfactoria y universal una lógica que trata únicamente con ese tipo de proposiciones es la convicción de que todas las proposiciones que versan sobre la realidad son reductibles a algunas de ese tipo. Ahora bien, ¿es posible reducir toda proposición a otra que exprese que un sujeto posee una propiedad? Si esto fuera posible, comportaría la reducción de las relaciones a propiedades de los términos que aparecen aparentemente relacionados. Ciertamente, eso es posible en algunos casos. Por ejemplo, una relación de equivalencia (ver 13.1.1 en la página 259) puede ser entendida en términos de una propiedad común poseída por los objetos relacionados. Una relación simétrica y no transitiva (ejemplo paradigmático es la desigualdad) puede ser entendida en términos de posesión de diferentes propiedades por parte de los objetos relacionados. Pero hay un tipo de relaciones que resiste todos los intentos de reducción a atribución de propiedades: son las antisimétricas, esto es, las relaciones R tales que se tiene (expresado en L PO) ∀x∀y(Rxy → ¬Ryx) o sea en las que si un objeto está relacionado con otro, este último no está relacionado con el primero. Ejemplos de relaciones antisimétricas son mayor que, anterior a, etc. No hay forma de reducir la relación mayor que a la posesión de propiedades de los objetos que relaciona. Si a es mayor que b, sabemos que tienen una propiedad diferente (la magnitud de la que se habla, con respecto a la cual a es mayor que b). Pero esa mera diferencia no indica la calidad de mayor en a, porque también se daría en caso de que b fuese el mayor. Ni la posesión de las mismas propiedades ni la posesión de distintas propiedades puede dar cuenta de la relación mayor que. De modo que, en general, las relaciones antisimétricas no son reductibles a propiedades de los objetos que relacionan. La consecuencia de esto es que la lógica aristotélica está obligada a renunciar todo trato con proposiciones que expresen ese tipo de relaciones, debido a las constricciones que se impone sobre la forma de las proposiciones que trata. Por supuesto, esto no tiene nada intrínsecamente negativo, no es necesario que una teoría lógica sirva para todos los casos. Pero consideremos qué sucederá si alguien considera que esa lógica es la Lógica, la única lógica adecuada. Es bastante obvio que tenderá a considerar que las proposiciones que versan sobre relaciones no reductibles a atribución de propiedades son pseudoproposiciones, objetos lingüísticos no conectados con la realidad. Impulsará una ontología amoblada únicamente con aquellos objetos a los que refieran los términos S y P, excluyendo las relaciones de este tipo. Y habrá una fortísima presión para afirmar cosas como la irrealidad del tiempo (debido a que el tiempo impone la relación antisimétrica de prioridad), o en general, a desconfiar de la ciencia como descripción adecuada del mundo, ya que en ella pululan las postulaciones de relaciones no capturables en proposiciones categóricas. En definitiva, Russell considera que la lógica aristotélica es limitada en cuanto al tipo de argumentos que puede validar (lo que parece más allá de toda controversia) y es, o ha sido históricamente, fuente de mala metafísica (lo que es al menos discutible). 13. Consecuencia sintáctica N este capítulo desarrollaremos un sistema de deducción para la lógica de primer orden. Tendrá las características del que estudiamos para la lógica proposicional, o sea, será un sistema de deducción natural. Como la lógica de primer orden recibe en la estructura de su sintaxis y en su semántica una herencia directa de la lógica proposicional, todas las reglas que regulan la introducción y eliminación de los conectivos proposicionales pasarán a nuestro sistema. Lo que necesitamos son nuevas reglas que afecten los símbolos lógicos de L PO que no tienen análogo en L P, o sea, la igualdad, el cuantificador universal y el cuantificador existencial. A diferencia de lo que sucede en la lógica proposicional, en la de primer orden las interpretaciones no otorgan valor de verdad a todas las fórmulas. Es por eso que nuestro sistema solo operará con sentencias. Si bien la definición de derivación, que es totalmente análoga (formalmente idéntica) a la vista al estudiar la lógica proposicional, será dada más adelante por motivos de autocontención del capítulo, usaremos el concepto en el entendido de que el lector ya lo conoce. Presentaremos las derivaciones mediante diagramas de Fitch, cuyas convenciones estructurales el lector también conoce. E 13.1 13.1.1 Las reglas de inferencia La igualdad Nuestro objetivo ahora es encontrar reglas sintácticas que nos indiquen bajo qué condiciones podemos inferir una igualdad y qué podemos inferir de una igualdad dada. Comencemos por lo primero, las condiciones bajo las que podemos inferir una igualdad. Es claro que la igualdad es una relación, y que relaciona a cada individuo consigo mismo. Esto es algo constitutivo de la igualdad, llamado reflexividad y no se necesita ninguna condición o premisa para inferirlo. Correlativamente, la semántica de L PO indica que una sentencia del tipo a=a es válida. Por lo tanto, aceptaremos que Capítulo 13. Consecuencia sintáctica 258 En una secuencia inferencial, siempre se puede agregar una igualdad en la que ambos miembros son el mismo. Como nuestra sintaxis hace que una sentencia de L PO que sea una igualdad sea necesariamente de la forma ci = c j establecemos esta regla: Regla Reflexión cn = cn que expresa que en una derivación siempre se puede introducir una línea formada por una constante de individuo seguida por el signo de igualdad seguido por la misma constante de individuo. Supongamos ahora que nos es dado que a es igual a b. ¿Qué se puede inferir de ello? Obviamente, que b es igual a a. Este aspecto, también constitutivo de la igualdad, se llama simetría. Por eso podemos afirmar que Si un elemento de una secuencia inferencial es una igualdad, se puede agregar a la secuencia otra igualdad con los mismos miembros presentados en orden inverso al de la primera. Eso lo recogemos en la siguiente regla: Regla Simetría ci = c j c j = ci Otra situación en la que podemos inferir una igualdad es aquella en la que sabemos que a es igual a b, y que b es igual a c. También constitutivo del concepto de igualdad es que en ese caso, a es igual a c, lo que se llama transitividad. De aquí surge que En una secuencia inferencial, luego de dos igualdades tales que el primer miembro de una es el segundo de la otra, se puede agregar una igualdad cuyos miembros son los miembros restantes de las anteriores. La regla correlativa es Regla Transitividad ci = c j c j = ck ci = ck Quizá parezca que hemos dicho todo lo que hay para decir acerca de la igualdad. Pero reflexionando un poco veremos que no es así. Las tres propiedades de la relación de igualdad que hemos consignado; reflexividad, simetría y transitividad no parecen suficientes para caracterizarla. Hay muchas relaciones que cumplen las tres propiedades pero no son la igualdad. Ejemplo 13.1 La relación ≡ en L PO es reflexiva, simétrica y transitiva: Recordemos que A ≡ B si y solo si todo modelo de A es modelo de B y recíprocamente. Entonces A ≡ A para toda fórmula A. 13.1 Las reglas de inferencia 259 Si A ≡ B, entonces B ≡ A cualesquiera sean las fórmulas A y B. Si A ≡ B y B ≡ C, entonces A ≡ C cualesquiera sean las fórmulas A, B y C. Este tipo de relaciones son tan importantes que merecen una Definición 13.1.1 Relación de equivalencia Una relación que cumple reflexividad, simetría y transitividad se llama relación de equivalencia. Las relaciones de equivalencia aparecen siempre en aquellos contextos en los que nos interesa “la igualdad bajo algún aspecto”. Por ejemplo, la equivalencia entre fórmulas aparece naturalmente cuando nos interesa considerar la igualdad de comportamiento semántico entre ellas. Pero por supuesto, que dos fórmulas se comporten del mismo modo bajo nuestra semántica (esto es, tengan los mismos modelos), no garantiza que sean iguales bajo otros aspectos, por ejemplo, sintácticamente. Entonces la igualdad que estamos buscando se nos muestra un poco elusiva, porque lo que queremos con nuestra igualdad es expresar, mediante a = b que llamamos a y llamamos b al mismo objeto, no meramente que llamamos a y también b a objetos que comparten alguna característica. Este último punto de vista parece ofrecernos una salida. Inmediatamente pensamos que lo que deseamos es expresar que el objeto llamado a y el objeto llamado b comparten todas las características o propiedades. Esta línea de razonamiento nos impulsaría a postular una regla de este tipo, donde P es cualquier letra de predicado unaria: Definición de igualdad ∀P(Pa ↔ Pb) a=b Esta idea, la de definir la igualdad diciendo que dos objetos son iguales si y solo si comparten todas las propiedades, surge de un principio llamado identidad de los indescernibles que se acredita a Leibniz, y afirma que si dos objetos comparten las mismas propiedades, son el mismo. Lo recíproco es trivial. Sin embargo, por atractiva que resulte, es muy obvio que no la podemos usar. Lo que hemos escrito sobre la barra no es una fórmula de L PO, nuestro lenguaje no tiene tanto poder expresivo como para consignar que dos individuos comparten exactamente las mismas propiedades, ya que no permite cuantificar sobre variables de relación, sino únicamente sobre variables de individuo1 . De modo que parece que estamos como al principio. Sin embargo, como suele suceder, una idea que no funciona perfectamente deja algo que sí nos resulta extremadamente útil. Supongamos que sabemos que a = b, y que a “cumple algo”. Ese “cumple algo” será expresado en nuestro lenguaje a través de una sentencia en la que aparecerá la constante que denote a. Pero como a y b denotan el mismo individuo, al sustituir las ocurrencias de a por ocurrencias de b, se obtendrá una formula equivalente a la anterior. Es decir Si en una secuencia inferencial se tiene una igualdad y una sentencia en la que se expresa algo relativo a uno de los miembros de la igualdad, se puede agregar a la cadena una sentencia que expresa lo mismo respecto al otro miembro de la igualdada . a Observe la vaguedad de toda esta expresión. La precisión necesaria solo se puede obtener en los correlatos formales de lo que intentamos expresar en lenguaje natural, y su justificación rigurosa en términos semánticos se verá en la parte dedicada a la metateoría. 1 En lógica de segundo orden, donde se puede cuantificar sobre predicados, es posible definir la igualdad como se ha mostrado. Es interesante que para hacerlo no se necesite el bicondicional sino que baste el condicional. Es que un objeto no puede tener todas las propiedades de otro y ser distinto de ese otro. Capítulo 13. Consecuencia sintáctica 260 Escribiendo F(ci ) por una sentencia con ocurrencias de la constante ci y F ∗ (ci /c j ) por una de las fórmulas que se obtiene de F(ci ) al sustituir algunas de las ocurrencias de ci por ocurrencias de c j , tenemos la siguiente regla: Regla Sustitución ci = c j F(ci ) F ∗ (ci /c j ) Con esto hemos completado la parte del sistema deductivo que se encarga de regular la igualdad. 13.1.2 Los cuantificadores En esta sección buscaremos las reglas de introducción y eliminación de los cuantificadores. Las sentencias cuantificadas “interesantes” son de la forma ∀xn F(xn ) o ∃xn F(xn ), donde F(xn ) es una fórmula cuya única variable libre es xn 2 . Llamaremos a esas fórmulas F(xn ) condiciones y diremos que el individuo denotado por ck “cumple” la condición F(xn ) si atribuimos valor de verdad verdadero a la sentencia F(ck ), que es el resultado de sustituir todas las ocurrencias libres de xn por ck en F(xn ). También diremos que F(ck ) es el resultado de instanciar la fórmula ∀xn F(xn ) o ∃xn F(xn ) en la constante ck , o que es una instanciación de estas fórmulas cuantificadas. El cuantificador universal La regla de eliminación del cuantificador universal es de una evidencia tal que no ofrece dificultad alguna. Surge de que claramente, si afirmamos algo de todos los individuos, podemos afirmar eso mismo de cualquiera de ellos en particular3 . En una cadena inferencial, donde figura una aserción sobre todos los individuos, se puede agregar la misma aserción sobre cualquiera de ellos. Esto nos lleva a la siguiente regla: Regla E∀ ∀xn F(xn ) F(ck ) que expresa que de una fórmula universal se puede inferir cualquiera de sus instanciaciones. La búsqueda de una regla de introducción del cuantificador universal es más compleja. Necesitamos conocer bajo qué circunstancias podemos inferir una aserción universal. Quizá la primera idea que se nos venga a la mente es que lo podemos hacer cuando hemos hecho una verificación exhaustiva sobre todos los individuos y hemos corroborado que todos ellos cumplen la condición que queremos afirmar de todos ellos. Por supuesto, esto es correcto, pero no nos va a servir, porque las interpretaciones pueden tener tienen dominios infinitos y no podemos verificar, uno por uno, sobre infinitos individuos. De manera que quizá lo mejor sea dirigir nuestra atención a la disciplina en la que los dominios infinitos aparecen naturalmente, y en la que se infieren aserciones que afectan a todos los elementos de esos dominios: la matemática. 2 Si son sentencias cuantificadas y no son de esta forma, se trata de casos de cuantificación vacua. 3 El lector debe estar muy atento a no entender esto como una falacia de composición. Cuando decimos que afirmamos algo de todos los individuos, queremos decir que lo afirmamos de cada uno de ellos –nuestros cuantificadores ranguean sobre individuos– y no del conjunto que ellos forman. Es una tontería pensar en un ser humano como un conjunto de células, y afirmar que dado que el conjunto de células piensa, cada una de las células piensa. 13.1 Las reglas de inferencia 261 Consideremos entonces una demostración matemática simple en la que se concluya una sentencia universal. Demostremos lo siguiente: Para todo número natural, su cuadrado da resto 0 o da resto 1 al ser dividido entre 4. Demostración: Sea n un natural cualquiera. Como todos los naturales, n cumple alguna las siguientes posibilidades: 1. 2. 3. 4. n da resto 0 al ser dividido entre 4. n da resto 1 al ser dividido entre 4.. n da resto 2 al ser dividido entre 4. n da resto 3 al ser dividido entre 4. Veamos que en todos los casos se cumple que n2 da resto 0 o da resto 1 al ser dividido entre 4: 1. En este caso, existe k natural tal que n = 4k. Por lo tanto, n2 = 4.4k2 , con lo que n2 da resto 0 al ser dividido entre 4, y por lo tanto da resto 0 al ser dividido entre 4 o da resto 1 al ser dividido entre 4. 2. En este caso, existe k natural tal que n = 4k +1. Por lo tanto, n2 = (4k +1)2 = 16k2 +8k +1 = 4(4k2 + 2k) + 1, con lo que n2 da resto 1 al ser dividido entre 4, y por lo tanto da resto 0 al ser dividido entre 4 o da resto 1 al ser dividido entre 4. 3. En este caso, existe k natural tal que n = 4k + 2. Por lo tanto, n2 = (4k + 2)2 = 16k2 + 16k + 4 = 4(4k2 + 4k + 1), con lo que n2 da resto 0 al ser dividido entre 4, y por lo tanto da resto 0 al ser dividido entre 4 o da resto 1 al ser dividido entre 4. 4. En este caso, existe k natural tal que n = 4k + 3. Por lo tanto, n2 = (4k + 3)2 = 16k2 + 24k + 9 = 16k2 + 24k + 8 + 1 = 4(4k2 + 6k + 2) + 1, con lo que n2 da resto 1 al ser dividido entre 4, y por lo tanto da resto 0 al ser dividido entre 4 o da resto 1 al ser dividido entre 4. Por lo tanto, n2 da resto 0 al ser dividido entre 4 o da resto 1 al ser dividido entre 4. Como n es cualquiera, se concluye que para todo número natural, su cuadrado da resto 0 al ser dividido entre 4 o da resto 1 al ser dividido entre 4. Examinemos con cuidado la demostración, que es tenida por los matemáticos como concluyente. Es claro que en ella aparecen elementos que deberían tener una prueba previa, como que todo natural cumple alguna de las cuatro posibilidades numeradas. Supongamos razonablemente que eso está probado, y se puede incluir en cualquier cadena inferencial. Esquematizando la demostración tendríamos: Paso Contenido 1 Suponemos que n es un natural cual- Supuesto. quiera. n da resto 0 o da resto 1 o da resto 2 o Por un universal previamente demostrada resto 3 al ser dividido entre 4. do, instanciado en n, bajo el supuesto de 1. Suponemos que n da resto 0 al ser divi- Supuesto para eliminar la disyunción4 dido entre 4. de 2, bajo el supuesto de 1. n2 da resto 0 al ser dividido entre 4 o da Verificado algebraicamente. Bajo los suresto 1 al ser dividido entre 4. puestos de 1 y de 3. 2 3 4 4 Si Justificación fuésemos a seguir estrictamente la regla sintácticas que hemos dado para eliminar la disyunción, deberíamos suponer, por ejemplo, primero una disyunción de dos disyunciones y luego hacer los supuestos en orden. El razonamiento coloquial nos permite suponer los cuatro disyuntos separados sin preparativos. Capítulo 13. Consecuencia sintáctica 262 5 6 7 8 9 10 11 12 Suponemos que n da resto 1 al ser dividido entre 4. n2 da resto 0 al ser dividido entre 4 o da resto 1 al ser dividido entre 4. Suponemos que n da resto 2 al ser dividido entre 4 n2 da resto 0 al ser dividido entre 4 o da resto 1 al ser dividido entre 4. Suponemos que n da resto 3 al ser dividido entre 4. n2 da resto 0 al ser dividido entre 4 o da resto 1 al ser dividido entre 4. n2 da resto 0 al ser dividido entre 4 o da resto 1 al ser dividido entre 4. Para todo natural, su cuadrado da resto 0 al ser dividido entre 4 o da resto 1 al ser dividido entre 4. Supuesto para eliminar la disyunción de 2, bajo el supuesto de 1. Verificado algebraicamente. Bajo los supuestos de 5 y de 1. Supuesto para eliminar la disyunción de 2, bajo el supuesto de 1. Verificado algebraicamente. Bajo los supuestos de 7 y de 1. Supuesto para eliminar la disyunción de 2, bajo el supuesto de 1. Verificado algebraicamente. Bajo los supuestos de 9 y de 1. Por haber estudiado todos los casos posibles (eliminación de la disyunción de 2 en 3-4, 5-6, 7-8 y 9-10. Bajo el supuesto de 1. ¡Libre de supuestos! ¿Qué nos permite dar el paso 12? Intuitivamente, responderíamos que podemos dar el paso 12 porque establecimos el 11 bajo el supuesto de que n es un natural cualquiera, arbitrario, que esa es toda la clave. O sea, en resumen, lo que se establece de un natural cualquiera vale para todos los naturales. Y en general, podríamos decir que lo que se establece de un individuo cualquiera vale para todos los individuos. Cualquier condición restrictiva que hubiésemos impuesto al principio, en 1 (por ejemplo, Sea n un natural mayor que 10, o Sea n un natural primo, o Sea n=17) hubiera invalidado la conclusión universal. Hasta acá hemos establecido una versión coloquial de lo que buscamos: En una secuencia inferencial en la que un elemento establece que un individuo arbitrario, es decir, un individuo del cual no se tiene otra información más que su pertenencia al dominio en cuestión, cumple una condición cualquiera; se puede agregar una sentencia que afirma que todos los individuos del dominio cumplen la condición. De modo que parece que podemos establecer una regla de este tipo: F(ck ) Siendo ck una constante cualquiera ∀xn F(xn ) Pero una ligera reflexión muestra que esa propuesta es disparatada. Si aceptamos que de cualquier fórmula de la forma F(ck ) podemos inferir ∀xn F(xn ), debemos aceptar que es correcto lógicamente inferir a partir de que en un dominio un individuo, denotado con ck cumple la condición F, que todos los individuos del dominio la cumplen. Sería como aceptar, a partir de que 100 es múltiplo de 10, que todos los naturales son múltiplos de 10. ¿Qué es lo que falla en nuestra propuesta de regla? Justamente, lo que falla es que no nos detuvimos a considerar que la constante ck debe ser apta para denotar a cualquier individuo, tal como la n de nuestro ejemplo de razonamiento. Es decir, la ausencia de restricciones sobre el individuo que pueda ser denotado por la constante se debe traducir en restricciones sobre la 13.1 Las reglas de inferencia 263 constante a elegir. En particular, tenemos que evitar que el individuo que la constante pueda denotar “esté obligado” a cumplir condiciones de cualquier tipo (excepto, por supuesto, la pertenencia al dominio). Para esto, es necesario que no aparezca ni en las premisas ni en supuestos abiertos. Por otro lado, es necesario que no aparezca en la propia fórmula universal que se obtiene (lo que se asegura al sustituir la constante por la variable cuantificada universalmente en todas las ocurrencias de la constante). Veamos con algunos ejemplos el tipo de error que se cometería si no se respetaran esas restricciones: A) Si permitíeramos que la constante figurase en premisas, estaríamos validando un argumento como Sócrates es mortal. Todos son mortales. B) Si permitiéramos que la constante figurase en supuestos abiertos, aceptaríamos como buena una secuencia inferencial así: Paso Contenido 1 2 Suponemos que Sócrates es filósofo. Aceptamos, bajo el supuesto de 1, que todos son filósofos. 3 Justificación Supuesto. Por la “regla” de introducción de universales, en la que hemos permitido que se universalice a partir de una constante que figura en supuestos abiertos. Aceptamos que si Sócrates es filósofo, Por la subsecuencia de 1 a 2, libre de entonces todos son filósofos. supuestos. C) Si permitíeramos que la constante figurase en la fórmula universal obtenida, consideraríamos buena esta secuencia inferencial: Paso Contenido Justificación 1 Juan es igual a Juan. 2 Para todo objeto, Juan es igual a ese objeto No es premisa, lo introducimos en la secuencia por reflexividad. Por la “regla” de introducción de universales, en la que hemos permitido que se universalice a partir de una constante que figura en la fórmula universal obtenida. El problema, está claro, si lo miramos en su representación formal, es que la constante a partir de la cual se universaliza, “Juan”, figura en el universal obtenido, y esto es debido a que no se sustituyó uniformemente por una variable. Se podría haber obtenido “Todos son iguales a sí mismos”. De este modo, la regla de introducción del cuantificador universal será: Capítulo 13. Consecuencia sintáctica 264 Regla I∀ ck ausente de premisas supuestos abiertos y ∀xn F(xn ). F(ck ) ∀xn F(xn ) Veamos algunos ejemplos de aplicación de las reglas que hemos incorporado hasta ahora. Ejemplo 13.2 En nuestro primer ejemplo mostraremos una derivación que asegura que toda fórmula de la forma ∀xn xn = xn es un teorema5 , lo que fue mencionado al examinar las restricciones a la regla de introducción del universal. 1 ck = ck Reflexión 2 ∀xn xn = xn I∀ , 1 Ejemplo 13.3 En nuestro segundo ejemplo, mostraremos mediante una derivación la corrección del argumento más socorrido de todos los tiempos: Todos los hombres son mortales. Sócrates es hombre. Sócrates es mortal. En el ejemplo 12.3 habíamos traducido las premisas y la conclusión a nuestro lenguaje que recuerda a L PO, y lo que nos interesa es mostrar una derivación con conjunto de premisas {∀x(Hx → Mx), Hs} que termina en Ms. Esta es una: 1 ∀x(Hx → Mx) 2 Hs 3 (Hs → Ms) E∀ , 1 4 Ms E→ , 2, 3 Listo, el famoso razonamiento queda así vindicado. Observemos que en esta derivación no se usó la regla I∀ . ¿Podemos usarla sobre la última línea obteniendo lo siguiente? 1 ∀x(Hx → Mx) 2 Hs 3 (Hs → Ms) E∀ , 1 4 Ms E→ , 2, 3 5 ∀xMx I∀ , 4 5 Observe el lector que se trata de un esquema de fórmula, ya que xn no es un término del lenguaje. Para cada elección de la variable obtenemos un teorema. En el esquema de derivación la primera línea tampoco es una fórmula, sino un esquema de fórmula, ya que ck no pertenece al alfabeto de L PO 13.1 Las reglas de inferencia 265 Es claro que esto es un grave error. A partir de una sentencia que interpretamos como el aserto de que Sócrates es mortal, inferimos una que interpretamos como el aserto de que todo es mortal. El problema está, obviamente, en que no se ha respetado la restricción que la regla I∀ impone. En este caso, se introduce el universal para que cuantifique sobre una variable que viene a ocupar el lugar de una constante en la línea 4, pero esa constante aparece en una premisa, en la 2. Por lo tanto, esto que se ha presentado no es una derivación, no hay regla alguna que permita obtener la línea 5. En nuestro siguiente ejemplo, nos gustaría mostrar cómo justificar que podemos introducir un universal que afirma que todos los individuos cumplen una condición, si hemos verificado que cada uno de los individuos la cumple. O sea, mostrar que un razonamiento del tipo: Hay exactamente dos individuos. El individuo a es diferente al individuo b. El individuo a es alto. El individuo b es alto. Todos los individuos son altos. es correcto. Pero observemos que al traducir esto a nuestro símil de L PO obtenemos, escribiendo A por “... es alto” obtenemos, en una traducción muy directa: ∃x∃y(¬x = y ∧ ∀z(z = x ∨ z = y)) ¬a = b Aa Ab ∀xAx lo que nos obliga a encontrar las reglas que regulan el comportamiento del cuantificador existencial. A ello nos dedicaremos ahora. El cuantificador existencial Hay una cierta simetría en las reglas que gobiernan ambos cuantificadores. Así como era muy sencillo determinar la regla de eliminación del cuantificador universal, y complicado determinar la de introducción, nos será muy sencillo determinar la regla de introducción del cuantificador existencial y hallar una regla aceptable de eliminación para ese cuantificador nos resultará más arduo. Es muy claro que si sabemos que un individuo particular cumple una condición, podemos inferir que existe un individuo que cumple esa condición. O sea: En una secuencia inferencial, en la cual un elemento afirma que un individuo particular cumple una condición, se puede agregar una sentencia que afirma que existe un individuo que cumple esa condición. Esto nos lleva a la siguiente Regla I∃ F(ck ) ∃xn F(xn ) y no hay restricción alguna sobre esta regla. El problema interesante es la determinación de una regla adecuada de eliminación del cuantificador existencial. ¿Qué podemos inferir de que un individuo cumple una condición? Planteada así, Capítulo 13. Consecuencia sintáctica 266 en abstracto, la pregunta parece muy difícil de responder. Quizá podríamos pensar que sabiendo que existe un individuo que cumple una condición, podemos inferir que uno particular lo hace. Es decir, una regla del tipo ∃xn F(xn ) F(ck ) Pero esto sería un terrible error, equiparable al comentado al final de la sección 12.2, de inferir que Juan es rubio a partir de saber que alguno es rubio. ¿Por qué debería ser Juan y no otro, siendo perfectamente posible que Juan no sea rubio? Esa forma de razonar está muy desencaminada. Entonces, ¿qué se puede inferir a partir de una afirmación existencial? Consideremos algún razonamiento que incluya una afirmación así entre sus premisas, y observemos cómo inferimos enfrentados con ella. Si sabemos 1. Existe un culpable. 2. Si Juan es culpable, Pedro es culpable 3. Si Juan no es culpable, nadie más lo es. podemos inferir que Juan y Pedro son culpables. ¿Cómo? Un razonamiento posible sería este: Paso Contenido Justificación 1 2 Aceptamos que hay un culpable. Aceptamos que si Juan es culpable, Pedro es culpable. Aceptamos que si Juan no es culpable, nadie más lo es. Suponemos que hay un individuo indeterminado, al que llamamos “Hache”, que es culpable. Premisa. Premisa. 3 4 5 Suponemos que Juan no es culpable. 6 Aceptamos que nadie que no sea Juan es culpable. Aceptamos que Juan no es culpable y nadie que no sea Juan es culpable. Aceptamos que nadie es culpable. Aceptamos que Hache no es culpable. Deberíamos aceptar que Hache es culpable y Hache no es culpable. Aceptamos que Juan es culpable. 7 8 9 10 9 10 11 Premisa. Supuesto para extraer consecuencias de la existencia de un culpable establecida en 1, no nos comprometemos con quién es el culpable, solo suponemos que hay uno. Queremos llegar a una contradicción para aceptar que Juan es culpable. Bajo supuesto de 4. De 3 y 5. Bajo supuestos de 4 y 5. De 5 y 6, bajo supuestos de 4 y 5. De 7, bajo supuestos de 4 y 5. De 8, bajo supuestos de 4 y 5. Contradicción extraída de 4 y 9, bajo supuestos de 4 y 5. Rechazamos el supuesto de 5, que ha llevado a contradicción. Bajo el supuesto de 4. Aceptamos que Pedro es culpable. De 9 y 2. Bajo el supuesto de 4. Aceptamos que Juan es culpable y Pe- De 9 y 10. Bajo el supuesto de 4. dro es culpable 13.2 El sistema de deducción natural para L PO 12 267 Aceptamos que Juan es culpable y Pe- ¡Libre de supuestos! Lo aceptamos pordro es culpable. que es una consecuencia extraída de la mera suposición de que existe un culpable cualquiera, y en 1 afirmamos que existe uno. ¿Cuál es la clave de este razonamiento? Observemos que partimos de suponer que un individuo al que solamente le damos un nombre (Hache) es culpable, es decir, cumple la condición de la que el existencial afirma que al menos un individuo cumple. Por supuesto, es obvio que no podríamos razonar correctamente si supusiéramos que el individuo fuese alguno particular, es decir, nombrado en las premisas, o en algún supuesto abierto, o inclusive en la propia aserción existencial de la que partimos. Por otro lado, lo que concluimos bajo ese supuesto y luego extraemos como conclusión libre de él (obsérvese que la demostración termina con dos líneas iguales, solo que una obtenida bajo el supuesto de 4 y la otra libre de él) no menciona para nada a ese individuo Hache. Es claro que si lo hiciera, la conclusión dependería de la suposición de que Hache es culpable (Si no depende de eso, ¿de dónde diablos habríamos sacado ese nombre, “Hache”, para introducirlo en algún elemento de la secuencia?). Con esto in mente, podemos afirmar lo siguiente: En una secuencia inferencial, si luego de una aserción existencial se encuentra una subsecuencia iniciada en una instanciación del existencial con un individuo no mencionado en las premisas ni en supuestos abiertos ni en la aserción existencial y terminada en una aserción independiente del individuo que sirve para la instanciación del existencial mencionado, se puede agregar la aserción final de la subsecuencia a la secuencia. Que nos da la siguiente regla: Regla E∃ ∃xn F(xn ) [F(ck )] .. . ck ausente de las premisas, supuestos abiertos, F(xn ) y A A A Ejercicio 13.1 Hallar ejemplos de razonamientos incorrectos que serían dados por buenos si no tuviéramos en cuenta las restricciones a la constante ck en la regla E∃ . Hemos encontrado todas las reglas que conformarán nuestro sistema. Ahora haremos una presentación sistemática de él. 13.2 El sistema de deducción natural para L PO En la parte precedente de este capítulo hemos hallado las reglas de inferencia características del sistema de deducción natural para L PO, las que junto con las reglas que habíamos hallado para L P conformarán nuestro sistema. Las presentamos conjuntamente: Capítulo 13. Consecuencia sintáctica 268 Reglas del sistema de deducción natural para L PO Regla Reflexión Regla Simetría ci = c j Regla Transitividad ci = c j Regla Sustitución ci = c j cn = cn c j = ci c j = ck F(ci ) ci = ck F ∗ (ci ) Regla E∀ ∀xn F(xn ) Regla I∀ F(ck ) F(ck ) ∀xn F(xn ) ck no figura en premisas ni en supuestos abiertos ni en xn F(xn ). Regla E∃ ∃xn F(xn ) ck no figura en premisas ni en supuestos abiertos Regla I∃ F(ck ) [F(ck )] .. . ni en A ni en F(xn ). ∃xn F(xn ) A A Regla E↔ i A↔B B Regla E↔ d A↔B A Regla I↔ A→B B→A A B A↔B Regla E∧ i A∧B Regla E∧ d A∧B Regla I∧ A A B B A∧B Regla E¬ ¬¬A Regla I¬ [A] A .. . B ∧ ¬B ¬A Regla E→ A→B A Regla I→ [A] .. . B B A→B 13.3 Consecuencia sintáctica 269 Regla E∨ A∨B Regla I∨ d A Regla I∨ i A [A] .. . B∨A A∨B C [B] .. . C C Al igual que hicimos al estudiar el sistema formal para la lógica proposicional, ofrecemos la siguiente Definición 13.2.1 — Derivación. Sean Γ un conjunto de sentencias y A una sentencia. Una derivación de A a partir de Γ es una sucesión de sentencias en la que cada sentencia: O bien pertenece a Γ O bien es un supuesto cancelado O bien es el resultado de aplicar alguna de las reglas a sentencias o subsecuencias anteriores en la sucesión y además la última sentencia es A. Estamos ahora en condiciones de definir una de las relaciones centrales de la lógica que estamos estudiando, la de consecuencia sintáctica. 13.3 Consecuencia sintáctica Al igual que en la lógica proposicional, presentamos otro modo –además de la consecuencia semántica– de capturar la corrección lógica. La definición es estructuralmente idéntica a la ya vista para la lógica proposicional. Definición 13.3.1 — Consecuencia sintáctica. Sea Γ un conjunto de sentencias de L PO y A una sentencia de L PO. A es consecuencia sintáctica de Γ si y solo si existe una derivación de A a partir de Γ. Notación 13.1. Si A es consecuencia sintáctica de Γ, escribimos Γ ` A En caso de que sea necesario distinguir entre las dos nociones de consecuencia sintáctica, la correspondiente a la lógica proposicional y la correspondiente a la lógica de primer orden, escribiremos `L P y `L PO . 13.4 Heurística En esta sección veremos, a través del estudio de varios ejemplos, algunas ideas a tener en cuenta al intentar construir derivaciones. La primera consideración que debe hacerse es, obviamente, que se debe atender muy especialmente a las restricciones impuestas sobre las constantes en juego en las reglas I∀ y E∃ . No se abundará en ejemplos de errores cometidos por no respetarlas, sino que se encarecerá al lector no olvidar el punto. Ejemplo 13.4 Demostrar {∀x(Px → Qx), Pa} ` ∃xQx Capítulo 13. Consecuencia sintáctica 270 El plan para la derivación surge de inmediato: La premisa universal puede ser instanciada en cualquier constante, eliminando el cuantificador. Si la instanciamos en a, obtenemos un condicional que podemos eliminar ya que la premisa restante es su antecedente. Obtenemos el consecuente, instanciado en a, y aplicando introducción del existencial queda demostrado lo pedido. 1 ∀x(Px → Qx) 2 Pa 3 Pa → Qa E∀ , 1 4 Qa E→ , 2, 3 5 ∃xQx I∃ , 4 En este ejemplo observamos algo que es bastante frecuente: como muchas veces se parte de las premisas usando reglas de eliminación y se llega a la conclusión por reglas de introducción, al tener premisas y conclusión cuantificadas es frecuente encontrar una parte en el medio de la derivación en la que se opere a nivel proposicional. Así, las líneas 2, 3 y 4 de la derivación anterior no son fórmulas universales ni existenciales. Nos gustaría poder contar con algunas reglas derivadas. Las que surgen de las relaciones de consecuencia sintáctica que iremos mostrando en los próximos ejemplos son muy útiles: Ejemplo 13.5 {∀xF(x)} ` ¬∃x¬F(x), siendo F(x) una fórmula con x como única variable libre: La derivación no es difícil pero nos permite observar algo interesante. En principio, como la fórmula que deseamos obtener en la línea final de la derivación es una negación, parece razonable comenzar suponiendo ∃x¬F(x), con la idea de llegar a una contradicción y completar el procedimiento con la regla I¬ . Hasta aquí tenemos 1 2 ∀xF(x) ∃x¬F(x) Ahora deberíamos proceder a eliminar el cuantificador universal de 1 o el existencial de 3. ¿Cuál? Parece que en este caso sería indiferente. Examinemos la posibilidad de instanciar primero el universal y luego el existencial, en un supuesto que aparece abajo en la línea 4. Llegamos fácilmente a 1 ∀xF(x) 2 ∃x¬F(x) 3 F(a) 4 ¬F(a) 5 F(a) ∧ ¬F(a) E∀ , 1 I∧ , 3, 4 Y hemos obtenido lo que buscábamos, una contradicción. Pero estamos bajo el supuesto de 4, la instanciación del existencial de 2. Debemos cerrar ese supuesto, pero no lo podemos hacer 13.4 Heurística 271 agregando F(a) ∧ ¬F(a) y acudiendo a la regla E∃ aplicada a 2 y la subderivación 4-5 porque la constante a, usada para instanciar el existencial, aparece en la contradicción que queremos sacar de bajo el supuesto. De modo que parece que habría que intentar otra cosa. Pero no es necesario retroceder, venimos en buen camino. A partir de la contradicción F(a) ∧ ¬F(a) podemos obtener cualquier sentencia para agregar a la derivación, usando ECQ, de manera que aprovechamos eso para obtener otra contradicción que no contenga ocurrencias de la constante a. Quizá el lector esté pensando que esto no tiene sentido alguno, pero sí lo tiene. El respeto a las restricciones impuestas en las reglas es la garantía de la corrección inferencial. La derivación continuaría así, siendo b una constante diferente de a que no aparece en F(x), lo que asegura que se pueda aplicar la regla E∃ en la línea 7: 1 ∀xF(x) 2 ∃x¬F(x) 3 F(a) E∀ , 1 4 ¬F(a) 5 F(a) ∧ ¬F(a) I∧ , 3, 4 6 F(b) ∧ ¬F(b) ECQ, 5 7 8 F(b) ∧ ¬F(b) ¬∃x¬F(x) E∃ , 2, 4–6 I¬ , 2–7 Ejercicio 13.2 Presentar un esquema de derivación que demuestre la misma relación de con- secuencia sintáctica que el anterior en el que la primera instanciación sea de un existencial. Ejemplo 13.6 {¬∃x¬F(x)} ` ∀xF(x), siendo F(x) una fórmula con x como única variable libre: Dado que la premisa es una negación, no parece sensato comenzar pensando en aplicar eliminación sobre ella. Si consideramos la posibilidad de llegar a la conclusión mediante la regla I∀ , debemos estar dispuestos a obtener F(a) libre de supuestos. Veamos esa línea de ataque al problema. Comenzamos suponiendo ¬F(a), y esto nos lleva inmediatamente a una contradicción luego de introducir un existencial. Obtenido F(a), terminamos la derivación como se planificó. 1 ¬∃x¬F(x) 2 ¬F(a) 3 ∃x¬F(x) I∃ , 2 4 ∃x¬F(x) ∧ ¬∃x¬F(x) I∧ , 3, 1 5 ¬¬F(a) I¬ , 2–4 6 F(a) E¬ , 5 7 ∀xF(x) I∀ , 6 Capítulo 13. Consecuencia sintáctica 272 Ejercicio 13.3 En el esquema de derivación anterior, la constante a debe cumplir algo que no se mencionó. ¿Qué? Ejemplo 13.7 {¬∀x¬F(x)} ` ∃xF(x), siendo F(x) una fórmula con x como única variable libre. Luego de haber pensado sobre los ejemplos anteriores, el lector comprenderá la siguiente derivación sin problemas. 1 ¬∀x¬F(x) 2 ¬∃xF(x) 3 F(a) 4 ∃xF(x) I∃ , 3 5 ∃xF(x) ∧ ¬∃xF(x) I∧ , 4, 2 6 ¬F(a) I¬ , 3–5 7 ∀x¬F(x) I∀ , 6 8 ∀x¬F(x) ∧ ¬∀x¬F(x) I∧ , 7, 1 9 ¬¬∃xF(x) I¬ , 2–8 10 ∃xFx E¬ , 9 Ejercicio 13.4 ¿Hay restricciones sobre la constante a en el esquema de derivación anterior? Explique la diferencia, si la hay, con el esquema de derivación mencionado en el ejercicio 13.2. Ejemplo 13.8 {∃xFx} ` ¬∀x¬F(x), siendo F(x) una fórmula con x como única variable libre. Para demostrarlo presentamos esta derivación: 1 ∃xF(x) 2 ∀x¬F(x) 3 F(a) 4 ¬F(a) E∀ , 2 5 F(a) ∧ ¬F(a) I∧ , 3, 4 6 F(b) ∧ ¬F(b) ECQ, 5 7 8 F(b) ∧ ¬F(b) ¬∀x¬F(x) E∃ , 1, 3–6 I¬ , 2–7 13.4 Heurística 273 El lector apreciará la necesidad de la línea 6, impuesta por las restricciones de la regla E∃ . De los cuatro últimos ejemplos podemos extraer las siguientes reglas derivadas, que suelen llamarse en forma indistinta interdefinición de cuantificadores6 . Interdefinición de cuantificadores ∀xF(x) ¬∃x¬F(x) ¬∀x¬F(x) ∃xF(x) ¬∃x¬F(x) ∀xF(x) ∃xF(x) ¬∀x¬F(x) Ejemplo 13.9 En este ejemplo buscaremos una derivación que asegure la corrección de la inferencia que realizamos para presentar la regla de eliminación del existencial, la que tendrá algunas complicaciones que resultarán muy instructivas para el lector. Observe cómo nuestro sistema se adapta a “imitar” en mayor o menor medida nuestro modo de inferir, y cómo hay partes del razonamiento que resultan “amplificadas” al vernos obligados a describirlas en sus pasos mínimos. Es un buen momento para que el lector comience a considerar los costos de la formalización. Una inferencia relativamente breve y elemental tiene como contrapartida formal una derivación relativamente extensa y compleja en términos de su estructura, asunto en el que profundizaremos con el próximo ejemplo. Por supuesto, esta extensión y complejidad pueden deberse a las constricciones impuestas por nuestra lógica y nuestro sistema deductivo, y quizá haya sistemas en que la contrapartida formal sea más breve y más simple. Usaremos el diccionario Nombre o predicado Constante de individuo o letra de relación ... es culpable Juan Pedro C j p con lo que una traducción del argumento es Existe un culpable. Si Juan es culpable, Pedro es culpable. Si Juan no es culpable, nadie más lo es. ∃xCx C j → Cp (¬C j → ∀y(¬y = j → ¬Cy)) Juan es culpable y Pedro es culpable. C j ∧Cp La derivación comienza así, intentando “copiar” nuestro razonamiento7 : 1 ∃xCx 2 C j → Cp 3 (¬C j → ∀y(¬y = j → ¬Cy)) 4 Ch 5 ¬C j 6 ∀y(¬y = j → ¬Cy) 6 Muestran E→ , 3, 5 que la potencia deductiva del sistema es la misma si le quitamos uno de los cuantificadores. al lector estudiar esta parte teniendo en cuenta el razonamiento hecho, que se encuentra en 13.1.2 7 Encarecemos Capítulo 13. Consecuencia sintáctica 274 En este punto se nos presenta una complicación. En nuestro razonamiento en lenguaje natural, de lo que vendría a ser las líneas 5 y 6 obtuvimos que nadie es culpable. Tenemos que buscar un modo de llegar a una fórmula que exprese eso en nuestra derivación. Un buen intento podría ser el de obtener una fórmula cuantificada universalmente que así lo afirme, a través de una introducción del cuantificador universal. Para eso deberíamos obtener una fórmula de la forma ¬Ck, sin que k aparezca en las premisas o en supuestos abiertos. Así, parece razonable introducir el supuesto Ck para obtener una contradicción, extraer la fórmula ¬Ck y aplicar sobre ella introducción del cuantificador universal. 7 Ck Debemos llegar a una contradicción entre 5, 6 y 7. La semántica viene en nuestra ayuda, en este intento de aplicar el microscopio de Frege a algo que hemos pasado sobrevolando en nuestro razonamiento en lenguaje natural. Pensemos así: Jota no es culpable (5), todos los que no son Jota no son culpables (6) y Ka es culpable (7). Pero o bien Ka es Jota o bien Ka no es Jota. Si Ka es Jota, entonces Ka no es culpable, por (5); y si Ka no es Jota, entonces Ka no es culpable, por (6). En cualquier caso, Ka no es culpable, o sea que Ka no es culpable. Pero además Ka es culpable, por (7), con lo que hay una contradicción. Es claro entonces cómo continuar la derivación. Se introduce la instancia de LTE k = j ∨ ¬k = j (lo podemos hacer porque hemos demostrado que todas las instancias son teoremas en la sección 7.2) y se elimina la disyunción obteniendo la contradicción que nos permite negar el supuesto Ck. Luego se introduce el cuantificador universal, obteniendo ∀x¬Cx, lo que nos viene a dejar en el paso 8 de nuestro razonamiento en lenguaje natural. Eso es en la línea 18 en la parte del diagrama que presentamos a continuación: 8 k = j ∨ ¬k = j 9 k= j 10 ¬Ck Sustitución, 5, 9 11 Ck ∧ ¬Ck I∧ , 7, 10 12 ¬k = j 13 (¬k = j → ¬Ck) E∀ , 6 14 ¬Ck E→ , 12, 13 15 Ck ∧ ¬Ck I∧ , 7, 14 16 Ck ∧ ¬Ck Es teorema, instancia de LTE E∨ , 8, 9–11, 12–15 17 ¬Ck I¬ , 7–16 18 ∀x¬Cx I∀ , 17 Se observa que se pudo aplicar la introducción del cuantificador universal en la línea 18 porque la constante k no figura en las premisas ni en supuesto abierto alguno (los supuestos de las líneas 9 y 13.4 Heurística 275 12, que tenían ocurrencias de esa constante, fueron cerrados en la línea 16, y el supuesto de la línea 7, donde también ocurría k, fue cerrado en la línea 17). A partir de aquí la derivación transcurre siendo una copia casi fiel de nuestra inferencia, salvo por la introducción y eliminación de la negación, que quedan ocultas en el lenguaje natural. El diagrama de Fitch completo es este: 1 ∃xCx 2 C j → Cp 3 (¬C j → ∀y(¬y = j → ¬Cy)) 4 Ch 5 ¬C j 6 ∀y(¬y = j → ¬Cy) E→ , 3, 5 7 Ck 8 k = j ∨ ¬k = j 9 k= j 10 ¬Ck Sustitución, 5, 9 11 Ck ∧ ¬Ck I∧ , 7, 10 12 ¬k = j 13 (¬k = j → ¬Ck) E∀ , 6 14 ¬Ck E→ , 12, 13 15 Ck ∧ ¬Ck I∧ , 7, 14 Ck ∧ ¬Ck 16 Es teorema, instancia de LTE E∨ , 8, 9–11, 12–15 17 ¬Ck I¬ , 7–16 18 ∀x¬Cx I∀ , 17 19 ¬Ch E∀ , 18 20 Ch ∧ ¬Ch I∧ , 4, 19 21 ¬¬C j I¬ , 5–20 22 Cj E¬ , 21 23 Cj E∃ , 1, 4–22 24 Cp E→ , 2, 23 25 C j ∧Cp I∧ , 23, 24 Ejemplo 13.10 En este ejemplo final mostraremos, para un caso particular, que la enumeración Capítulo 13. Consecuencia sintáctica 276 completa permite concluir universalmente. Retomemos el argumento ya mencionado Hay exactamente dos individuos. El individuo a es diferente al individuo b. El individuo a es alto. El individuo b es alto. Todos los individuos son altos. y mostremos que es correcto. Escribiendo A por “... es alto” deberíamos demostrar: {∃x∃y(¬x = y ∧ ∀z(z = x ∨ z = y)), ¬a = b, Aa, Ab} ` ∀xAx Será un ejemplo interesante de extremo apartamiento entre la deducción que podemos realizar en lenguaje natural y las derivaciones que nuestro sistema nos permite ofrecer como contrapartida formal de ella. Seguramente se deba a que la traducción de “Hay exactamente dos individuos” a una sentencia de L PO sepulta lo que “dos” significa bajo cuantificadores e igualdad, y nuestros modos normales de razonar funcionen de otra manera, que seguramente sea mejor capturada (en este caso) con otras lógicas. Presentamos la derivación en un diagrama de Fitch sin comentarios, encarecemos al lector intentar comprenderla. 1 ∃x∃y(¬x = y ∧ ∀z(z = x ∨ z = y)) 2 ¬a = b 3 Aa 4 Ab 5 ∃y(¬c = y ∧ ∀z(z = c ∨ z = y)) 6 (¬c = d ∧ ∀z(z = c ∨ z = d)) 7 ∀z(z = c ∨ z = d) E∧ , 6 8 a = c∨a = d E∀ , 7 9 b = c∨b = d E∀ , 7 10 a=c 11 b=c 12 a=b Transitividad, 10, 11 13 a = b ∧ ¬a = b I∧ , 12, 2 14 (a = c ∧ b = d) ∨ (a = d ∧ b = c) ECQ, 13 15 b=d 16 a = c∧b = d I∧ , 10, 15 17 (a = c ∧ b = d) ∨ (a = d ∧ b = c) I∨ , 16 13.4 Heurística 277 (a = c ∧ b = d) ∨ (a = d ∧ b = c) 18 19 E∨ , 9, 11–14, 15–17 a=d 20 b=c 21 a = d ∧b = c I∧ , 19, 20 22 (a = c ∧ b = d) ∨ (a = d ∧ b = c) I∨ , 21 23 b=d 24 a=b Transitividad, 19, 23 25 a = b ∧ ¬a = b I∧ , 24, 2 26 (a = c ∧ b = d) ∨ (a = d ∧ b = c) ECQ, 25 27 28 (a = c ∧ b = d) ∨ (a = d ∧ b = c) (a = c ∧ b = d) ∨ (a = d ∧ b = c) E∨ , 9, 20–22, 23–26 E∨ , 8, 10–18, 19–27 29 a = c∧b = d 30 a=c E∧ , 29 31 b=d E∧ , 29 32 Ac Sustitución, 30, 3 33 Ad Sustitución, 31, 4 34 ¬Ae 35 e = c∨e = d 36 e=c 37 Ae Sustitución, 32, 36 38 Ae ∧ ¬Ae I∧ , 37, 34 39 e=d 40 Ae Sustitución, 33, 39 41 Ae ∧ ¬Ae I∧ , 40, 34 Ae ∧ ¬Ae 42 E∀ , 7 E∨ , 35, 36–38, 39–41 43 ¬¬Ae I¬ , 34–42 44 Ae E¬ , 43 45 ∀xAx I∀ , 44 46 a = d ∧b = c 47 a=d E∧ , 46 48 b=c E∧ , 46 49 Ac Sustitución, 48, 4 Capítulo 13. Consecuencia sintáctica 278 50 Sustitución, 47, 3 Ad 51 ¬Ae 52 e = c∨e = d 53 e=c 54 Ae Sustitución, 49, 53 55 Ae ∧ ¬Ae I∧ , 54, 51 56 e=d 57 Ae Sustitución, 50, 56 58 Ae ∧ ¬Ae I∧ , 57, 51 Ae ∧ ¬Ae 59 E∀ , 7 E∨ , 52, 53–55, 56–58 60 ¬¬Ae I¬ , 51–59 61 Ae E¬ , 60 62 ∀xAx I∀ , 61 63 ∀xAx E∨ , 28, 29–45, 46–62 64 ∀xAx E∃ , 5, 6–63 65 ∀xAx E∃ , 1, 5–64 Invitamos al lector a encontrar una derivación de la misma fórmula a partir del mismo conjunto que sea más corta y que nos recuerde más un razonamiento que pudiéramos hacer en lenguaje natural para obtener la conclusión. Este ejemplo muestra que la idea de que la lógica de primer orden no refleja siempre nuestra forma de razonar –aun en casos en que tiene la potencia suficiente para brindar las conclusiones– es muy atendible8 . 13.5 Propiedades de la consecuencia sintáctica La relación de consecuencia sintáctica en L PO tiene propiedades idénticas a las vistas para la consecuencia sintáctica en L P. Luego de reformular la definición Definición 13.5.1 — Conjuntos consistentes, conjuntos inconsistentes. Sea Γ un conjunto de sentencias de L PO. Γ es inconsistente si existe una sentencia A tal que Γ ` (A ∧ ¬A), y es consistente en caso contrario. 8 Boolos, en [Boo98], afirma que la lógica de primer orden es incompleta desde el punto de vista práctico. El lector entenderá mejor qué quiere decir esto luego de leer la parte final del libro, dedicada a la metateoría, pero la idea que subyace es que hay inferencias que hacemos muy fácilmente y sin embargo traducidas a derivaciones en primer orden, resultan en objetos enormes, inmanejables, como por ejemplo derivaciones que tienen más símbolos que átomos el universo. 13.6 Excurso filosófico: Contextos indirectos 279 las resumimos en los siguientes teoremas, de los que no ofrecemos demostraciones porque son idénticas a las del caso proposicional: Teorema 13.5.1 Si Γ es inconsistente, entonces Γ ` B, sea cual sea la sentencia B. Teorema 13.5.2 — Monotonía. Si Γ ` A, entonces para todo conjunto de sentencias ∆, Γ∪∆ ` A. Corolario 13.5.3 Si τ es un teorema, entonces Γ ` τ para todo conjunto Γ. Teorema 13.5.4 — Deducción. Para todo conjunto de sentencias Γ y para cualesquiera fórmu- las A y B, Γ, A ` B si y solo si Γ ` (A → B). Teorema 13.5.5 — El “absurdo”. Para todo conjunto Γ y toda sentencia A, Γ ` A si y solo si Γ, ¬A es inconsistente. 13.6 Excurso filosófico: Contextos indirectos Las reglas del sistema de deducción natural que se aplican sobre la igualdad conllevan compromisos importantes que afectan la capacidad de nuestra lógica para tratar ciertas clases de argumentos. En el ya mencionado artículo Sobre sentido y denotación, Frege sostuvo que la referencia de los enunciados es un valor de verdad, concretamente su valor de verdad. Así, según Frege, la denotación de 2+2=4 es lo Verdadero, mientras que la de La Tierra es un satélite de Mercurio es lo Falso9 . Ciertamente, esto parece extraño, pero Frege tiene un argumento para considerarlo así. Básicamente, es una consecuencia de su teoría composicional de la referencia: Consideremos que no sabemos qué será la referencia de un enunciado como 1. El papa Francisco es argentino y que aceptamos la teoría composicional de la referencia, es decir, que la referencia de ese compuesto será función de la referencias de sus componentes. Aceptemos, además, con Frege y contra Russell, como vimos en la sección 11.5, que la descripción definida el papa Francisco es denotativa, y que afirmamos, razonablemente, El papa Francisco = Jorge Bergoglio Esa igualdad establecida indica que la referencia de sus dos miembros es la misma, es decir, que hay un único objeto al que llamamos tanto “el papa Francisco” como “Jorge Bergoglio”. Ahora bien, dado que consideramos que la referencia del enunciado que estamos analizando es función de la referencia de sus componentes, debemos aceptar que si cambiamos uno de sus 9 Escribo “lo Verdadero” y “lo Falso” para referirme a dos objetos que Frege creía efectivamente existen, con indudable talante platónico. Lo Verdadero es la referencia de todas las proposiciones verdaderas, y lo Falso la referencia de todas las proposiciones falsas, según su teoría. Capítulo 13. Consecuencia sintáctica 280 componentes por algo que tenga la misma referencia, el enunciado resultante tendrá la misma referencia que el original. Así, Frege establece que la referencia de 1 debe ser la misma que la del enunciado 2. Jorge Bergoglio es argentino. y Frege observa que lo que se ha conservado al pasar de 1 a 2 es el valor de verdad. Ambos enunciados son verdaderos. Si hubiésemos partido de un enunciado falso, como por ejemplo Jorge Bergoglio es judío. la sustitución, que conserva la referencia, nos daría como resultado el enunciado El papa Francisco es judío. que también es falso. Es de este modo que Frege postula que la referencia de los enunciados es su valor de verdad. Pero pronto se enfrenta con un severo problema. Para exponerlo, consideremos real la leyenda de Edipo, de modo de decir que los enunciados que vamos a formular tienen referencia, aun en el marco fregeano10 . La madre de Edipo se llama Yocasta, o sea que Yocasta = la madre de Edipo Edipo, huyendo de la que cree es su ciudad natal, Corinto, entra en Tebas luego de haber vencido a la esfinge, es coronado rey y se casa con Yocasta, quien es su madre pero él lo ignora. En ese entonces el enunciado Edipo sabe que su esposa es Yocasta. es claramente verdadero. Pero la sustitución por el otro miembro de la última igualdad considerada arroja Edipo sabe que su esposa es la madre de Edipo. que en mejor español se expresa Edipo sabe que su esposa es su madre. y es falso. Justamente, cuando Edipo llegue a saber eso se producirá la anagnórisis y ese momento no ha llegado11 . ¿Qué ha sucedido? ¿Cómo es que hemos pasado de un enunciado verdadero a uno falso al hacer una sustitución de un sintagma por otro que tiene la misma referencia? ¿No indica esto que la regla de sustitución que hemos establecido puede llevarnos a certificar como correctas inferencias que no lo son? La clave del asunto, en nuestro ejemplo, está en el verbo saber. Ese verbo introduce lo que Frege llamó un contexto indirecto, en el cual la sustitución efectuada ofrece este resultado de no conservación del valor de verdad. Muchos otros verbos lo hacen, como por ejemplo los verbos querer, creer, opinar, pensar. La consecuencia inmediata de esto es que nuestra lógica, con la regla de sustitución que hemos dado, no puede tratar eficazmente situaciones en las que aparezcan contextos indirectos. Por este y otros motivos se han desarrollado lógicas no clásicas, como las lógicas epistémicas (para aplicar las cuestiones relativas a lo que se sabe), las doxásticas (sobre lo que se cree), etc. Sus reglas de inferencia no integran estos esquemas sustitucionales. 10 Este aspecto no tiene importancia, se elige la leyenda de Edipo para ilustrar el punto, pero se podría pensar un ejemplo no ficticio 11 Para los lectores que conozcan elementos de la semántica fregeana y la poética aristotélica: ¿Será la anagnórisis, desde el punto de vista fregeano, el reconocimiento de que dos sentidos incompatibles éticamente se asocian a la misma referencia? IV Metateoría 14 Introducción . . . . . . . . . . . . . . . . . . . . . . . 283 15 Corrección . . . . . . . . . . . . . . . . . . . . . . . . . 285 15.1 15.2 La demostración Consecuencias de la corrección 16 Compacidad y completitud . . . . . . . . 295 16.1 16.2 16.3 Compacidad Completitud de L P En L PO Epílogo: Lógica, ¿para qué? . . . . . . . . 313 Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . 323 Índice alfabético . . . . . . . . . . . . . . . . . . . 329 14. Introducción descrito dos lógicas, la proposicional y la de primer orden, con un sistema de deducción natural para cada una. Las nociones centrales que hemos estudiado son las de consecuencia semántica y consecuencia sintáctica. Ambas fueron introducidas como correlato formal de una noción intuitiva, relacionada con la corrección o calidad argumental, que puede nombrarse como consecuencia lógica. No hemos prestado demasiada atención a un problema de enorme importancia: ¿Cuáles son las relaciones entre la consecuencia semántica y la consecuencia sintáctica? Decimos que la importancia del problema es muy grande porque por un lado, las dos nociones en juego son las más importantes que hemos estudiado, y por otro, ambas fueron propuestas como correlato formal de la misma noción informal. Si se pudiera demostrar que hay casos de consecuencia semántica que no lo son de consecuencia sintáctica o al revés, se debería sospechar que alguna de estas nociones sobrerrepresenta o subrepresenta el concepto intuitivo de consecuencia lógica. Si, por el contrario, se pudiera demostrar que todos los casos de consecuencia semántica son casos de consecuencia sintáctica, se estaría dando una cierta evidencia a favor de que la noción intuitiva de consecuencia lógica ha sido bien representada formalmente. Tanto la consecuencia semántica como la sintáctica son conceptos formales, y por eso, la tarea de responder a la pregunta de las relaciones que mantienen entre sí es asunto de la propia lógica, una ciencia formal. Es este un aspecto interesante de la lógica, que comparte con la matemática: los estudios de segundo orden caen bajo el campo de la propia disciplina, del mismo modo que el estudio de los sistemas matemáticos es parte de la matemática. Esos estudios de segundo orden representan la parte más jugosa de la lógica, la que se encuentra en constante desarrollo en la actualidad, y eso es así desde el siglo pasado. La metateoría es el estudio de los sistemas lógicos desde ese punto de vista que más allá de establecer resultados en ellos, establece resultados generales sobre ellos. Se podría considerar que este campo es el propio de un segundo curso de lógica para estudiantes de filosofía. Ciertamente, así es. Pero dedicaremos esta última parte del curso a presentar algunos resultados metateóricos centrales, que deberían ser conocidos por cualquier estudiante de filosofía, H EMOS Capítulo 14. Introducción 284 con independencia de si estudia sus justificaciones en detalle. Esos resultados estarán dedicados a esclarecer, como dijimos, las relaciones entre los dos conceptos fundamentales que hemos estudiado, la consecuencia semántica y la consecuencia sintáctica. Las preguntas centrales serán, entonces ¿Γ ` A implica Γ |= A? ¿Γ |= A implica Γ ` A? De las respuestas a esas preguntas dependen las respuestas a otras, como ¿Son todos los teoremas fórmulas válidas y recíprocamente? ¿Los conjuntos insatisfacibles son los mismos que los inconsistentes? Intentar responderlas nos obliga a salir de los sistemas en que hemos venido trabajando para establecer resultados sobre ellos. En este sentido, algo hemos avanzado: hemos establecido teoremas sobre nuestros sistemas, como monotonía, deducción y absurdo. Esos tres resultados valen tanto para la consecuencia semántica como para la sintáctica. Pero por supuesto que eso no demuestra que ambas relaciones sean extensionalmente iguales, es decir, que cada vez que se dé una se dará la otra y recíprocamente. Consideremos lo que comportaría una respuesta negativa a la primera pregunta destacada. En tal caso, existiría un conjunto Γ y una fórmula A tales que Γ ` A pero Γ 2 A. O sea, nuestro sistema deductivo nos permitiría obtener, a partir de Γ, una fórmula que puede ser falsa siendo verdaderas todas las fórmulas de Γ. Sería un resultado extremadamente indeseable, especialmente si adherimos a la tónica vista en este curso, donde se sugiere que las nociones semánticas tienen preeminencia sobre las sintácticas, de modo que estas deben elegirse y disponerse en forma tal que reflejen y respeten aquellas. Si nos encontrásemos en este caso, siempre desde esa tónica, estaríamos fuertemente inclinados a abandonar el sistema formal, con la idea de sustituirlo por otro que solo extraiga, como consecuencias sintácticas de un conjunto, fórmulas que sean consecuencias semánticas de ese conjunto. Definición 14.0.1 Sistema correcto Un sistema deductivo en el que si Γ ` A entonces Γ |= A para todo Γ y A se dice correcto. Nuestra tarea en el primer capítulo de esta parte será demostrar la corrección del sistema de deducción natural para la lógica de primer orden, demostración que servirá también para la lógica proposicional. Consideremos ahora lo que comportaría una respuesta negativa a la segunda pregunta. Si ese fuese el caso, existiría un conjunto Γ y una fórmula A tales que Γ |= A pero Γ 0 A. Esto indicaría que nuestro sistema no tiene la potencia suficiente como para permitirnos obtener, a partir de Γ, toda fórmula que sea verdadera si las de ese conjunto lo son. No parece una falla tan grave como la no corrección, pero nos impulsaría, quizá, a fortalecer nuestro sistema con nuevas reglas de modo de poder capturar mediante las consecuencias sintácticas de un conjunto todo lo que es consecuencia semántica de él. Definición 14.0.2 Sistema completo Un sistema deductivo en el que si Γ |= A entonces Γ ` A para todo Γ y A se dice completo. En el segundo capítulo de esta parte, luego de considerar con especial cuidado si la finitud de las derivaciones impone constricciones demasiado fuertes a la consecuencia sintáctica, demostraremos la completitud de la deducción natural para la lógica proposicional y consideraremos la cuestión para la lógica de primer orden. 15. Corrección OMO hemos dicho, en este capítulo demostraremos la corrección del sistema de deducción natural para la lógica de primer orden, un resultado central y absolutamente deseable. Si no se cumpliera, el propósito que teníamos al elegir reglas de inferencia para la deducción natural que respetaran la consecuencia semántica se vería totalmente traicionado. Es decir, debemos demostrar C Teorema 15.0.1 — Corrección. Si Γ ` A entonces Γ |= A para todo conjunto de sentencias Γ y para toda sentencia A de L PO. Llamemos correcta a una derivación de A a partir de Γ si A y Γ son tales que Γ |= A. Lo que queremos demostrar entonces, es que todas las derivaciones en nuestro sistema son correctas. Lo haremos por inducción en la longitud de las derivaciones, midiendo esa longitud mediante el número de líneas que tienen. Es decir, mostraremos dos cosas: 1. Todas las derivaciones de longitud 1 son correctas. 2. Si todas las derivaciones de longitud n o menos son correctas, entonces todas las derivaciones de longitud n + 1 son correctas. Si logramos demostrar esos dos puntos, habremos conseguido nuestro objetivo, porque por 1 las derivaciones de longitud 1 son correctas, y dado eso y 2, las de longitud 2 son correctas, y dado eso y 2, las de longitud 3 son correctas, etc. 15.1 La demostración Comencemos entonces demostrando el punto 1. Supongamos que Γ ` A y hay una derivación de longitud 1 de A a partir de Γ. Esa derivación solo puede tener la forma (mostrada en diagrama de Fitch) 1 A 286 Capítulo 15. Corrección Esto significa que A es una premisa, o sea, que A es un elemento de Γ. Por tanto, Γ |= A y queda demostrado que todas las derivaciones de longitud 1 son correctas. Pasemos ahora a demostrar el punto 2. Para hacerlo, debemos recordar que en una derivación, debido a la existencia de supuestos, una sentencia que se encuentra en una línea cualquiera j no es, en general, consecuencia sintáctica del conjunto de partida Γ, sino que es consecuencia sintáctica de Γ ∪ ∆, siendo ∆ el conjunto de los supuestos abiertos que están en las líneas entre 1 y j inclusive. Recordado eso, supongamos que toda sentencia X que se obtiene a partir de Γ por una derivación de n líneas o menos es tal que Γ |= X, y consideremos una derivación de A a partir de Γ de n + 1 líneas. Nos preguntamos qué justifica la aparición de A como fórmula final en la derivación, y vemos que tenemos solo las siguientes posibilidades (descartamos que A se haya introducido en la línea n + 1 como un supuesto, porque en ese caso no estamos frente a una derivación de A a partir de Γ, debido a que las derivaciones tienen todos los supuestos cerrados): 1. A aparece en la línea n + 1 como premisa. 2. A aparece en la línea n + 1 como resultado de aplicar Reflexión. 3. A aparece en la línea n + 1 como resultado de aplicar Simetría. 4. A aparece en la línea n + 1 como resultado de aplicar Transitividad. 5. A aparece en la línea n + 1 como resultado de aplicar Sustitución. 6. A aparece en la línea n + 1 como resultado de aplicar I∧ . 7. A aparece en la línea n + 1 como resultado de aplicar E∧ . 8. A aparece en la línea n + 1 como resultado de aplicar I∨ . 9. A aparece en la línea n + 1 como resultado de aplicar E∨ . 10. A aparece en la línea n + 1 como resultado de aplicar I→ . 11. A aparece en la línea n + 1 como resultado de aplicar E→ . 12. A aparece en la línea n + 1 como resultado de aplicar I↔ . 13. A aparece en la línea n + 1 como resultado de aplicar E↔ . 14. A aparece en la línea n + 1 como resultado de aplicar I¬ . 15. A aparece en la línea n + 1 como resultado de aplicar E¬ . 16. A aparece en la línea n + 1 como resultado de aplicar I∀ . 17. A aparece en la línea n + 1 como resultado de aplicar E∀ . 18. A aparece en la línea n + 1 como resultado de aplicar I∃ . 19. A aparece en la línea n + 1 como resultado de aplicar E∃ . Debemos mostrar que en todos esos casos se tiene Γ |= A. 1. A aparece en la línea n + 1 como premisa. En este caso es trivial que Γ |= A, ya que A es un elemento de Γ. 2. A aparece en la línea n + 1 como resultado de aplicar Reflexión. En este caso A es de la forma ci = ci , o sea, una fórmula válida. Por lo tanto, es consecuencia semántica de todo conjunto y en particular de Γ. 3. A aparece en la línea n + 1 como resultado de aplicar Simetría. 15.1 La demostración 287 En este caso A es de la forma c j = ci y la derivación es así: 0 .. . Γ .. . h .. . ci = c j .. . n+1 c j = ci Simetría, h Como la regla Simetría no cancela supuestos y la línea final se justifica mediante la línea h, esta última no se encuentra bajo un supuesto cancelado. Por lo tanto, se tiene que hay una derivación de h líneas que obtiene ci = c j a partir de Γ, y h 6 n. Por hipótesis, tenemos Γ |= ci = c j . O sea, toda interpretación que es modelo de Γ asigna la misma denotación a las constantes ci y c j , por lo que Γ |= c j = ci . 4. A aparece en la línea n + 1 como resultado de aplicar Transitividad. En este caso A es de la forma ci = ck y la derivación es así: 0 .. . Γ .. . h .. . ci = c j .. . l .. . c j = ck .. . n+1 ci = ck Transitividad, h, l Como la regla Transitividad no cancela supuestos y la línea final se justifica mediante las líneas h y l, estas últimas no se encuentran bajo supuestos cancelados. Por lo tanto, se tiene que hay una derivación de h líneas que obtiene ci = c j a partir de Γ, y una derivación de l líneas que obtiene c j = ck a partir de Γ. Además, h 6 n y l 6 n. Por hipótesis, tenemos Γ |= ci = c j y Γ |= c j = ck . O sea, toda interpretación que es modelo de Γ asigna la misma denotación a las constantes ci y c j , y la misma denotación a las constantes c j y ck , por lo que asigna la misma denotación a las constantes ci y ck , con lo que tenemos Γ |= ci = ck . 5. A aparece en la línea n + 1 como resultado de aplicar Sustitución. Capítulo 15. Corrección 288 En este caso, A es de la forma F(c j ) y la derivación es así: 0 .. . Γ .. . h .. . ci = c j .. . l .. . F(ci ) .. . n+1 F ∗ (c j ) Sustitución, h, l Como la regla Sustitución no cancela supuestos y la línea final se justifica mediante las líneas h y l, estas últimas no se encuentran bajo supuestos cancelados. Por lo tanto, se tiene que hay una derivación de h líneas que obtiene ci = c j a partir de Γ, y una derivación de l líneas que obtiene F(ci ) a partir de Γ. Además, h 6 n y l 6 n. Por hipótesis, tenemos Γ |= ci = c j y Γ |= F(ci ). O sea, toda interpretación que es modelo de Γ asigna la misma denotación a las constantes ci y c j , y además es modelo de F(ci ). Debemos demostrar que una tal interpretación es también modelo de F ∗ (c j ), donde esta última sentencia es el resultado de sustituir algunas de las ocurrencias de ci en F(ci ) por c j . Haremos esta demostración también por inducción, esta vez sobre la complejidad de la fórmula F(ci ), demostrando que en todos los casos, Γ |= ci = c j y Γ |= F(ci ) implica Γ |= F † (c j ), donde F † (c j ) es el resultado de sustituir una única ocurrencia de ci por c j en F(ci ). El resultado deseado, para F ∗ (c j ) se obtiene por aplicación repetida de una única sustitución. Comenzamos considerando el caso en que F(ci ) una sentencia atómica: a F(ci ) es de la forma Rnl ck1 ...ci ...ckn , y F † (c j ) es Rnl ck1 ...c j ...ckn . M n Sea M un modelo de Γ. Como Γ |= ci = c j , cM i = c j y como Γ |= Rl ck1 ...ci ...ckn , M M M M n M M M Rnl cM k1 ...ci ...ckn , por lo que también Rl ck1 ...c j ...ckn , lo que demuestra que Γ |= † F (c j ). b F(ci ) es de la forma ci = ck , y F † (c j ) es c j = ck . Sea M un modelo de Γ. Como Γ |= ci = c j , M M M M M cM i = c j y como Γ |= ci = ck , ci = ck , por lo que c j = ck , lo que demuestra que Γ |= F † (c j ). Esto muestra que Γ |= ci = c j y Γ |= F(ci ) implica Γ |= F † (c j ) siempre que F(ci ) sea una fórmula atómica. Consideremos ahora el caso de fórmulas no atómicas. Nuestra hipótesis será que toda interpretación que sea modelo de una fórmula Z(ci ) con n conectivos lógicos o menos, y también sea modelo de ci = c j , será modelo de Z † (c j ). Eso está probado para fórmulas atómicas, e implica en general que si Γ |= Z(ci ), Γ |= ci = c j se cumplirá Γ |= Z † (c j ) (para fórmulas con n conectivos o menos). Comencemos con las fórmulas cuantificadas y negadas: a F(ci ) es de la forma ∀xA(x, ci ), con n + 1 conectivos lógicos. Suponemos Γ |= ∀xA(x, ci ), Γ |= ci = c j , y debemos mostrar Γ |= ∀xA† (x, c j ). Sea M un modelo de Γ. Como Γ |= ∀xA(x, ci ), para toda constante ck , M + (A(ck , ci )) = V , o sea Γ |= A(ck , ci ) para toda constante ck . Como A(ck , ci ) tiene n conectivos lógicos, por hipótesis, se cumple Γ |= A† (ck , c j ) para toda constante ck , lo que implica Γ |= ∀xA† (x, c j ), que es lo que queríamos demostrar. 15.1 La demostración 289 b F(ci ) es de la forma ∃xA(x, ci ), con n + 1 conectivos lógicos. Suponemos Γ |= ∃xA(x, ci ), Γ |= ci = c j , y debemos mostrar Γ |= ∃xA† (x, c j ). La demostración es análoga a la anterior y queda como ejercicio. c F(ci ) es de la forma ¬A(ci ), con n+1 conectivos lógicos. Suponemos Γ |= ¬A(ci ), Γ |= ci = c j , y debemos mostrar Γ |= ¬A† (c j ). Sea M un modelo de Γ. Como Γ |= ¬A(ci ), tenemos que M (A(ci )) = F. Mostraremos que también tiene que ser M (A† (c j )) = F. Si fuera M (A† (c j )) = V , por hipótesis, y dado que A tiene n conectivos lógicos, tendríamos que M (A(ci )) = V , lo que implicaría que M (¬A(ci )) = F, con lo que Γ 2 ¬A(ci ). Por lo tanto es M (A† (c j )) = F para todo modelo de Γ, lo que demuestra que Γ |= ¬A† (c j ). Finalmente, veamos el caso de las fórmulas cuyo conectivo principal es binario: F(ci ) es de la forma A(ci ) ∧ B1 , con n + 1 conectivos lógicos. Suponemos Γ |= A(ci ) ∧ B, Γ |= ci = c j , y debemos mostrar Γ |= A† (c j ) ∧ B. Este caso es trivial porque al tener A(ci ) no más de n conectivos lógicos y darse Γ |= A(ci ), se tiene por hipótesis que Γ |= A† (c j ) y por lo tanto, teniendo también Γ |= B, resulta Γ |= A† (c j ) ∧ B Los casos de los restantes conectivos binarios son análogos. Esto termina el estudio del caso de una última línea justificada por Sustitución. 6. A aparece en la línea n + 1 como resultado de aplicar I∧ . En este caso A es de la forma B ∧C y la derivación es así: 0 .. . Γ .. . h .. . B .. . k .. . C .. . n+1 B ∧C I∧ , h, k Como la regla I∧ no cancela supuestos y la línea final se justifica mediante las líneas h y l, estas últimas no se encuentran bajo supuestos. Por lo tanto, se tiene que hay una derivación de h líneas que obtiene B a partir de Γ, y una derivación de k líneas que obtiene C a partir de Γ. Además, h 6 n y k 6 n. Por hipótesis, tenemos Γ |= B y Γ |= C, de donde trivialmente surge que Γ |= B ∧C. Los restantes casos donde no aparecen supuestos ni la última fórmula es cuantificada son similares. Demostraremos entonces los casos con supuestos y cuantificados. Todos los demás quedan como ejercicio para el lector. 9. A aparece en la línea n + 1 como resultado de aplicar E∨ . 1 Obviamente, si la ocurrencia de c que se sustituye está en en segundo conyunto, hay un argumento idéntico a este i que demuestra lo requerido. Capítulo 15. Corrección 290 En este caso la derivación es así: 0 .. . Γ .. . i .. . B ∨C .. . j .. . B .. . k .. . A .. . C .. . l .. . m .. . .. . A n+1 A E∨ , i, j–k, l–m La línea final cancela solamente los supuestos de las líneas j y l, de modo que las subderivaciones j − k y l − m no se encuentran bajo supuestos. Por lo tanto, tenemos Γ ` B ∨C Γ, B ` A Γ, C ` A y todas estas consecuencias sintácticas a través de derivaciones de n líneas o menos. Por hipótesis, Γ |= B ∨C; Γ, B |= A y Γ, C |= A. En estas condiciones es claro que Γ |= A. 10. A aparece en la línea n + 1 como resultado de aplicar I→ . En este caso A es de la forma B → C y la derivación es así: 0 .. . Γ .. . i .. . B .. . j .. . C .. . n+1 B→C I→ , i– j La línea final cancela únicamente el supuesto de la línea i, por lo que la subderivación i − j no se encuentra bajo otros supuestos. Tenemos entonces Γ, B ` C a través de una derivación de n líneas o menos. Por hipótesis, Γ, B |= C, y el teorema de deducción implica que Γ |= B → C. 15.1 La demostración 291 10. A aparece en la línea n + 1 como resultado de aplicar I¬ . En este caso A es de la forma ¬B y la derivación es así: 0 .. . Γ .. . B .. . i .. . C ∧ ¬C j .. . .. . n+1 ¬B I¬ , i– j La línea final cancela únicamente el supuesto de la línea i, por lo que la subderivación i − j no se encuentra bajo otros supuestos. Tenemos entonces Γ, B ` C ∧ ¬C a través de una derivación de n líneas o menos, de modo que por hipótesis Γ, B es insatisfacible. Por esto, todo modelo de Γ es contramodelo de B y por tanto, modelo de ¬B. Se concluye que Γ |= ¬B. 10. A aparece en la línea n + 1 como resultado de aplicar I∀ . En este caso A es de la forma ∀xB(x) y la derivación es así: 0 .. . Γ .. . i .. . B(a) .. . n+1 ∀xB(x) I∀ , i en la que a no aparece en las premisas ni en supuestos abiertos. Como la última línea se obtiene a través de una regla que no cancela supuestos, B(a) no puede depender de supuestos y por lo tanto tenemos Γ ` B(a) a través de una derivación de n líneas o menos, por lo que según nuestra hipótesis, Γ |= B(a), donde a no aparece en ninguna fórmula de Γ que se utilice en la derivación como premisa. Debemos demostrar que en estas condiciones se cumple Γ |= ∀xB(x). Lo haremos por contrarrecíproco. Supongamos que se cumple Γ 2 ∀xB(x), o sea que existe una interpretación M que es modelo de todas las fórmulas de Γ y M (∀xB(x)) =F. Esto nos indica que hay una constante c tal que M + (B(c)) =F. A partir de M construyamos una nueva interpretación N de la siguiente manera: N tiene el mismo dominio que M , y las denotaciones de los símbolos no lógicos son exactamente las mismas + que las que asigna M , con la única excepción de que aN = cM Como solo hemos cambiado el individuo asignado a a y esta constante no aparece en las fórmulas de Γ, se tiene que bajo esta nueva interpretación todas las fórmulas de Γ tienen el mismo valor de verdad que bajo M , o sea V. + Pero como a está asignado al elemento cM será N (B(a)) = M + (B(c))=F (ya que a no aparece en B(x)), contradiciendo Γ |= B(a). Esto demuestra Γ |= ∀xB(x). Capítulo 15. Corrección 292 Los casos en que la última línea aparece como aplicación de E∀ o I∃ son muy sencillos y se dejan como ejercicio. Veamos el último caso posible: 19. A aparece en la línea n + 1 como resultado de aplicar E∃ . En este caso la derivación tiene la forma: 0 .. . Γ .. . i .. . ∃xB(x) .. . j .. . B(a) .. . k .. . C .. . n+1 C E∃ , i, j–k con la constante a ausente de las premisas, de B(x) y de C. La última línea cierra el supuesto de la línea j, que se extiende hasta la línea k. Tenemos, por lo tanto, Γ ` ∃xB(x) y Γ, B(a) ` C a través de derivaciones de n líneas o menos. De acuerdo a nuestra hipótesis, tenemos Γ |= ∃xB(x) y Γ, B(a) |= C, con a ausente de Γ, de B(x) y de C. Debemos demostrar que en esas condiciones se tiene Γ |= C. Sea M un modelo de Γ. Entonces: 1. Si M (B(a)) = V , como Γ, B(a) |= C se tendrá M (C) = V 2. Si M (B(a)) = F, supongamos M (C) = F y llegaremos a una contradicción: Como Γ |= ∃xB(x), existe una constante c para la que M + (B(c)) = V . Consideremos la interpretación N con el mismo dominio que M y que asigna las mismas denotaciones + a los símbolos no lógicos, excepto que aN = cM , por lo que N (B(a)) = V (ya que las denotaciones de los símbolos no lógicos, excepto a, son las mismas que en M , y a no aparece en B(x)). Como la constante a no aparece en las fórmulas de Γ, sus valores de verdad bajo N son los mismos que bajo M o sea, V; como la constante a no aparece en C, su valor de verdad bajo N es el mismo que bajo M , o sea F. Como la interpretación N es modelo de Γ, B(a) y contramodelo de C, esto contradice Γ, B(a) |= C. Por lo tanto, M (C) = V . Con esto hemos demostrado uno de los teoremas centrales de nuestras lógicas, la corrección del sistema de deducción natural para L PO. Es claro que de esta demostración surge el Corolario 15.1.1 El sistema de deducción natural para L P es correcto. 15.2 Consecuencias de la corrección Demostrar la corrección de un sistema cualquiera en que se ha definido una relación de consecuencia semántica y una de consecuencia sintáctica es fundamental. Los sistemas incorrectos, 15.2 Consecuencias de la corrección 293 al menos para propósitos lógicos, divorcian tan fuertemente las nociones de “verdadero” y de “demostrable” que ponen en riesgo su razón de ser, ya que lo demostrable se busca por su valor cognitivo, y tradicionalmente el estado epistémico superior es el conocimiento, asociado a la verdad. Por supuesto que este último punto es filosóficamente discutible, pero aunque así sea, es muy difícil argumentar a favor de los méritos de sistemas incorrectos. En nuestro caso, la búsqueda de la corrección era incipiente en la propia formulación de las reglas, que aunque estaban destinadas a ser puramente sintácticas, fueron elegidas de acuerdo a criterios semánticos. La demostración que acabamos de hacer muestra que no cometimos inadvertidamente algún error al elegirlas. El teorema tiene algunas consecuencias inmediatas: Corolario 15.2.1 Si τ es un teorema entonces τ es una fórmula válida (tautología en la lógica proposicional). Supongamos que Γ ` (A ∧ ¬A), o sea, Γ es inconsistente. Por corrección, Γ |= (A ∧ ¬A), lo que ocurre si y solo si Γ es insatisfacible. Por lo tanto: Corolario 15.2.2 Si un conjunto Γ es inconsistente, entonces es insatisfacible. . lo que implica a su vez que de un conjunto satisfacible es imposible derivar una contradicción. En el próximo capítulo consideraremos la cuestión recíproca, de si la existencia de la relación de consecuencia semántica entre Γ y A asegura que exista una derivación de A a partir de Γ. 16. Compacidad y completitud N este capítulo intentaremos responder preguntas que surgen muy naturalmente de lo que hemos visto, como ¿Existen fórmulas válidas (o tautologías) que no son teoremas? ¿Existen conjuntos consistentes insatisfacibles? Y, en general, ¿Siempre que Γ |= A se tendrá Γ ` A? Como se dijo en la introducción a esta parte, una respuesta negativa a esta última pregunta, o sea, la corroboración de la incompletitud de los sistemas, no parece conllevar los efectos catastróficos que tendría la incorrección. Pero sí marcaría una limitación importante: sencillamente, habría relaciones de consecuencia lógica (entendida como consecuencia semántica) más allá de las capacidades de demostración que nos hemos dado. Si nos viésemos en ese caso, podrían suceder dos cosas: la completitud podría alcanzarse agregando reglas al sistema, o la completitud no sería alcanzable por este camino, y deberíamos resignarnos a la existencia de una brecha entre lo verdadero y lo demostrable. El punto merece una consideración especial. Estamos acostumbrados a pensar que lo verdadero y lo demostrable no siempre coinciden. Es por eso que no todos los culpables de un delito son condenados, aunque sean acusados. Y ningún lector de este libro cree que la proposición “Mi primer paso fue dado con la pierna derecha” sea demostrable, aunque claramente para muchas personas eso es verdadero. Pero nuestro caso es diferente, no se trata de cuestiones fácticas, sino formales. En caso de tener un sistema incompleto, sabríamos de la existencia de proposiciones verdaderas debido a su forma y la de otras, sabidas verdaderas, pero tales que esa verdad escaparía a nuestras posibilidades de evidenciarla si nos restringimos a nuestro sistema formal. Considerar que la brecha se puede saltar agregando reglas nos pone en una tensión importante, debido a que el hipotético agregado de reglas debería hacerse cuidando siempre de mantener la corrección. Si resultara que nuestro sistema es incompleto y el “remedio” que proponemos es incluir la regla de inferencia (que llamaremos “Completadora”) E Regla Completadora A A∧B por supuesto que obtendríamos mágicamente un sistema completo, ya que toda fórmula será consecuencia sintáctica de todo conjunto (demuéstrelo el lector). Pero obviamente, se habrá perdido la corrección. Capítulo 16. Compacidad y completitud 296 Ahora bien, ¿tenemos razones para creer que nuestros sistemas son completos? Tal vez el lector no sepa qué responder. ¿Y tenemos razones para sospechar que no son completos? Quizá esta pregunta sea tan difícil como la anterior. Veamos lo siguiente: Considere el conjunto infinito Γ de proposiciones etiquetadas: Lenguaje natural Traducción a L PO 1 2 .. . Existe al menos un objeto natural Existen al menos dos objetos naturales .. . ∃xNx ∃x∃y(¬x = y ∧ Nx ∧ Ny) .. . ω El conjunto de los objetos naturales es finito ¿? Lo que así representamos contiene un conjunto de infinitas proposiciones, cada una etiquetada con un número natural. La j-ésima proposición expresa que hay al menos j objetos naturales. A este conjunto le agregamos una proposición que etiquetamos con la última letra del alfabeto griego, la que expresa que la cantidad de objetos naturales es finita. Dejemos de lado por el momento el hecho de que no hemos traducido la proposición etiquetada como ω a L PO atribuyéndolo a nuestra falta de habilidad para hacerlo, y supongamos que tenemos una adecuada traducción de ella. Ese conjunto de proposiciones es insatisfacible. Esto es así porque un modelo de la proposición etiquetada como ω necesariamente hará que la denotación del predicado N sea un conjunto finito, que tendrá por tanto una cantidad finita de elementos, digamos k. Pero entonces ese modelo de ω será contramodelo de las proposiciones etiquetadas con los naturales mayores o iguales a k + 1, que exigen a sus modelos que la denotación del predicado N sea un conjunto con más de k elementos. Ahora bien, este conjunto de proposiciones es consistente. La razón para ello es la siguiente: Supongamos que fuera inconsistente. Entonces habría una derivación de una contradicción a partir del conjunto Γ. Pero las derivaciones son secuencias finitas de fórmulas, de modo que en esa derivación habría una cantidad finita de premisas tomadas del conjunto. De ese subconjunto finito de premisas se derivaría la contradicción, o sea, si el conjunto es inconsistente, tiene un subconjunto finito inconsistente. Y por el corolario 15.2.2, ese subconjunto finito de proposiciones de Γ debe ser insatisfacible. Pero es muy fácil ver que todos los subconjuntos finitos de Γ son satisfacibles. Dado cualquier subconjunto finito Γ0 de proposiciones de Γ, para encontrar un modelo de él, en el caso de que Γ0 no tenga proposiciones etiquetadas con un número natural, tome cualquier conjunto como dominio, y asigne como denotación del predicado N al conjunto vacío. Si Γ0 contiene proposiciones etiquetadas con números naturales, considere la proposición de las etiquetadas con números naturales en Γ0 que tenga la etiqueta mayor (siempre habrá una, porque se está tomando un subconjunto finito de proposiciones), y tome como modelo cualquier conjunto con tantos elementos como el número de la etiqueta mayor, asignando como denotación del predicado N todo el conjunto. Sin importar si la proposición ω está o no en Γ0 , esa interpretación será modelo de Γ0 Observe lo que esto implica: como el conjunto Γ es insatisfacible, tiene como consecuencia semántica a una contradicción. Pero como es consistente, no tiene como consecuencia sintáctica a una contradicción. ¿Hemos demostrado que nuestro sistema para L PO es incompleto? 16.1 Compacidad Dilatemos un poco la respuesta a esta última pregunta, y consideremos otro aspecto que surge de este ejemplo tan extraño que acabamos de examinar. Está muy claro que la “mostración” de que no hay coincidencia entre la relaciones de consecuencia semántica y consecuencia sintáctica se apoyó en forma absoluta en el hecho de que el conjunto Γ es infinito y las derivaciones son objetos finitos, que contienen una cantidad finita de fórmulas. 16.1 Compacidad 297 Lo que está sucediendo en este caso es que tenemos un conjunto con esta extraña propiedad: es insatisfacible pero todos sus subconjuntos finitos son satisfacibles. Es claro que una lógica que permita expresar todas las proposiciones del conjunto Γ considerado cumplirá que en ella existirán conjuntos con esa propiedad. Hay una definición técnica relativa a la cuestión: Definición 16.1.1 Una relación de consecuencia semántica es compacta si la satisfacibilidad de todo conjunto de fórmulas es equivalente a la satisfacibilidad de cada uno de sus subconjuntos finitos. Es decir, si la relación de consecuencia semántica es compacta, nunca ocurre que se toma un conjunto finito satisfacible, se le van agregando fórmulas de a una, obteniendo luego de cada agregado un conjunto satisfacible, y el resultado de agregar infinitas fórmulas es insatisfacible. Si obtenemos un conjunto infinito insatisfacible, alguno de sus subconjuntos finitos debe serlo también. Lo primero que haremos será demostrar que la consecuencia semántica para L P es compacta. 16.1.1 Compacidad de L P La idea de la demostración es bastante simple. Lo que debemos mostrar es que cualquier conjunto Γ de fórmulas de L P tal que todos sus subconjuntos finitos son satisfacibles, es satisfacible. Lo haremos suponiendo que tenemos un conjunto Γ con esa característica de que todos sus subconjuntos finitos son satisfacibles, y mostrando que hay un conjunto ∆ que es satisfacible e incluye a Γ. Como todos los subconjuntos de un conjunto satisfacible son satisfacibles, el teorema quedaría demostrado al evidenciar el conjunto ∆. Para hacerlo, necesitamos un lema, que nos asegurará que ciertos conjuntos son satisfacibles. Esos conjuntos serán llamados conjuntos de Hintikka. El plan de la demostración será entonces definir lo que es un conjunto de Hintikka, mostrar que todos los conjuntos de Hintikka son satisfacibles, y finalmente mostrar que, dado un conjunto Γ tal que todos sus subconjuntos finitos son satisfacibles, existe un conjunto ∆ de Hintikka que incluye a Γ. Para que se comprenda la idea de la demostración cabalmente, necesitamos motivar la definición que daremos, y eso será nuestro próximo cometido. Fórmulas de tipo A y fórmulas de tipo B Advertencia importante En todo lo que sigue, se hará caso omiso del bicondicional. Se tratará una fórmula de la forma A ↔ B como (A → B) ∧ (B → A), lo que es semánticamente adecuado ya que son fórmulas equivalentes, y desde el punto de vista sintáctico se puede obtener la primera a partir de la segunda y recíprocamente. Observe que todas las fórmulas de la lógica proposicional tienen alguna de las siguientes formas: – – A1 A2 A3 A4 B1 B2 B3 pn ¬pn ¬¬X X ∧Y ¬(X ∨Y ) ¬(X → Y ) ¬(X ∧Y ) X ∨Y X →Y En la tabla se observa que, excluyendo las letras proposicionales y las letras proposicionales negadas, toda fórmula de L P se ha clasificado como de una forma A o de una forma B. Tenemos cuatro formas de tipo A que se subindizan con los numerales del 1 al 4. El punto de esta clasificación es el siguiente: cualquier interpretación que haga verdadera una fórmula de tipo A, hará verdaderas una o dos fórmulas según la tabla siguiente, en la que, bajo la fórmula de tipo A considerada, se muestran las que deben ser verdaderas si la primera lo es: Capítulo 16. Compacidad y completitud 298 Forma A1 Forma A2 Forma A3 Forma A4 ¬¬X X ∧Y ¬(X ∨Y ) ¬(X → Y ) X X Y ¬X ¬Y X ¬Y Como es muy sencillo comprobar, todas las fórmulas que se encuentran bajo la barra están implicadas por la que se encuentra arriba de ella, y la complejidad de las fórmulas bajo la barra es menor que la de la fórmula original, medida según la cantidad de conectivos lógicos. Además la condición es recíproca: si la o las fórmulas que se encuentran bajo la barra son verdaderas en una interpretación, la fórmula que se encuentra sobre ella también lo será. Con respecto a las fórmulas que hemos clasificado como de tipo B no podemos decir lo mismo. El hecho de que una interpretación las haga verdaderas no implica que otras fórmulas más simples que ellas lo serán. Pero sí implica que al menos una de entre dos fórmulas será verdadera bajo esa interpretación. Esto se muestra en la tabla siguiente Forma B1 Forma B2 Forma B3 ¬(X ∧Y ) X ∨Y X →Y ¬X | ¬Y X |Y ¬X | Y donde bajo la barra horizontal se muestran, separadas por una barra vertical, las dos fórmulas de las cuales al menos una será verdadera en todo modelo de la fórmula original, y que son menos complejas sintácticamente que esta. Nuevamente, la condición es recíproca: si al menos una de las fórmulas separadas por la barra vertical son verdaderas bajo una interpretación, también lo será la fórmula que se encuentra sobre la barra horizontal. Resumiendo e introduciendo algunos términos útiles: Toda fórmula F de L P que no es una letra proposicional o una letra proposicional negada es o bien de tipo A o bien de tipo B, y en el primer caso se pueden encontrar dos fórmulas α1 y α2 a , y en el segundo dos fórmulas o β1 y β2 tales que: 1. α1 y α2 (β1 y β2 ) son menos complejas que F (midiendo la complejidad por la cantidad de conectivos lógicos). 2. F de tipo A, es verdadera bajo una interpretación si y solo si α1 y α2 lo son, y F de tipo B es verdadera bajo una interpretación si y solo si al menos una de entre β1 y β2 lo es. a En el caso de que F = ¬¬X, consideramos α1 = α2 = X, por uniformidad. Con esto estamos en condiciones de definir los conjuntos de Hintikka, que serán la pieza fundamental de nuestra demostración de la compacidad de L P. Conjuntos de Hintikka Definición 16.1.2 [Conjunto de Hintikka] Sea ∆ un conjunto de fórmulas de L P. ∆ es un conjunto de Hintikka si y solo si se cumple: 1. Para ninguna letra proposicional p, tanto p como ¬p son elementos de ∆. 2. Si F es de tipo A y es elemento de ∆, entonces tanto α1 como α2 son elementos de ∆. 3. Si F es de tipo B y es elemento de ∆, entonces al menos una de β1 y β2 son elementos de ∆. 16.1 Compacidad 299 Como advertimos, el centro de todo este desarrollo está dado por el siguiente Lema 16.1.1 [Lema de Hintikka] Todo conjunto de Hintikka es satisfacible. Demostración: Sea ∆ un conjunto de Hintikka y sea I una interpretación tal que I(p) =V si la letra proposicional p es elemento de ∆, e I(p) =F si la fórmula ¬p es elemento de S, y asigna V a todas las otras letras proposicionales, aquellas que no son elementos de ∆ ni su negación lo es. Es claro que I hace verdaderas a todas las fórmulas de ∆ que no son de tipo A ni B. Supongamos que F es una fórmula de grado de complejidad mayor que las letras proposicionales o las letras proposicionales negadas, y que todas las fórmulas de grado menor de complejidad que F son verdaderas bajo I. Entonces F es de tipo A o de tipo B. Si es de tipo A, como ∆ es de Hintikka, α1 y α2 están en ∆, y al ser de complejidad menor que F son ambas verdaderas bajo I, por lo que F es verdadera bajo I. Si es de tipo B, como ∆ es de Hintikka, al menos una de entre β1 y β2 está en ∆, y al ser de complejidad menor que F es verdadera bajo I, por lo que F es verdadera bajo I. Por lo tanto, I es modelo de ∆ y ∆ es satisfacible. 16.1.2 El teorema de compacidad Finalmente estamos en condiciones de demostrar el Teorema 16.1.2 — Compacidad para la lógica proposicional. Sea Γ un conjunto de fór- mulas de L P tal que todo subconjunto finito de Γ es satisfacible. Entonces Γ es satisfacible. Demostración: La idea de la demostración es la ya adelantada: dado un conjunto Γ en las condiciones del teorema, se construirá un conjunto ∆ que lo incluya y sea de Hintikka. Sabemos que las fórmulas de L P son o bien letras proposicionales, o bien letras proposicionales negadas o bien fórmulas de tipo A o bien de tipo B. Consideremos ahora un conjunto S cualquiera de fórmulas. Las siguientes propiedades son muy fácilmente demostrables: i Si S es satisfacible, ninguna letra proposicional y su negación son ambas elementos de S. ii Si S, F 1 es satisfacible y F es de forma A, entonces S, α1 , α2 es satisfacible. iii Si S, F es satisfacible y F es de forma B, entonces a menos uno de S, β1 y S, β2 es satisfacible. Sea entonces Γ un conjunto que cumple que todos sus subconjuntos finitos son satisfacibles. Queremos demostrar que Γ es satisfacible. Si Γ es finito, no hay nada que agregar, ya que el propio Γ es uno de sus subconjuntos finitos. Si Γ es infinito, dispongamos sus fórmulas en una secuencia infinita F1 , F2 , F3 , ..., Fn , ... Vamos a construir otra secuencia infinita G1 , G2 , G3 , ..., Gn , ... entre cuyos términos se cuenten todas las fórmulas de Γ, y tal que el conjunto de todos sus términos sea demostrablemente de Hintikka. El procedimiento es el siguiente: En el primer paso damos el primer término de la secuencia a construir. Es G1 = F1 Lo que agreguemos a la secuencia a construir en el paso n + 1 dependerá exclusivamente de la fórmula Gn , así: • Si Gn es de tipo A, agregamos a la secuencia las fórmulas α1 y α2 (obtenidas de Gn ) y Fn+1 . Por ii, y debido a que todos los subconjuntos finitos de Γ son satisfacibles, si el conjunto de los términos de la secuencia era satisfacible antes del agregado, lo será el de los de la secuencia obtenida después del agregado. 1 Recuerde el lector que S, F significa S ∪ {F}. Capítulo 16. Compacidad y completitud 300 • Si Gn es de tipo B, y la secuencia construida en el paso n-ésimo es G1 , ..., Gn , ...,Gn+i , siendo el conjunto de esas fórmulas satisfacible, es necesario que el conjunto de las fórmulas G1 , ..., Gn , ...,Gn+i , β1 , Fn+1 sea satisfacible o que el de las fórmulas, G1 , ..., Gn , ...,Gn+i , β2 , Fn+1 lo sea (por iii, con β1 y β2 obtenidas de Gn , y la satisfacibilidad de todos los subconjuntos finitos de Γ). Si se da el primer caso, agregamos a la secuencia β1 y Fn+1 , si no se da, agregamos a la secuencia β2 y Fn+1 . • Si Gn no es de tipo A ni B, agregamos a la secuencia Fn+1 Por la forma de construcción, es claro que: Cada Fi es elemento del conjunto de términos de G1 , G2 , G3 , ..., Gn , ..., ya que fue introducida en el i-ésimo paso. Para toda fórmula de la secuencia, si es de tipo A, en la secuencia figuran tanto α1 como α2 , y si es de tipo B en la secuencia figura β1 o β2 . Como para cada i el conjunto de las fórmulas G1 , ..., Gi es satisfacible, no puede haber entre los términos de la secuencia de las Gn una letra proposicional y su negación. Estos tres puntos demuestran que el conjunto de términos de la secuencia G1 , ..., Gn ,... es de Hintikka, y por lo tanto, satisfacible. Γ es subconjunto de él, y por ende, también satisfacible. Eso termina la demostración. Podríamos preguntarnos ahora si L PO también es compacta, pero diferiremos las consideraciones sobre ese punto para seguir concentrados en L P. El resultado que acabamos de demostrar indica que L P no tiene la potencia necesaria para expresar los enunciados del ejemplo con que abrimos el capítulo, en el que se sugería un conjunto insatisfacible con todos sus subconjuntos finitos satisfacibles. Por supuesto, cuando decimos que no tiene la potencia necesaria para expresar esos enunciados, queremos decir que no puede capturar los aspectos formales que hacen que el conjunto sea insatisfacible. No es algo que sorprenda en lo más mínimo, ya que no sabríamos cómo encontrar una traducción a L P adecuada en ese sentido siquiera de uno de los enunciados propuestos. Pero lo hecho comporta una demostración terminante de la limitación expresiva de ese lenguaje. El siguiente problema que nos debería llamar la atención es la completitud o incompletitud de L P. Quizá dentro de sus limitaciones expresivas, el sistema deductivo que nos hemos dado para ese lenguaje sea capaz de obtener como consecuencia sintáctica a partir de un conjunto todo aquello que sea consecuencia semántica de él. Esto es así, y al establecimiento de ese importante resultado dedicaremos lo sigue. 16.2 Completitud de L P Nuestro objetivo en esta parte será demostrar que Γ |=L P A implica Γ `L P A. La idea será demostrar que dada cualquier tautología, existe una derivación de ella a partir del conjunto vacío. Si logramos demostrar esto, quedará asegurado que dado un conjunto Γ finito de fórmulas de L P y una fórmula A, si Γ |= A existe una derivación de A a partir de Γ. Veámoslo: Sea Γ = {A1 , ..., An } y A una fórmula. Entonces, según lo visto en la sección 6.6, {A1 , ..., An } |= A si y solo si el condicional asociado (A1 ∧ ... ∧ An ) → A es una tautología. Suponiendo que hemos demostrado que existe una derivación de toda tautología a partir del conjunto vacío, ese condicional se puede introducir en cualquier línea de una derivación usando la regla derivada de introducción de teoremas. Esto nos permite construir la siguiente derivación: 16.2 Completitud de L P 301 1 A1 2 .. . A2 .. . n An n+1 .. . A1 ∧ A2 .. . I∧ , 1, 2 2n − 1 A1 ∧ A2 ∧ ... ∧ An I∧ , n, 2n − 2 2n (A1 ∧ ... ∧ An ) → A Teorema 2n + 1 A E→ , 2n − 1, 2n con lo que queda claro que todas las consecuencias semánticas de conjuntos finitos son consecuencias sintácticas de ellos. En caso de que Γ sea infinito y A sea consecuencia semántica de él, también –suponiendo que todas las tautologías son teoremas– podremos encontrar una derivación de A a partir de Γ. Esto se muestra con el siguiente razonamiento: Si Γ |= A, entonces el conjunto Γ, ¬A es insatisfacible. Por compacidad, tenemos que un subconjunto finito de Γ, ¬A; al que llamaremos Γ0 , ¬A es insatisfacible. Entonces ese conjunto finito tiene como consecuencia semántica una contradicción, y por lo que acabamos de ver, es inconsistente. El teorema del absurdo asegura que Γ0 ` A, lo que a su vez implica Γ ` A por monotonía. Por lo tanto la completitud de L P quedará demostrada apenas demostremos que toda tautología es un teorema. 16.2.1 La idea de la demostración La idea de la demostración de este teorema proviene de [Smu95a], donde el resultado se demuestra para otro sistema deductivo, las tablas analíticas. Lo que se presentará aquí es una adaptación de la idea a nuestro sistema. Demostraremos que dada cualquier tautología τ, existe una derivación a partir del conjunto vacío que tiene esta forma: 1 .. . ¬τ .. . n B ∧ ¬B n+1 ¬¬τ I¬ , 1–n n+2 τ E¬ , n + 1 Por supuesto, esto se reduce a demostrar la existencia de la derivación de las líneas 1 a n, o sea, a demostrar que dada cualquier tautología τ, hay una derivación de una contradicción a partir del conjunto {¬τ}. Capítulo 16. Compacidad y completitud 302 En ese intento, lo que haremos será lo siguiente: mostraremos que si en una derivación aparece una fórmula de tipo A, se pueden agregar a la derivación líneas que contienen α1 y α2 , y si aparece una fórmula de tipo B que no sea una disyunción, se puede agregar a la derivación una línea con la disyunción de β1 y β2 . Para cada una de estas disyunciones se pueden introducir dos líneas, cada una de las cuales tiene un disyunto como supuesto. Si repetimos el procedimiento debemos terminar en algún momento, porque estamos produciendo fórmulas de complejidad cada vez menor, hasta obtener un conjunto de letras proposicionales y letras proposicionales negadas. Veremos luego qué podemos inferir de ello. Comencemos considerando las fórmulas F de tipo A. Tenemos cuatro casos: 1. Si en una línea de una derivación aparece F de tipo A1 , entonces F = ¬¬X. La regla E¬ nos permite agregar X, que es tanto α1 como α2 . 2. Si en una línea de una derivación aparece F de tipo A2 , entonces F = X ∧Y . La regla E∧ nos permite agregar X, que es α1 y también Y que es α2 . 3. Si en una línea de una derivación aparece F de tipo A3 , entonces F = ¬(X ∨Y ). El siguiente esquema muestra que podemos agregar ¬X, que es α1 y también ¬Y que es α2 : 1 ¬(X ∨Y ) 2 (¬X ∧ ¬Y ) De Morgan, 1 3 ¬X E∧ , 2 4 ¬Y E∧ , 2 4. Si en una línea de una derivación aparece F de tipo A4 , entonces F = ¬(X → Y ). El siguiente esquema muestra que podemos agregar X, que es α1 y también ¬Y que es α2 : 1 ¬(X → Y ) 2 ¬X 3 X 4 X ∧ ¬X I∧ , 2, 3 5 Y ECQ, 4 6 X →Y I→ , 3–5 7 (X → Y ) ∧ ¬(X → Y ) I∧ , 6, 1 8 ¬¬X I¬ , 2–7 9 X E¬ , 8 10 Y 11 X 12 Y Repetición, 10 16.2 Completitud de L P 303 13 X →Y I→ , 11–12 14 (X → Y ) ∧ ¬(X → Y ) I∧ , 13, 1 ¬Y 15 I¬ , 10–14 En este punto podemos aclarar un poco la idea de la demostración. Si en el lenguaje solo existieran fórmulas de tipo A, la demostración sería muy sencilla: En ese caso, podríamos esperar que partiendo de una fórmula cualquiera, pudiésemos ir obteniendo fórmulas más simples que serán verdaderas si la original lo es y recíprocamente y agregándolas en líneas de una derivación. Ese proceso de ir reduciendo la complejidad de las fórmulas debería detenerse en letras proposicionales o en letras proposicionales negadas. Pero si la fórmula original fuese una contradicción en sentido semántico, o sea, si ninguna interpretación la hiciera verdadera, tampoco habría interpretación alguna que hiciera verdadero al conjunto de todas las letras proposicionales o letras proposicionales negadas obtenidas al final del proceso. Para que eso suceda, es necesario que en ese conjunto se encuentre un par formado por una letra proposicional y su negación. Y si ese proceso de ir agregando a la derivación fórmulas cada vez más simples nos lleva a agregar un par así, por introducción de la conjunción podemos obtener la contradicción deseada. Por supuesto, esto comportaría la derivación de la negación de la contradicción en sentido semántico de la que partimos. Si esto fuera todo, tendríamos un mecanismo sencillo para derivar cualquier tautología: partimos de su negación como supuesto, seguimos el proceso indicado, llegamos a obtener una letra proposicional y su negación, aplicamos introducción de la conjunción para obtener una contradicción en sentido sintáctico, seguida de introducción de la negación, lo que nos da la tautología doblemente negada, y luego aplicamos eliminación de la negación. Podemos verlo en un ejemplo: Si quisiéramos demostrar la tautología ((p ∧ q) → p), partiríamos de ¬((p ∧ q) → p)) (16.1) que es de forma A4 , por que que sabemos que hay una derivación comenzada en ella en la que sucesivamente aparecen las fórmulas p ∧ q y ¬p: 1 .. . ¬((p ∧ q) → p)) .. . i .. . p∧q .. . j .. . ¬p .. . Como p ∧ q es de forma A2 sabemos que podemos agregar a la derivación las fórmulas p y q: Capítulo 16. Compacidad y completitud 304 1 .. . ¬((p ∧ q) → p)) .. . i .. . p∧q .. . j .. . ¬p .. . k .. . p .. . l .. . q .. . Con lo que hemos llegado a un conjunto de letras y letras proposicionales negadas cuyos modelos coinciden con los de la fórmula de partida. Pero ese conjunto es, en este caso, {p, ¬p, q}, el que es insatisfacible. En un conjunto de letras y letras proposicionales negadas insatisfacible siempre tiene que haber una letra y su negación, de modo que por regla I∧ podemos construir una contradicción en sentido sintáctico y a partir de allí derivar la tautología que nos interesaba: 1 .. . ¬((p ∧ q) → p)) .. . i .. . p∧q .. . j .. . ¬p .. . k .. . p .. . l q l +1 p ∧ ¬p I∧ , k, j l +2 ¬¬((p ∧ q) → p)) I¬ , 1–l + 1 l +3 (p ∧ q) → p E¬ , l + 2 Si las cosas fuesen simples, la demostración de que todas las tautologías se pueden derivar consistiría en demostrar que toda fórmula puede, en una derivación, generar un conjunto de letras proposicionales o letras proposicionales negadas que será satisfacible si y solo si la fórmula lo es del modo que acabamos de ejemplificar. Esto sería sencillo si las únicas formas de fórmulas fuesen 16.2 Completitud de L P 305 las que hemos nombrado con una A subindizada. Pero las cosas no son tan simples porque existen las fórmulas de las formas que hemos nombrado con una B subindizada. De manera que tenemos que atender lo que implica su aparición en una derivación. Para las fórmulas de tipo B, el resultado que necesitamos es que si aparecen en un línea de una derivación, entonces siempre se puede agregar a la derivación una línea que sea la disyunción de β1 y β2 , en el caso de que la fórmula no sea ya de tipo B2 , o sea, una disyunción. Solo tenemos que demostrarlo para las fórmulas de tipo B1 y B3 : 1. Si en una línea de una derivación aparece F de tipo B1 , entonces F = ¬(X ∧ Y ). La regla derivada De Morgan nos permite agregar ¬X ∨ ¬Y , que es la disyunción de β1 y β2 . 2. Si en una línea de una derivación aparece F de tipo B3 , entonces F = X → Y . El siguiente esquema muestra que podemos agregar ¬X ∨Y , que es la disyunción de β1 y β2 : 1 X →Y 2 ¬(¬X ∨Y ) 3 X ∨ ¬X LTE 4 X 5 Y E→ , 4, 1 6 ¬X ∨Y I∨ , 5 7 (¬X ∨Y ) ∧ ¬(¬X ∨Y ) I∧ , 6, 2 8 ¬X 9 ¬X ∨Y I∨ , 8 10 (¬X ∨Y ) ∧ ¬(¬X ∨Y ) I∧ , 9, 2 11 (¬X ∨Y ) ∧ ¬(¬X ∨Y ) E∨ , 3, 4–7, 8–10 12 ¬¬(¬X ∨Y ) I¬ , 2–11 13 ¬X ∨Y E¬ , 12 La regla de eliminación de la disyunción nos exige hacer dos supuestos más simples que la disyunción misma, a saber, los disyuntos de la disyunción dada. Si se llega a una consecuencia común C a partir de esos supuestos, se elimina la disyunción, pudiéndose agregar C a la derivación. Por supuesto, desde el punto de vista semántico, la disyunción será verdadera si y solo si al menos uno de sus disyuntos lo es. Si logramos mostrar que, en una derivación sin premisas que tenga como supuesto inicial la negación de una tautología cualquiera, si cada vez que encontramos una fórmula de tipo A agregamos a la derivación las fórmulas que su tipo nos permite (lo que podemos considerar reglas derivadas), y cada vez que encontramos una fórmula de tipo B, si no es de tipo B2 agregamos a la derivación la disyunción correspondiente (lo que también se puede considerar una regla derivada), y cada vez que encontramos una disyunción abrimos un supuesto con su disyunto izquierdo, y continuamos así hasta tener solamente letras proposicionales, y luego abrimos un supuesto con su supuesto derecho, y continuamos así hasta solamente tener letras proposicionales (haciendo las iteraciones que sean necesarias), llegaremos a que en cada subderivación bajo cada supuesto se encuentra una letra proposicional y esa misma letra negada, habremos demostrado lo que queremos. Capítulo 16. Compacidad y completitud 306 – – A1 A2 A3 A4 B1 B2 B3 pn ¬pn ¬¬X X ∧Y ¬(X ∨Y ) ¬(X → Y ) ¬(X ∧Y ) X ∨Y X →Y – – X X ¬X X ¬X ∨ ¬Y ¬X ∨Y Y ¬Y ¬Y [X] .. . [Y ]a .. . a Este supuesto se agrega luego de terminar todas las subderivaciones dependientes del primero. Antes de pasar a la demostración, mostremos un ejemplo, para aclarar la idea. Recapitulemos qué agregamos a la derivación al encontrar cada fórmula. Tomemos la tautología (p → (q → r)) → (((p → q) → (p → r)), y mostremos que hay una derivación iniciada en el supuesto ¬(p → (q → r)) → (((p → q) → (p → r)), en la que aplicando el procedimiento descrito, se llega a tener una letra proposicional y su negación en cada subderivación abierta por supuestos (o en la propia derivación caso de no haber supuestos). A partir de esas letras se pueden introducir contradicciones que cierran los supuestos abiertos en las disyunciones, de modo que el supuesto inicial cierra en contradicción, y la regla I¬ seguida de E¬ termina dando la tautología. La idea de la demostración es probar que esto sucede con toda tautología. 1 ¬((p → (q → r)) → (((p → q) → (p → r))) 2 (p → (q → r)) A4 , 1 3 ¬((p → q) → (p → r)) A4 , 1 Extrajimos lo que se puede agregar de la línea 1, y esta línea no volverá a ser usada hasta casi el final, para introducir la negación del supuesto que contiene. La línea 2 tiene una fórmula de tipo B, que debe ser convertida a una disyunción, y la línea 3 una de tipo A, que arroja otras dos líneas: 1 ¬((p → (q → r)) → (((p → q) → (p → r))) 2 (p → (q → r)) A4 , 1 3 ¬((p → q) → (p → r)) A4 , 1 4 (¬p ∨ (q → r)) B3 , 2 5 p→q A4 , 3 6 ¬(p → r) A4 , 3 La primera fórmula que no hemos usado es la de la línea 4, una disyunción. Abrimos como supuesto su disyunto izquierdo y continuamos el procedimiento hasta llegar a una letra proposicional y esa misma letra negada, con lo que construimos una contradicción usando I¬ . Luego volvemos a usar esa disyunción agregando el otro supuesto e iterando: 16.2 Completitud de L P 307 1 ¬((p → (q → r)) → (((p → q) → (p → r))) 2 (p → (q → r)) A4 , 1 3 ¬((p → q) → (p → r)) A4 , 1 4 (¬p ∨ (q → r)) B3 , 2 5 p→q A4 , 3 6 ¬(p → r) A4 , 3 7 ¬p 8 ¬p ∨ q B3 , 5 9 p A4 , 3 Y hemos obtenido lo que buscábamos: una línea con una letra proposicional y otra con la misma letra negada. Construimos la contradicción, cerramos el supuesto y abrimos otro con el disyunto restante de 4: 1 ¬((p → (q → r)) → (((p → q) → (p → r))) 2 (p → (q → r)) A4 , 1 3 ¬((p → q) → (p → r)) A4 , 1 4 (¬p ∨ (q → r)) B3 , 2 5 p→q A4 , 3 6 ¬(p → r) A4 , 3 7 ¬p 8 ¬p ∨ q B3 , 5 9 p A4 , 3 10 p ∧ ¬p I∧ , 7, 9 11 q→r Al volver a la fórmula de la línea 4 para tomar su otro disyunto como supuesto debemos considerar nuevamente las fórmulas que le siguen , excepto las que quedaron en la subderivación iniciada con el supuesto del primer disyunto y finalizada con la contradicción: Capítulo 16. Compacidad y completitud 308 1 ¬((p → (q → r)) → (((p → q) → (p → r))) 2 (p → (q → r)) A4 , 1 3 ¬((p → q) → (p → r)) A4 , 1 4 (¬p ∨ (q → r)) B3 , 2 5 p→q A4 , 3 6 ¬(p → r) A4 , 3 7 ¬p 8 ¬p ∨ q B3 , 5 9 p A4 , 6 10 p ∧ ¬p I∧ , 7, 9 11 q→r 12 ¬p ∨ q B3 , 5 13 p A4 , 6 14 ¬r A4 , 6 15 ¬q ∨ r B3 , 11 En este punto se llega a la línea 12, que tiene una disyunción, se debe tomar primero uno de sus disyuntos, continuar hasta hallar contradicción, y luego el otro disyunto y seguir hasta una contradicción. Luego de hacer todas las iteraciones necesarias se podrá cerrar el supuesto de la línea 11. 1 ¬((p → (q → r)) → (((p → q) → (p → r))) 2 (p → (q → r)) A4 , 1 3 ¬((p → q) → (p → r)) A4 , 1 4 (¬p ∨ (q → r)) B3 , 2 5 p→q A4 , 3 6 ¬(p → r) A4 , 3 7 ¬p 8 ¬p ∨ q B3 , 5 9 p A4 , 6 10 p ∧ ¬p I∧ , 7, 9 16.2 Completitud de L P 309 11 q→r 12 ¬p ∨ q B3 , 5 13 p A4 , 6 14 ¬r A4 , 6 15 ¬q ∨ r B3 , 11 16 ¬p 17 p ∧ ¬p 18 q 19 ¬q 20 q ∧ ¬q I∧ , 13, 16 I∧ , 18, 19 El supuesto q de la línea 18 es el segundo disyunto de la fórmula de la línea 12. Nos permite llegar a la contradicción q ∧ ¬q, pero como la regla de eliminación de la disyunción, que es la que usaremos para cerrar todos estos supuestos, requiere que se llegue a la misma fórmula en las subderivaciones en que se aplica, aplicamos ECQ para obtener la misma contradicción que ya hemos obtenido anteriormente, de forma de poder luego cerrar los supuestos, y lo mismo hacemos con la subderivación que se abre bajo el supuesto del segundo disyunto de la línea 15: 1 ¬((p → (q → r)) → (((p → q) → (p → r))) 2 (p → (q → r)) A4 , 1 3 ¬((p → q) → (p → r)) A4 , 1 4 (¬p ∨ (q → r)) B3 , 2 5 p→q A4 , 3 6 ¬(p → r) A4 , 3 7 ¬p 8 ¬p ∨ q B3 , 5 9 p A4 , 6 10 p ∧ ¬p I∧ , 7, 9 11 q→r 12 ¬p ∨ q B3 , 5 13 p A4 , 6 14 ¬r A4 , 6 Capítulo 16. Compacidad y completitud 310 15 ¬q ∨ r B3 , 11 16 ¬p 17 p ∧ ¬p 18 q I∧ , 13, 16 19 ¬q 20 q ∧ ¬q I∧ , 18, 19 21 p ∧ ¬p ECQ, 20 22 r 23 r ∧ ¬r I∧ , 22, 14 24 p ∧ ¬p ECQ, 23 p ∧ ¬p 25 26 27 p ∧ ¬p p ∧ ¬p E∨ , 15, 18–21, 22–24 E∨ , 12, 16–17, 18–25 E∨ , 4, 7–10, 11–26 28 ¬¬((p → (q → r)) → (((p → q) → (p → r))) I¬ , 1–28 29 (p → (q → r)) → (((p → q) → (p → r)) E¬ , 29 El lector observará dos cosas: la primera, que esto no es una derivación, sino la indicación de la existencia de una derivación con determinadas características. La segunda, que la derivación indicada, de formato rígido, es mucho más larga que lo necesario para demostrar esa tautología (el lector puede probar suponiendo el antecedente de la tautología en cuestión y verá que no se necesita algo tan largo). Debe haber quedado claro que de lo listado a continuación, probaremos 3 usando 1 y 2: 1. Toda fórmula F que no es una letra proposicional o una letra proposicional negada es o bien de tipo A o bien de tipo B, y en el primer caso se pueden encontrar dos fórmulas α1 y α2 , y en el segundo dos fórmulas o β1 y β2 tales que: a) α1 y α2 (β1 y β2 ) son menos complejas que F (la complejidad medida por la cantidad de conectivos lógicos). b) Si F es de tipo A, es verdadera bajo una interpretación si y solo si α1 y α2 lo son, y si F de tipo es verdadera bajo una interpretación si y solo si al menos una de entre β1 y β2 lo es. 2. Nuestras reglas de inferencia nos permiten, en cualquier derivación, agregar una línea con α1 y otra con α2 luego de cualquier fórmula de tipo A, y una línea con la disyunción β1 ∨ β2 luego de cualquier fórmula de tipo B. 3. Dada una tautología τ cualquiera, existe una derivación que comienza con el supuesto ¬τ, y llega a una contradicción solo dependiente de ese supuesto. 16.2.2 El teorema de completitud para L P Teorema 16.2.1 — Completitud del sistema de deducción natural para la L P. Toda tautología es un teorema. 16.2 Completitud de L P 311 Demostración: Ya sabemos que si partimos de una fórmula, y construimos una secuencia agre- gando α1 y α2 por cada fórmula de tipo A que encontramos en la secuencia, y una de entre β1 y β2 por cada fórmula de tipo B que encontramos en la secuencia, “usando” todas las fórmulas exactamente una vez para obtener α1 y α2 o una de entre β1 y β2 , es inevitable que la secuencia sea finita. Esto es así porque en cada paso se agregan como máximo dos fórmulas de complejidad menor que la fórmula que permite su introducción. En algún punto de la secuencia ya se habrán usado todas las fórmulas de tipo A o B y la secuencia tendrá un último término. Como se verá y el lector ya debería sospechar, los conjuntos de Hintikka tienen un papel fundamental en la demostración: Sea una tautología cualquiera τ. Una derivación construida siguiendo estas normas carece de premisas y tiene a τ en su última línea: 1. La primera línea contiene el supuesto ¬τ. 2. En cada paso, siempre que sea posible, se agregarán dos líneas, una con α1 y otra con α2 por cada fórmula de tipo A que haya en las líneas que fueron introducidas en el paso anterior como aplicación de estas normas y una línea con la disyunción β1 ∨ β2 por cada fórmula de tipo B que haya sido introducida en el paso anterior como aplicación de estas normas2 . 3. Cuando ya todas las fórmulas de tipo A que se van generando hayan a su vez generado líneas con α1 y α2 y solo queden disyunciones o letras proposicionales o letras proposicionales negadas sin generar nuevas líneas, se agregará como supuesto el primer disyunto de la primera disyunción que aparezca en la secuencia y no haya generado una línea. Se iterará la norma 2 y luego la 3. 4. Cuando la iteración no sea posible porque en cada línea hemos ido reduciendo la complejidad de las fórmulas que le daban origen, estaremos trabajando bajo los supuestos que son primeros disyuntos de cada una de las disyunciones que encontramos o construimos. Ahora bien, el conjunto de las líneas que incluimos por las normas es un conjunto que cumple que si una fórmula de tipo A le pertenece, también le pertenecen α1 y α2 , y si una fórmula de tipo B le pertenece, también le pertenece al menos una de entre β1 y β2 . Entonces, por el lema de Hintikka, si el conjunto de líneas que hemos agregado no tiene una letra proposicional y su negación, es satisfacible. ¡Pero el conjunto no puede ser satisfacible porque ¬τ es uno de sus elementos! De modo que entre las líneas que agregamos hay una que contiene una letra proposicional y otra que contiene a su negación. Usando la regla I∧ introducimos la conjunción de las fórmulas de esas dos líneas, generando una contradicción. 5. Dejamos de trabajar sobre el último supuesto y abrimos otro, que sea el segundo disyunto de la última disyunción usada, siempre en el mismo nivel en que estaba el primero. 6. Iteramos las normas 2, 3, 4 y 5 en la última subderivación abierta. De este modo, todos los disyuntos de cada disyunción aparecerán como supuestos, ya que el proceso debe tener fin porque siempre es se obtienen fórmulas de complejidad decreciente excepto cuando se introducen las contradicciones, pero ahí termina localmente la subderivación, y bajo cada uno de esos supuestos se derivará una contradicción, por el mismo argumento recién expuesto. Se necesita que sea la misma en todas las subderivaciones, de modo que si es necesario, se aplicará ECQ para obtener siempre la misma contradicción bajo todo supuesto. Mediante la aplicación repetida de E∨ se obtendrán las contradicciones libres de los supuestos β1 y β2 iterativamente, hasta que solo dependa esa contradicción del supuesto ¬τ. Entonces, la aplicación de I¬ en la subderivación de 1 hasta la última línea que tenemos da ¬¬τ y la aplicación de E¬ a esta fórmula termina la derivación de τ. Los teoremas de corrección y completitud nos permiten afirmar que L P tiene un excelente comportamiento: 2 Es decir, no se consideran las líneas necesarias para, apegándose a las reglas del sistema de deducción natural, introducir las fórmulas pedidas sin usar reglas derivadas. 312 Capítulo 16. Compacidad y completitud Γ |=L P A si y solo si Γ `L P A Esto nos asegura, entre otras cosas, que el sistema de deducción natural para L P se comporta bien en un sentido que nos preocupaba: es siempre posible, a partir de una contradicción en sentido semántico, derivar una en sentido sintáctico. Otra consecuencia de la completitud es que para demostrar que un conjunto no tiene como consecuencia sintáctica a una fórmula, basta encontrar un modelo del conjunto que sea contramodelo de la fórmula. Corrección y completitud comportan el colapso de nociones semánticas y sintácticas. Nociones que habían sido definidas de formas muy diferentes, como tautologías y teoremas, conjuntos satisfacibles y conjuntos consistentes, se revelan extensionalmente iguales. 16.3 En L PO No demostraremos los resultados correspondientes a L PO porque si bien las ideas subyacentes son similares, la técnica matemática para ponerlas en uso es bastante más sofisticada. La razón básica para ello es que, por ejemplo, de un universal ∀xPx se pueden inferir infinitas fórmulas de tipo Pck , y al intentar construir un conjunto de Hintikka donde aparece un universal, (sería una fórmula de tipo A) no podemos asegurar que el proceso de ir extrayendo fórmulas menos complejas que la dada termine en una cantidad finita de pasos, por lo que es obligado considerar conjuntos infinitos de fórmulas. Sin embargo, aunque no los demostremos, los consignaremos. Por un lado, L PO es compacta, y por otro, uno de los resultados cumbre de la lógica del siglo XX es el Teorema 16.3.1 — Completitud de L PO, (Gödel, 1930). Para todo conjunto de sentencias Γ y toda sentencia A, si Γ |=L PO A entonces Γ `L PO A lo que permite afirmar Corolario 16.3.2 τ es un teorema si y solo si es un fórmula válida Corolario 16.3.3 Un conjunto de sentencias Γ es consistente si y solo si es satisfacible. Pero hay algo extraño. ¿No mostramos al inicio del capítulo un conjunto consistente e insatisfacible, cuando vimos aquella lista de enunciados que referían a objetos naturales, en la cual el j-ésimo enunciado expresaba que hay al menos j objetos naturales, y otro enunciado expresaba que la cantidad de objetos naturales es finita? La respuesta es que mostramos un conjunto de enunciados en español que sugieren esas características. Pero no mostramos un conjunto de sentencias de L PO que fuera a la vez consistente e insatisfacible. Una consecuencia del teorema de Gödel es que no hay una traducción adecuada del enunciado ω a L PO. ¿Qué sería una traducción adecuada? Naturalmente, sería una sentencia de L PO que fuera verdadera bajo una interpretación M si y solo si M asignara como denotación del predicado N un conjunto finito. O sea, estamos viendo un límite expresivo de L PO. No podemos expresar todo con ese lenguaje. No es sorprendente, pero es bueno conocer qué cosas no podemos expresar con él. Por otra parte, en lógica de segundo orden sí se puede expresar la sentencia ω. Es claro entonces que se deduce sin más que la lógica de segundo orden no es completa. Epílogo: Lógica, ¿para qué? UEGO de haber hecho este extenso recorrido, seguramente queden muchas preguntas pertinentes en la mente de cualquier estudiante de filosofía. Para despedirnos, tocaremos más o menos brevemente cuatro cuestiones que naturalmente una persona que esté estudiando filosofía y se enfrente a un curso de las características de este se haría. Ellas son acerca de cómo puede profundizar en el estudio de la lógica alguien con intereses filosóficos, la relación entre la lógica y la filosofía, la relación entre la lógica y la argumentación, y el valor formativo de la lógica. L ¿Qué más se puede estudiar de lógica? Al terminar este curso, el estudiante tiene los elementos necesarios para introducirse en las diferentes ramas de la lógica. En caso de querer especializarse o simplemente profundizar en determinados temas desde ciertas tradiciones, deberá estudiar aspectos de la lógica que no hemos considerado. Con toda seguridad, esos estudios se harán en marcos más matematizados que el que hemos intentado darle a este curso, pensado de modo que no tuviera como requisito una formación matemática previa. Sin embargo, lo realizado es una buena preparación para esos modos de exposición más compactos. Por fuera de lo que hemos estudiado se extiende un vastísimo campo que incluye diversas ramas de la disciplina. Mencionaremos como las más prominentes la teoría de modelos, que estudia las estructuras que son modelos de diversas clases de sentencias en lenguajes formales; la teoría de la prueba, que tiene como objeto de estudio las derivaciones, la teoría de la computabilidad, que estudia las clases de problemas que se pueden resolver a través de un algoritmo o programa. Un segundo curso de lógica para estudiantes de filosofía quizá debería atender a la tercera y la primera de esas ramas, tratando temas clásicos de la teoría de la computabilidad como máquinas de Turing, funciones recursivas y la no decidibilidad de la lógica de primer orden; de la teoría de modelos, como completitud, compacidad y Teorema de Löwenheim-Skolem, e integrar todo eso a través del estudio de los Teoremas de incompletitud de Gödel. Un excelente texto que cubre esos tópicos y más es [BBJ07]. Varios de estos temas son de conocimiento imprescindible si se desea abordar desde cierta óptica otras ramas de la filosofía, como por ejemplo, filosofía de la matemática, filosofía de la 314 Capítulo 16. Epílogo: Lógica, ¿para qué? computación o filosofía de la mente. Inclusive es frecuente ver que estos resultados lógicos que estamos mencionando aparezcan como elementos a tener en cuenta en filosofía de la física o filosofía del lenguaje. Estamos pensando en usos adecuados de estos resultados lógicos, introducidos en el debate filosófico. Lamentablemente, es también muy común ver usos inadecuados de esos resultados, inadecuación que se deja ver muchísimas veces por el simple parafraseo que autores irresponsables hacen de ellos, que evidencia desconocimiento inclusive de los enunciados de los teoremas lógicos que se citan como apoyo a asertos de otras disciplinas. En particular, los teoremas de incompletitud de Gödel han sido objeto de un manoseo increíble, pero no han sido los únicos resultados víctimas de pensadores que en ocasiones intentan hacer filosofía atando moscas por el rabo. El lector interesado en estas cuestiones puede leer [Fra05] y [SB99]. Por eso, un valor añadido del estudio de la lógica más allá de este curso será la adquisición de la capacidad de distinguir, entre la enorme oferta intelectual existente, los discursos serios que utilizan elementos de lógica de los discursos que también lo hacen pero no resisten el menor análisis. Y si no se hace un curso con esas características ni se estudian esos temas por cuenta propia, lo mejor quizá sea el escepticismo acerca de la pertinencia de traer a cuento cuestiones lógicas que se desconocen. Lo dicho hasta ahora solo tiene en cuenta el marco de la lógica clásica. Para el tratamiento de algunos problemas dentro de ciertas tradiciones, son fundamentales las lógicas no clásicas. En el curso hemos mencionado la lógica intuicionista. Es impensable un estudio serio de la filosofía de la matemática sin un conocimiento por lo menos somero de ella. Pero hay otras lógicas que interesan a diversos filósofos: las lógicas modales son importantes en ciertos enfoques de la metafísica, las lógicas epistémicas en ciertos enfoques de la teoría del conocimiento, e incluso las lógicas deónticas en ciertos enfoques de la filosofía de la moral y del derecho. Por supuesto, no podemos hacer referencias detalladas a cada una de estas lógicas y mucho menos a las tantas que existen y no podemos mencionar aquí. Lo que sí podemos afirmar es que los conocimientos que este curso pretendió aportar constituyen una base adecuada para dirigirse a cualquiera de estas ramificaciones. El talante del estudiante marcará la conveniencia de que continúe con sus estudios de lógica. Si, por ejemplo, quiere convertirse en un erudito en Nietzsche, me será difícil encontrar alguna razón para impulsarlo dedicar horas de esfuerzo a la teoría de las máquinas de Turing. Pero si quiere dedicarse al funcionalismo dentro de la filosofía de la mente, me resultará imposible no advertirle que es absurdo pretender hacerlo sin estudiar al menos las bases de teoría de la computabilidad. Lógica y filosofía Más allá de las preferencias y de cómo están organizadas las carreras de grado de Filosofía, ¿qué relación hay entre la lógica y la filosofía? Existe la fuerte tentación de responder esta pregunta en términos históricos. La lógica nació del genio del mayor filósofo que ha existido, y fue cultivada durante miles de años por filósofos. Se la consideraba una parte integral de la filosofía. Esa respuesta, sin embargo, no nos aclara qué le aporta la lógica a la filosofía y además desconoce la realidad actual. Hoy, la lógica como ciencia es una de las ramas de la matemática. Esto tiene que ver con lo sucedido en el devenir histórico que hemos delineado. La lógica, luego de su formalización, amplió su objeto de estudio –quizá haya quien defienda la idea de que lo cambió– para abarcar los lenguajes formales, no solo las inferencias o argumentos. Y por esta vía llegó la matematización de la lógica y su incorporación a la matemática como una de sus ramas. Sin embargo, es la lógica y no otra ciencia la que nos puede servir en el control de la calidad de las inferencias desde el punto de vista que hemos llamado “lógico” informalmente en los primeros capítulos. El objeto original, la inferencia, nunca ha dejado de caer bajo el foco de la lógica. La 315 matematización solo ha significado que los instrumentos que se consideran más adecuados para ese estudio son los matemáticos. ¿Y qué tiene que ver la inferencia, la argumentación, con la filosofía? Esta sí que parece una pregunta tonta. Pero no lo es. Hay presiones contradictorias en esta cuestión. Por un lado, según un relato muy extendido, los hombres no siempre hicieron filosofía, y que en algún momento sí comenzaron a hacerla3 . Más allá de la cuestión de si corresponde asignar ese punto augural a algunos jonios del siglo VI a.C., una forma de verlo es que se comienzan a producir discursos que se distinguen de los precedentes en que propenden a la obtención de creencias racionalmente justificadas y revisables. Esto se suele llamar “paso del mythos al logos”, y por supuesto que es tremendamente controversial, ya que parece implicar que la humanidad prefilosófica no buscaba tener creencias racionalmente justificadas y corregibles. Pero el punto no es ese, sino que esta visión ha sido la dominante en la historia de la filosofía durante muchísimo tiempo, y algo a favor debe tener, porque no consideramos filósofos a ni a Hesíodo, ni a los autores del Popul Vuh o del Génesis, y sí a Tales o Anaximandro, aunque sus objetos de discurso son similares. De hecho, la situación es análoga hoy. Supongamos que pregunto a un fanático religioso cómo debo conducir mi vida, y me responde que debo cumplir ciertos mandamientos divinos. Cuando inquiero por sus razones para afirmar eso, me remite a un cierto libro que considera sagrado, donde entre dudosas narraciones encuentro promesas de premios y castigos, pero ni un solo argumento. No diríamos que su respuesta es filosófica. Pero si le hago la misma pregunta a un aristotélico, y me responde que debo buscar la eudaimonía, y al ser cuestionado acerca de sus razones para afirmar eso me da los argumentos de Aristóteles en Ética a Nicómaco, aceptaríamos que su respuesta es filosófica. Es decir, no es el tema lo que hace filosófico al asunto. Aparentemente, la forma en cómo se trata el asunto es fundamental. También es cierto que no todo tema es filosófico. Nadie diría que la cuestión de por qué el Palacio Salvo se mantiene firme cuando hay viento es filosófica, sino física o de ingeniería, aunque se propongan excelentes razones para explicar su estabilidad. Pero aparentemente, el modo de considerar el problema es parte fundamental en que lo consideremos filosófico. Y la pregunta que surge inmediatamente es ¿de qué otra cosa, aparte de la argumentación, disponemos tanto para evidenciar la racionalidad de un discurso como para evaluarlo en ese sentido? La respuesta parece ser que de ninguna otra, aparte de la contrastación empírica. Y esto está relacionado con lo recién considerado, acerca de que hay temas que no son filosóficos. Si algo se puede decidir por experimentación, no parece ser objeto de la filosofía sino de alguna de las ciencias. Entonces aparentemente hemos hallado una indisoluble ligazón entre lógica y filosofía, porque la filosofía debe proveer razones para al menos algunos de sus asertos y la lógica es la ciencia adecuada para evaluar la adecuación de esas razones ofrecidas. Sin embargo, el problema es vidrioso. Por un lado, si somos lo suficientemente amplios como para aceptar que filosofía es lo que en la academia se considera filosofía, nos encontraremos con que hay algunas filosofías que no parecen depender de la argumentación. Por citar un ejemplo muy conocido, hay producción filosófica en forma de aforismos. Los aforismos no suelen ser argumentos ni estar apoyados en ellos. “Lo que no me mata me hace más fuerte”. Busque el lector en el contexto de esta famosísima cita un argumento, y no lo encontrará. Es claro que el propio formato elegido no es el más idóneo para el desarrollo argumental, aunque en ocasiones es posible extraer argumentos de aforismos. Por otro lado, si va a buscar argumentos a favor de algo que parece tan trivial como 3 Este punto de vista no recoge unanimidades, hay quien sostiene que la visión de la filosofía como una actividad intelectual que surge en el mundo griego hace 2600 años es errónea, que los niños hacen filosofía –y de la buena–, que hay filosofía de las tribus que no dominan la escritura, y que en definitiva, todo el mundo hace o tiene una filosofía. 316 Capítulo 16. Epílogo: Lógica, ¿para qué? “Pienso, luego existo” en el contexto en el que apareció esta no menos famosa frase, los encontrará en abundancia. No estoy diciendo que Descartes es un filósofo y Nietzsche no. Ambos son filósofos muy respetados como tales. Pero es claro que la filosofía nietzscheana, al menos como se expone en varias de sus obras, tiene una relación muy débil con la argumentación, si es que tiene alguna4 , y que logra expresiones muy potentes pero desde el punto de vista emocional o poético, sin que la fuerza de los argumentos tenga nada que ver con ello. Asunto diferente es que la exégesis posterior busque argumentos a favor de las tesis ofrecidas por el autor, argumentos que este no dio, con toda certeza porque no consideraba que fuese valioso darlos, ya que su concepción de la actividad filosófica no la emparentaba con el uso de la razón argumentativa. El caso de Nietszche no es único. Hay filósofos como Hegel que han sido acusados –por otros filósofos– no ya de no argumentar, sino de expresarse en modos ininteligibles, de manera que si los acusadores están en lo correcto, no tenemos esperanza de saber si quisieron argumentar o no5 . Por lo tanto, parece que no es necesario que el filósofo esté preocupado por la argumentación, y por ende, menos aun por la calidad argumental. Pero lo que sí es necesario es que el estudiante de filosofía lo esté. El estudiante conocerá diversas tradiciones y autores, y es inevitable que buena parte de lo que llegue a conocer en el transcurso de sus estudios sean textos argumentativos. Esto es así porque la mayor parte de los filósofos sí han argumentado. Y parece natural que así sea. En general, se argumenta cuando lo que se sostiene está bajo el manto de la duda. No solemos argumentar a favor de lo que nadie duda. Las opiniones típicas de los filósofos a través de la historia frecuentemente se apartan de lo que llamaríamos “opiniones normales” en un grado tal que, arrancadas de un contexto argumentativo, serían tomadas como síntomas de locura. Y si esto parece exagerado, piensen que esas opiniones incluyen asertos tales como que nada cambia, que todo cambia, que el mundo exterior no existe, que todo lo existente es pensado por alguna mente, que no tenemos motivos para creer en los resultados de una inducción, que no hay progreso en el conocimiento, que el mundo real no es el físico sino otro que recordamos de vivencias prenatales... cosas que quizá sean verdaderas, pero que mejor no decirlas con convicción a un psiquiatra, y menos sin argumentar. El estudiante, frente a esos textos argumentativos, naturalmente se preguntará por la calidad de esos argumentos. Y seguramente intuirá que hay algunos increíblemente buenos y otros increíblemente malos. Encontrará que un mismo filósofo puede producir unos y otros, y que esa idea de la calidad argumentativa no estará relacionada con la plausibilidad a priori de la tesis defendida6 . Y esto nos lleva a la siguiente cuestión. Lógica y argumentación Parece entonces que la lógica es algo imprescindible para el estudiante de filosofía. Quizá lo que el estudiante deba hacer, frente a cualquier argumento, sea sacar la lapicera, formalizarlo y evaluar si la conclusión es consecuencia semántica o sintáctica de las premisas. Este uso de la lógica es el que hemos mostrado en el curso, e inclusive lo hemos esquematizado gráficamente en el inicio del capítulo 5. Lo llamaremos, siguiendo a Seoane en [Seo14], estrategia traducción – cálculo. 4 No en toda la obra de Nietzsche se da este alejamiento de la argumentación. Por ejemplo, en Genealogía de la moral los argumentos son claramente discernibles. Sin embargo, el punto es que sus aforismos, o una obra como Así habló Zaratustra, de altísimo valor poético y nulo valor argumentativo, se consideran obras de valor filosófico. 5 El lector puede divertirse mucho leyendo las opiniones de Schopenhauer sobre Hegel recogidas en El arte de insultar. 6 Por ejemplo, la filosofía de Berkeley se encuentra bastante reñida con el sentido común, pero al leerlo al menos por primera vez, uno tiene la sensación de que los argumentos que expone a favor de una visión del mundo tan extraña son aplastantes. Otro tanto sucede con Hume, sus conclusiones escépticas son bastante heterodoxas fuera del mundillo filosófico, pero sus argumentos suelen ser brillantes. 317 Creemos indudable que la estrategia traducción – cálculo permite, en algunas ocasiones, obtener un conocimiento acerca del argumento bajo análisis que se presenta en forma perspicua a través de la formalización y podría permanecer oculto si ella no se efectuase. Hemos intentado mostrar un ejemplo de ello en 11.6.3, al analizar la versión cartesiana del argumento ontológico. Pero esto no siempre es así, por varios motivos. Supongamos que nos enfrentamos a un texto argumentativo y lo traducimos a un lenguaje formal. Evaluamos la existencia de la relación de consecuencia semántica o sintáctica y nuestro dictamen es que no existe esa relación. ¿Podemos estar seguros de que el argumento es inválido? Una ligera reflexión nos muestra que no. Es posible que nuestra traducción no haya sido adecuada. Un ejemplo sencillo es el intento de traducir un silogismo a la lógica proposicional. En un caso así, advertimos que no estamos aplicando la estrategia traducción – cálculo adecuadamente, y que una traducción adecuada sería a la silogística o a la lógica de primer orden. Pero, ¿bajo cuáles condiciones podemos estar seguros de que nuestra traducción es adecuada? Eso depende de la identificación en el argumento, expresado en lenguaje natural, de las constantes lógicas que permiten su funcionamiento. Y, sin entrar a explorar las razones que se puedan esgrimir a favor o en contra de que esta identificación sea siempre realizable, es claro que esa identificación, previa a la formalización y necesaria para ella, es algo sobre lo que la lógica no tiene nada que decir, o sea, es algo extralógico. Si entendemos que el aporte de la lógica a la evaluación argumental se reduce a la aplicación de la estrategia traducción – cálculo, solo puede comenzar después de la formalización del argumento. Por otro lado, aunque muchos argumentos son los suficientemente simples como para que advirtamos su corrección lógica sin necesidad de formalizarlos, muchos son tan complejos que su formalización es por lo menos tan dudosa como el argumento mismo, aun cuando hayamos identificado las constantes lógicas que están en juego en ellos. Varios factores coadyuvan para ello. Podemos listar los siguientes: Dado un argumento expresado en lenguaje natural, muchas veces no sabemos si está presentado como un argumento deductivo o inductivo. En muchos casos, el autor no está pretendiendo dar razones concluyentes a favor de su tesis, sino simplemente dar razones para considerarla plausible o muy probable. Aun cuando el autor pretenda dar un argumento concluyente, frecuentemente no explicitará todas las premisas. Normalmente, aquellas premisas que el autor considera son compartidas por aquellos a quienes está dirigido su argumento, serán omitidas. Por ejemplo, sería raro que un autor que publique un artículo en Nova et Vetera (una revista tomista) explicite en sus argumentos premisas que aseguran la aceptación de una metafísica de tipo aristotélico, premisas que son compartidas por todo el pensamiento tomista y tales que si no las consideramos, los argumentos serán tenidos por inválidos. En muchos casos, la explicitación absoluta de todas las premisas de un argumento deductivo puede hacer que su expresión sea muy larga, y esa explicitación es muy poco informativa. Por eso cuando se presentan argumentos con la pretensión de que sean válidos, es normal que aparezcan como entimemas, es decir, con premisas no explícitas. Por supuesto, cualquier reconstrucción adecuada del argumento las debe considerar y allí se abre otro frente crucial en el que la lógica no tiene nada que decir. No hay nada en la lógica que nos permita decidir cuál premisa se debe considerar en la reconstrucción de un argumento, e incluso si debe agregarse alguna. Los textos argumentativos pueden ser bastante enrevesados. Suponiendo que todo se encuentra en el texto, o sea, que está autocontenido –algo no muy frecuente– la identificación de las premisas y de la conclusión no es un asunto mecánico. Debido a ello, uno puede encontrar diversas reconstrucciones de un mismo argumento. Y este asunto puede ocupar libros enteros. Por ejemplo, el libro [Cab99] discute largamente cómo debe entenderse uno de los dispositivos filosóficos de mayor impacto y difusión en la modernidad, los argumentos 318 Capítulo 16. Epílogo: Lógica, ¿para qué? trascendentales, fundamentales en los sistemas de cuño kantiano. Aun cuando estemos seguros de que un argumento se ha presentado como deductivo y de que hemos logrado una traducción adecuada, puede suceder que no sepamos con qué lógica debemos evaluarlo. Como hemos visto, la evaluación argumental que hace un clásico no está de acuerdo con la que hace un intuicionista en un campo tan poco proclive a producir desacuerdos como la matemática, en el que se tiene especial cuidado en la explicitación de las premisas o al menos en la explicitación de la forma de reconstruirlas, y no hay duda de que solo se consideran dignos de atención los argumentos deductivos. A veces, la aplicación de la estrategia traducción cálculo da resultados formidables. Buen ejemplo de ello es lo que se logra en [Sob09], que la utiliza profusamente y se ha convertido en una obra de referencia para los interesados en la evaluación de los argumentos acerca de la existencia de Dios. Otras veces, da resultados por lo menos opacos. En opinión del autor, un ejemplo de ello es [Bar00], donde se leen cosas como la siguiente, precediendo una pseudoformalización de un argumento de Zenón: Creo que es indispensable el tremendo carácter técnico de lo que sigue: sin un argumento es digno de ser enunciado, es digno de ser enunciado de modo preciso, y no he logrado encontrar un camino menos [sic] atractivo hacia la precisión que el que sigo en este caso. Y “el tremendo carácter técnico de lo que sigue” resulta, pocas líneas después, en La apariencia de todo esto es formidable, pero solo expresa, bajo sus ropajes formales, la verdad vulgar de que cualquier objeto está formado por las partes de sus partes. En definitiva, no se ve que se extraigan frutos particularmente valiosos de la formalización, de la que también es objeto, en ese libro, el poema de Parménides. Por supuesto que se podría argüir que esto se debe a impericia de Barnes, pero no creo que sea el caso. Las reconstrucciones parecen correctas, y se trata de un autor muy agudo. Mi opinión es que trabaja en terreno poco fértil para la estrategia traducción cálculo. Las limitaciones de esta estrategia para un tratamiento universal y uniforme de los argumentos han llevado a algunos teóricos a la consideración de que la lógica, en realidad, es una herramienta muy deficiente para la evaluación argumental7 . Sin embargo, como bien señala Seoane en la obra citada, esto es un error, cuya génesis se encuentra en la idea de que el único aporte posible de la lógica a la evaluación de los argumentos que normalmente se encuentran en lenguaje natural es la aplicación de la estrategia referida. Una consideración detenida de los modos posibles de utilización de la lógica que trascienden la mera formalización y evaluación de la existencia de las relaciones de consecuencia semántica o sintáctica nos llevaría demasiado lejos. Aquí resumiremos algunas de las sugerencias de Seoane en el último capítulo de [Seo14], con el fin de mostrar algunas posibilidades que se abren a quien intenta evaluar un argumento desde el conocimiento de la teoría lógica, sin ceñirse a la forma tradicional de usarla. Seoane advierte que si alguien se aproxima a un argumento con el interés exclusivo de saber si el conjunto de premisas y la conclusión se encuentran en relación de consecuencia semántica, solamente se centrará en el par formado por un conjunto de premisas y la una proposición. Y aunque así hemos definido a los argumentos, la actividad argumentativa presenta una riqueza tal que no se agota en esa especie de producto final. Supongamos que mi conjunto de premisas es {Todos los hombres son mortales, Sócrates es hombre} 7 Esta consideración –errada, en mi opinión– ha estado en la base de muchos desarrollos de la moderna teoría de la argumentación (que no debe confundirse con la lógica, por supuesto). 319 y mi conclusión es Sócrates es mortal. La consecuencia semántica está asegurada, y desde este estrecho enfoque no hay nada más que decir. Pero supongamos que el argumento haya sido extraído del siguiente texto: Aceptamos que todos los hombres son mortales y Sócrates es hombre. De esas dos premisas se sigue que Platón quiere asesinar a Sócrates. Por lo tanto, concluimos que Sócrates es mortal. Este es un texto argumental que alguien exclusivamente interesado en la evaluación de la consecuencia semántica dará por bueno, ya que esa relación se da entre el conjunto de las premisas y la conclusión. Pero no es necesario ser lógico para darse cuenta de que se trata de un adefesio. ¿Qué puede decirnos la lógica acerca de esto? Si enriquecemos un poco el modelo de evaluación argumental, no atendiendo solamente a la existencia de la relación de consecuencia semántica entre el conjunto de las premisas y la conclusión, podemos pensar en un considerar los pasos inferenciales que llevan del primero a la segunda. En este caso, podemos considerar la relación de consecuencia sintáctica, y aun sin salir del esquema traducción – cálculo, evaluar si el argumento permite traducir una derivación. Examinemos con detalle qué pasaría en este caso. Tomamos el siguiente diccionario: Nombre o predicado Constante de individuo o letra de relación ... es hombre ... es mortal ... quiere asesinar a ... Sócrates Platón H M A s p El argumento sugiere una secuencia inferencial que representamos en diagrama de Fitch: 1 ∀x(Hx → Mx) 2 Hs 3 Aps ¿?, 1, 2 4 Ms ¿? Por más que haya consecuencia semántica y sintáctica de premisas a conclusión, esto no es una derivación. Y no se trata simplemente de que se haya utilizado una regla derivada. Observe el lector que el teorema de corrección nos indica que no hay forma de pasar de 1 y 2 a 3. Puede parecer algo trivial por lo sencillo del ejemplo, pero no lo es. Hay un conocimiento metateórico, que excede la mera aplicación de la estrategia de traducción–cálculo, que nos está indicando que algo funciona mal en este argumento. Me gustaría remarcar que la consideración estrecha de la estrategia traducción–cálculo confina el trabajo lógico al interior de los sistemas lógicos. Lo que se está mostrando es que la lógica puede ofrecer mucho más que eso si se amplía el punto de vista. Hay más. Podemos mostrar que el paso 3 es ocioso, aunque es posible que quien lo haya enunciado lo considere fundamental. Podemos mostrar, (dado que afirmó que de las premisas surgía que Platón quiere asesinar a Sócrates), que o bien está razonando en forma incorrecta o bien está suponiendo Capítulo 16. Epílogo: Lógica, ¿para qué? 320 una premisa implícita que sería bien representada como (∀x(Hx → Mx) ∨ Hs) → Aps. Podemos también tratar de reconstruir la relación que encuentra entre Aps y Ms. Es decir, aunque estemos de acuerdo con que las premisas implican la conclusión, se nos abren múltiples vías de análisis del argumento que no se agotan en la mera consideración de si existe la relación de consecuencia sintáctica. Seoane propone otros modelos de análisis argumental que hacen un uso muy general de la lógica, sin agotarse en la estrategia de traducción–cálculo. Particularmente interesante es uno que además de poner en juego las premisas, la conclusión y los pasos inferenciales, considera los modos de justificación. Supongamos que un matemático dice: Sea n un natural primo menor o igual que 10. Entonces, por LTE, n es menor o igual a 7 o n no es menor o igual a 7. Si n no es menor o igual a 7, entonces n es 8, o es 9, o es 10. En ninguno de esos casos es primo. Entonces n es menor o igual a 7. Este es un caso interesante en que un intuicionista estaría de acuerdo en que la conclusión se sigue de la premisa y en que todos los pasos son correctos, pero no estaría de acuerdo en la justificación que se da a un paso. Para el intuicionista no es LTE lo que justifica que n es menor o igual a 7 o n no es menor o igual a 7. Lo que justifica esa proposición, desde su punto de vista, no es LTE, ¡sino la propia premisa del argumento, que expresa que n es menor o igual que 10! Parece muy evidente que no hay esperanza de llegar a ser sensible a estas cuestiones, sea para mediar, para tomar partido por ellas o simplemente para reconocer las profundidades en las que puede resolverse una cuestión argumentativa, sin involucrarse con la lógica. Por eso es correcto afirmar que la lógica tiene mucho para aportar al análisis argumental, y que hay más cosas en el cielo y en la tierra que las que sueñan quienes creen que la utilidad de la lógica es exactamente la utilidad la estrategia de traducción – cálculo. Por tanto, si es verdad que la filosofía es una actividad en la que el argumento tiene un papel central, al menos en muchas de sus tradiciones, y el estudio de la lógica propende a generar una sensibilidad especial para la evaluación argumentativa, y a proporcionar un variado almacén de herramientas para ello, el estudio de la lógica es valioso para el estudiante de filosofía. Y no es necesario formalizar el argumento que se ha ofrecido para darse cuenta de que es correcto. Lógica y ética Me gustaría terminar este curso compartiendo con sus lectores algunas reflexiones provocadas por la lectura de un artículo de John Corcoran, titulado The Inseparability of Logic and Ethics [Cor89]. El artículo parte de presupuestos fundamentalmente realistas, recordando la primera frase de Aristóteles en la Metafísica; Todos los hombres desean por naturaleza saber Muchas veces he creído que este es uno de los mayores disparates de Aristóteles, mucho peor que su idea de que el cerebro sirve para enfriar la sangre. De hecho, lamentablemente, cuando observamos el mundo que nos rodea, parece que esa fuera la función del cerebro en mucha gente. Pero son pensamientos de días malos. Al observar un niño, vemos que Aristóteles tiene razón y probablemente algo esté matando nuestro deseo de saber, el que sí es natural. Aceptado que deseamos saber, Corcoran infiere correctamente que deseamos objetividad, entendiendo esta virtud como el poner de acuerdo nuestras creencias con los hechos, sin importar si esto nos agrada o nos disgusta, si nos atemoriza o nos calma, e inclusive si refuta o reafirma creencias previas. Según él, dada la universalidad del deseo de saber, este deseo de virtud es una característica que une a la raza humana. 321 Lo que hace especialmente interesante el planteo es que Corcoran –un lógico muy respetado, de modo que sabe de qué habla cuando dice lo que sigue– considera que hay un nexo indisoluble entre lógica y objetividad. Concretamente, expresa que el objetivo de la lógica es es cultivo de la objetividad. Es un punto de vista interesante, de larga tradición. El objetivo del cultivo de la lógica no es ganar discusiones en Facebook ni en ningún otro lugar. Es proporcionar medios para adecuar las creencias a los hechos, aunque eso nos haga perder una discusión. Es, aunque Corcoran no lo dice explícitamente, un objetivo muy diferente y a veces opuesto al de la retórica. Y esto es claro cuando expone los motivos que cree hicieron surgir a la lógica: nuestra falibilidad y nuestro deseo de conocer la verdad; la brecha entre creencia y conocimiento, entre sentimiento de certeza y posesión de verdad, entre persuasión y demostración. De aquí Corcoran extrae la consecuencia de que la lógica ocupa un lugar importantísimo en las cuestiones de lo que se ha llamado filosofía práctica, ya que parece innegable que la objetividad es necesaria para el ejercicio de las demás virtudes, como vemos al pensar en si será posible la justicia sin objetividad. El compromiso con la objetividad comporta el estar dispuesto a que las creencias propias sean objetivamente examinadas. Por supuesto, entre estudiantes de filosofía debería ser algo de Perogrullo que ante cada nueva idea, cada nuevo sistema que desafía lo preconcebido, lo normal sería sentir que uno se juega todo por el todo. Pero lamentablemente, no es así. He conocido estudiantes que se declaran ateos, por ejemplo, y han sido expuestos a argumentos teístas que no saben refutar o poner en cuestión siquiera, y siguen tan campantes con su ateísmo sin sentir una molestia que los lleve a buscar una refutación del argumento o a revisar sus creencias previas. Por no hablar de las convicciones acendradas en religiosos, o en cuestiones políticas. La actitud honesta y racional no es cambiar las creencias al primer golpe que reciben, ni tampoco buscar como un endemoniado la refutación de lo que contradice lo que creemos. La actitud honesta y racional es comprometerse con tener las mejores creencias que podamos, afinando su proceso de selección. Nuestras mejores creencias no son las que nos dejan más cómodos o nos hacen sentir más seguros o más importantes. Son aquellas que mejor se adecuan a los hechos. Ahora bien, la lógica es un excelente campo de preparación para ello. Someter nuestras creencias a examen recuerda muy profundamente procedimientos seguidos en lógica, como considerar muy cuidadosamente inferencias realizadas, o introducir supuestos en una inferencia, estando dispuestos a rechazar el supuesto, por más querido o favorable que nos sea, si nos lleva a consecuencias inaceptables. Cierto es que en el marco de una situación dialógica y confrontativa, estas cuestiones son acuciantes, y solemos ver que la gente se aparta de estos principios muy fácilmente. Pero lo mismo ocurre con las cuestiones que normalmente se consideran morales. De hecho, quizá esto también sea un problema ético. Al menos hay similitudes pasmosas con ciertos esquemas éticos bien conocidos. Consideremos un aspecto de esa similitud. Corcoran sugiere una norma para evaluar si algo es una prueba. Una prueba es un argumento que debe convencernos de su conclusión, haciendo que cambiemos nuestras opiniones previas en caso de que contradijeran esta. La norma es la siguiente: si me ofrecen algo como prueba, debo preguntarme si yo estaría dispuesto a dar como concluyente un argumento así, caso que sostuviera su conclusión. En caso afirmativo, debo aceptar lo propuesto como probado. Recíprocamente, debo ofrecer argumentos que yo mismo consideraría aceptables si probasen aquello que actualmente no creo. La llama “la regla de oro de la prueba”, y por supuesto que recuerda a esas reglas metálicas (de oro o plata) que se ven en sistemas éticos y prescriben actuar con los demás del modo en que nos gustaría que actuaran con nosotros, o al menos abstenerse de actuar con los demás en modos que no quisiéramos que lo hicieran con nosotros. Su formulación más general es: 322 Capítulo 16. Epílogo: Lógica, ¿para qué? Argumenta con los demás del mismo modo en que quisieras que los demás argumentaran contigo La cuestión que me parece fascinante es, y pienso esto luego de haber perdido la ingenuidad al ver las dificultades de fundamentación de la ética en principios como los reseñados: ¿No sería maravilloso que de un principio tan entrañable como ese se pudieran extraer las leyes de la lógica? Bibliografía Bibliografía [Ald43] Henry Aldrich. The Art of Logic. Oxford: J. Vincent, 1843. [Ari82] Aristóteles. Tratados de Lógica (Órganon) I. Madrid: Gredos, 1982. [Ari95] Aristóteles. Tratados de Lógica (Órganon) II. Madrid: Gredos, 1995. [Bac03] Francis Bacon. The New Organon. Cambridge University Press, 2003. [Bar00] Jonathan Barnes. Los presocráticos. Madrid: Cátedra, 2000. [Ben65] Paul Benacerraf. “What Numbers Could not Be”. En: Philosophical Review ,74: 47-73 (1965). [Ben73] Paul Benacerraf. “Mathematical Truth”. En: The Journal of Philosophy , Vol. 70, No. 19: 661-679 (1973). [Ben03] Jonathan Bennet. A Philosophical Guide to Conditionals. Oxford: Clarendon Press, 2003. [Boo98] G. Boolos. Logic, Logic and Logic. Cambridge y London: Harvard University Press, 1998. [BBJ07] G. Boolos, J. Burgess y R. Jeffrey. Computability and Logic. Fifth Edition. New York: Cambridge University Press, 2007. [Bor74] Jorge Luis Borges. Obras completas 1923-1972. Buenos Aires: Emecé Editores, 1974. [Cab99] Isabel Cabrera (Compilador). Argumentos trascendentales. México: Universidad Nacional Autónoma de México, 1999. [Car] Lewis Carroll. El juego de la lógica. URL: http://www.librosmaravillosos. com / eljuegodelalogica / pdf / El % 20juego % 20de % 20la % 20logica % 20 %20Lewis%20Carroll.pdf. [Cer80] Miguel de Cervantes Saavedra. El ingenioso hidalgo Don Quijote de la Mancha. Editado por por Don Joaquin Ibarra ... En Madrid : por Don Joaquin Ibarra ..., 1780. URL: http : / / bibliotecavirtualmadrid . org / bvmadrid _ publicacion / i18n / consulta/registro.cmd?id=774. 326 BIBLIOGRAFÍA [Cor89] John Corcoran. “The Inseparability of Logic and Ethics”. En: Free Inquiry 9 2:37-40 (1989). [Des13] René Descartes. Meditaciones Metafísicas. University Press, 2013. [Dum99] Michael Dummet. The Logical Basis of Metaphysics. Cambridge, Massachusetts: Cambridge University Press, 1999. [Dum00] Michael Dummet. Elements of Intuitionism. Oxford: Oxford University Press, 2000. [Eco99] Umberto Eco. La búsqueda de la lengua perfecta en la cultura europea. Barcelona: Crítica, 1999. [Fer79] Clemente Fernández (Compilador). Los filósofos medievales II. Madrid: Biblioteca de Autores Cristianos, Editorial La Católica, 1979. [Fou02] Michel Foucault. Las palabras y las cosas. Una arqueología de las ciencias humanas. Buenos Aires: Siglo XXI Editores Argentina S.A., 2002. [Fra05] Torkel Franzén. Gödel’s Theorem. An Incomplete Guide to Its Use and Abuse. Wellesley: A K Peters, Ltd, 2005. [Fre72] Gottlob Frege. Conceptografía - Los fundamentos de la aritmética - Otros estudios filosóficos. Instituto de investigaciones filosóficas: Universidad Nacional Autónoma de México, 1972. [Fre98] Gottlob Frege. Ensayos de semántica y filosofía de la lógica. Madrid: Editorial Tecnos S.A., 1998. [Gen10] Harry Gensler. Introduction to Logic. New York y London: Routledge, 2010. [Gen69] Gerhard Gentzen. The Collected Works of Gerhard Gentzen. Edited by M. E. Szabo. Amsterdam - London: North-Holland Publishing Company, 1969. [Göd90] Kurt Gödel. Collected Works. II: Publications 1938–1974. S. Feferman, J. Dawson, S. Kleene, G. Moore, R. Solovay, and J. van Heijenoort (eds.) Oxford: Oxford University Press, 1990. [Gra90] A. C. Grayling. An introduction to philosophical logic. Oxford: Alden Press, 1990. [Har12] G. H. Hardy. A Mathematician’s Apology. Cambridge University Press, 2012. [Hun73] Geffrey Hunter. Metalogic. An Introduction to the Metatheory of Standard First Order Logic. Berkeley y Los Angeles: University of California Press, 1973. [Kan28] Emanuel Kant. Crítica de la razón pura. Madrid: Librería General de Victoriano Suárez, 1928. [Lac18] Lactantius. On the Anger of God. 318. URL: http : / / www . newadvent . org / fathers/0703.htm. [Lei83] G. W. Leibniz. Nuevos ensayos sobre el entendimiento humano. Madrid: Editora Nacional, 1983. [Mat61] Benson Mates. Stoic Logic. Berkeley y Los Angeles: University of California Press, 1961. [Mei04] Alexius Meinong. The Theory of Objects. 1904. URL: http://www.hist-analytic. com/Meinongobjects.pdf. [Mül61] Max Müller. Lectures on the Science of Language. London: Longman, Green, Longman y Roberts, 1861. [Pla87] Platón. Diálogos II. España: Gredos, 1987. BIBLIOGRAFÍA 327 [Rud90] Walter Rudin. Principios de análisis matemático. Madrid: MacGraw-Hill, 1990. [Rus05] Bertrand Russell. “Sobre el denotar”. En: Semántica filosófica: problemas y discusiones. T. M. Simpson (Comp.) (1905). [Rus19] Bertrand Russell. Introduction to Mathematical Philosophy. London: George Allen & Unwin, Ltd., 1919. [Rus09] Bertrand Russell. Our Knowledge of the External World. Taylor & Francis Routledge, 2009. [Sai90] Mark Sainsbury. Logical Forms. An introduction to philosophical logic. Cambridge: Basil Blackwell Ltd, 1990. [Seo14] José Seoane. Lógica y Argumento. Montevideo: Ediciones Universitarias, 2014. [Smu95a] Raymond Smullyan. First-Order Logic. New York: Dover Publications, Inc., 1995. [Smu95b] Raymond Smullyan. Juegos por siempre misteriosos. Barcelona: Gedisa, 1995. [Smu09] Raymond Smullyan. Logical labyrinths. Canada: A K Peters, Ltd, 2009. [Sob09] Jordan Howard Sobel. Logic and Theism. Arguments For and Against Beliefs in God. Cambridge University Press, 2009. [SB99] Alan Sokal y Jean Bricmont. Imposturas intelectuales. Barcelona Buenos Aires México: Paidós, 1999. Índice alfabético A ambigüedad estructural . . . . . . . . . . . . . . . . . . . . . . 41, 65 léxica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 aparato deductivo . . . . . . . . . . . . . . . . . . . . . . 163 argumento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 deductivo . . . . . . . . . . . . . . . . . . . . . . . . . . 22 inductivo . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 sólido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 válido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 Aristóteles . . . . . . . . . . . 23, 39, 40, 42, 46, 168 asignación proposicional . . . . . . . . . . . . . . . . . 79 consecuencia semántica en L P . . . . . . . . . . . . . . . . . . . . . . . . . . 110 consecuencia sintáctica . . . . . . . . . . . . . . . . . 143 contingencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 contradicción . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 contrafácticos . . . . . . . . . . . . . . . . . . . . . . . . . . 101 contramodelo . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 D B Dalgarno, George . . . . . . . . . . . . . . . . . . . . . . . 43 De Morgan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 derivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 Descartes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 diagrama de Fitch . . . . . . . . . . . . . . . . . . . . . . 141 Bacon, Francis . . . . . . . . . . . . . . . . . . . . . . . . . . 42 Benacerraf, Paul . . . . . . . . . . . . . . . . . . . . . . . 168 F C caballeros y escuderos (acertijos) . . . . . . 23, 83 condición necesaria . . . . . . . . . . . . . . . . . . . . 102 condición suficiente . . . . . . . . . . . . . . . . . . . . 102 condicional asociado . . . . . . . . . . . . . . . . . . . 113 conjunto adecuado de conectivos . . . . . . . . . . . . . . 89 insatisfacible . . . . . . . . . . . . . . . . . . . . . . . 83 satisfacible . . . . . . . . . . . . . . . . . . . . . . . . . 83 fórmula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 fórmulas equivalentes . . . . . . . . . . . . . . . . . . . 85 Fitch, Fredric Brenton . . . . . . . . . . . . . . . . . . 141 Frege, Gottlob . . . . . . . . . . . . . . . . . . 46, 54, 168 Freudenthal, Hans . . . . . . . . . . . . . . . . . . . . . . . 45 G Gödel, Kurt . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 Gentzen, Gerhard . . . . . . . . . . . . . . . . . . . . . . 140 330 ÍNDICE ALFABÉTICO H P Hofstadter, Douglas R. . . . . . . . . . . . . . . . . . 166 Hume, David . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 Post, Emil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 proposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 I R implicación . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 inferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 16, 19 interpretación de L P . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 interpretación BHK . . . . . . . . . . . . . . . . . . . . 170 reglas de inferencia . . . . . . . . . . . . . . . . . . . . 163 J Jaśkowski, Stanislaw . . . . . . . . . . . . . . . . . . . 140 K Kant, Emanuel . . . . . . . . . . . . . . . . . . . . . . . . . 167 L lógica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 aristotélica . . . . . . . . . . . . . . . . . . . . . . . . . 40 intuicionista . . . . . . . . . . . . . . . . . . . . . . . 167 proposicional árbol de formación, 69 alfabeto, 62 fórmula, 63 secuencia de formación, 63 subfórmula, 69 Leibniz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43, 44 lenguaje formal . . . . . . . . . . . . . . . . . . . . . . . . . 46 alfabeto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 semántica . . . . . . . . . . . . . . . . . . . . . . . . . . 46 sintaxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 lenguas artificiales . . . . . . . . . . . . . . . . . . . . . . 42, 45 filosóficas . . . . . . . . . . . . . . . . . . . . . . . . . . 43 internacionales . . . . . . . . . . . . . . . . . . . . . 44 naturales . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 letras proposicionales . . . . . . . . . . . . . . . . . . . . 60 M metalenguaje . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 N nurikabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 S Selinger, Peter . . . . . . . . . . . . . . . . . . . . . . . . . 160 sistema formal . . . . . . . . . . . . . . . . . . . . . . . . . 163 Smullyan, Raymond . . . . . . . . . . . . . . . . . . . . . 23 suposición formal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 material . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 T tabla de verdad . . . . . . . . . . . . . . . . . . . . . . . . . . 77 tautología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 teorema el “absurdo” . . . . . . . . . . . . . . . . . . . . . . . 116 teorema (fórmula) . . . . . . . . . . . . . . . . . . . . . . 145 teorema de monotonía . . . . . . . . . . . . . . . . . . . . . . . . 111 Teorema de lectura única proposicional . . . . . . . . . . . . . . . . . . . . . . 66 U uso–mención . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 V valuación de L P . . . . . . . . . . . . . . . . . . . . . . 74 W Wilkins, John . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 Wittgenstein, Ludwig . . . . . . . . . . . . . . . . . . . . 79