Wiki.mate y Filo y Logica y Rollos

203
PDF generado usando el kit de herramientas de fuente abierta mwlib. Ver http://code.pediapress.com/ para mayor información. PDF generated at: Sun, 01 Jul 2012 10:01:54 UTC WIKI.MATE Y FILO Y MÁS LÓGICA TAMÉN E ROLLOS

Transcript of Wiki.mate y Filo y Logica y Rollos

PDF generado usando el kit de herramientas de fuente abierta mwlib. Ver http://code.pediapress.com/ para mayor información.PDF generated at: Sun, 01 Jul 2012 10:01:54 UTC

WIKI.MATE Y FILO Y MÁSLÓGICA TAMÉN E ROLLOS

ContenidosArtículos

León Hebreo 1Isaac Abravanel 2Paradoja de Arrow 3Eficiencia de Pareto 6Geometría hiperbólica 12Julius von Mayer 15Friedrich Schleiermacher 16Leopold von Ranke 20Johann Gustav Droysen 22Covariancia de Lorentz 23Informático teórico 26Nilpotente 27Idempotencia 28Idempotencia (informática) 29Matriz idempotente 30Teorema de Herbrand-Ribet 31Jean-François Lyotard 32Yutaka Taniyama 33Luis Gonzaga 35Ludwig Schläfli 37Plano (geometría) 39Espacio euclídeo 42Espacio vectorial normado 43Espacio de Banach 45Stefan Banach 48Espacio de Hilbert 49Ortogonalidad (matemáticas) 54Función de onda 56Ecuación de Schrödinger 58Teorema de Noether 64Teoría de campo de gauge 68Campo de Yang-Mills 72Grado de libertad (física) 78Grado de libertad (estadística) 80

Carl Ludwig Siegel 81Conservación de la energía 82Primer principio de la termodinámica 85Teoremas de incompletitud de Gödel 88Numeración de Gödel 98Problema de la parada 101Lógica de primer orden 104Aritmética no estándar 115Teorema de compacidad 116Teorema de Tychonoff 117Andrey Nikolayevich Tychonoff 119Ecuación integral de Volterra 121Transformada de Laplace 122Teorema de completitud de Gödel 127Demostración original del teorema de completitud de Gödel 128Jerarquía de Chomsky 129Tiempo polinomial 131Polinomio 132Anillo de polinomios 137Tesis de Church-Turing 140Función computable 143Recursión primitiva 145Cálculo lambda 147Máquina de Post 157Teoría de la computabilidad 157Teoría de la complejidad computacional 160Teorema de la jerarquía temporal 163Máquina de Turing 166Stephen Cook 177NP-completo 179Problema de decisión 183Lógica matemática 184Inconmensurabilidad (filosofía) 187

ReferenciasFuentes y contribuyentes del artículo 194Fuentes de imagen, Licencias y contribuyentes 197

Licencias de artículosLicencia 199

León Hebreo 1

León HebreoLeón Hebreo, también conocido por su nombre originario de Judá Abrabanel (Lisboa, ¿1460? - 1521), escritorsefardí.Perteneciente a una familia notable, estudió teología y medicina. Al advenimiento de Juan II al trono portugués, elpadre de León Hebreo, Isaac Abravanel[1] cayó en desgracia y tuvo que huir, refugiándose en 1483 en España bajo laprotección de Abraham Senior, que le asoció a sus negocios financieros y sus cargos en la Hacienda real. Al añosiguiente, León y el resto de la familia se reunieron con él en España.En 1492, como consecuencia de la expulsión de los judíos de España, marchó a Italia; allí vivió en Génova y despuésen Nápoles. En 1502 ya tenía acabados sus famosos Diálogos de amor al parecer en italiano, (Dialoghi d'amore),pero no se imprimieron hasta 1535 en Roma. En ellos es notorio el influjo de Platón a través de Maimónides,Juhanam Alemanno, Giovanni Pontano, Mario Equícola y fray Gil de Viterbo. El modelo inmediato fue sin embargola obra de Marsilio Ficino Dialogo sopra l'amore, si bien León Hebreo supo exponer de un modo más completo,original y profundo la estética platónica y logró anular a su modelo.En efecto, todos los platónicos españoles del siglo XVI sufrieron la influencia de los Diálogos de Abrabamnel y semultiplicaron las traducciones, una de ellas hechas por Garcilaso de la Vega el Inca. Sin embargo, fue puesta en elIndex librirum prohibitorum del Vaticano por sus rasgos de cabalismo y teosofía.También lo tradujo al Castellano:• El Doctor Carlos Montesa, jurisconsulto y matemático natural de Zaragoza, (tradujo los Dialogos antes de 1586).Hay huellas clarísimas de los Diálogos en las obras de Baltasar de Castiglione, Pietro Bembo, Juan Boscán,Garcilaso de la Vega, Francisco de Aldana, Maximiliano Calvi, Fernando de Herrera, Luis de Camoens, PedroMalón de Chaide, Montaigne, Pedro Simon Abril, Miguel de Cervantes etc. Este último escribió en su Don Quijote:"Si tratáredes de amores, con dos onzas que sepáis de lengua toscana toparéis con León Hebreo, que os hincha lasmedidas".

Enlaces externos• Biblioteca Digital Hispánica, Dialoghi di amore di Leone Hebreo medico [2]

Notas[1] mundohistoria.org (http:/ / www. mundohistoria. org/ blog/ articulos_web/ tomas-torquemada)[2] http:/ / bibliotecadigitalhispanica. bne. es:80/ webclient/ DeliveryManager?application=DIGITOOL-3& owner=resourcediscovery&

custom_att_2=simple_viewer& pid=173110

Isaac Abravanel 2

Isaac Abravanel

Isaac Abravanel.

Isaac Abravanel o Abarbanel (Isaac ben Yehuda de Abravanel / יצחק,Lisboa, 1437 - Venecia, 1508) fue un teólogo ,בן יהודה אברבנאלcomentarista bíblico y empresario judío que estuvo al servicio de losreyes de Portugal, Castilla y Nápoles, así como de la República deVenecia. Fue el padre del conocido filósofo León Hebreo.

Sus antecesores pertenecían a una destacada familia de judíos deSevilla, que emigró a Portugal tras las persecuciones de 1391 (suabuelo, Samuel Abravanel, había sido tesorero de Enrique II y de JuanI, de Castilla).

Isaac fue tesorero del rey de Portugal, Alfonso V, pero en 1483, alrelacionársele con un complot contra su sucesor, Juan II, huyó aCastilla, donde residió primero en Plasencia y posteriormente enAlcalá de Henares y Guadalajara. Fue agente probado, comercial yfinanciero, de Isabel la Católica, a la que prestó importantes sumaspara financiar la guerra de Granada. En la hacienda castellana serelacionó con Abraham Senior, su protector, del que se hizo íntimoamigo.[1] asociándose a sus negocios y ocupando el cargo de factormayor.[2] Ambos también realizaron gestiones, inicialmenteinfructuosas, a favor del proyecto de expedición transatlántica de Cristóbal Colón.[3]

Al contrario que Senior, se negó a convertirse cuando el edicto de Granada (31 de marzo de 1492) dispuso laexpulsión de los judíos, que ambos habían intentado inútilmente evitar utilizando su influencia sobre la reina.Obligado a salir de España, aunque conservando su fortuna,[4] se instaló en el reino de Nápoles, donde estuvo alservicio del rey Ferrante y de su sucesor, Alfonso II. Cuando el reino fue invadido por Carlos VIII de Francia (1495),Abravanel debió exiliarse a Sicilia con el rey Alfonso II. Posteriormente residió en Corfú, en la ciudad de Monopoli,en el norte de África, y por último en Venecia, donde falleció en 1508.

Enlaces externos• Jewish Encyclopedia [5].

Notas[1] Jewish Encyclopedia (http:/ / www. jewishencyclopedia. com/ view. jsp?artid=474& letter=S& search=abraham senior)[2] mundohistoria.org (http:/ / www. mundohistoria. org/ blog/ articulos_web/ tomas-torquemada)[3] Daniel Mesa Los judíos en el Descubrimiento de América (http:/ / biblioteca-virtual-antioquia. udea. edu. co/ pdf/ 11/ 11_1661271262. pdf).[4] Fernando e Isabel se mostraron generosos: compensaron las deudas que aún tenía con el Fisco aceptando como pago las obligaciones de

sus deudores cristianos; sumaban unas y otras más de un millón de maravedís. Además recibió la autorización especial para sacar hasta milducados en oro y joyas por el puerto de Valencia. (Luis Suárez Fernández, La expulsión de los judíos (http:/ / www. vallenajerilla. com/berceo/ florilegio/ inquisicion/ solucionfinal. htm), reproducido en vallenajerilla.com).

[5] http:/ / www. jewishencyclopedia. com/ view. jsp?artid=631& letter=A& search=abravanel%20issac#1468

Paradoja de Arrow 3

Paradoja de ArrowEn teoría de la decisión, la Paradoja de Arrow o Teorema de imposibilidad de Arrow establece que cuando setienen tres o más alternativas para que un cierto número de personas voten por ellas, no es posible diseñar un sistemade votación que permita generalizar las preferencias de los individuos hacia una preferencia global de la comunidad,de modo que al mismo tiempo se cumplan ciertos criterios "racionales":•• Dominio no restringido.•• Ausencia de un "dictador", es decir, de una persona que tenga el poder para cambiar las preferencias del grupo.•• Eficiencia de Pareto•• Independencia de alternativas irrelevantes.Este teorema fue dado a conocer y demostrado por primera vez por el Premio Nobel de Economía Kenneth Arrow ensu tesis doctoral Social choice and individual values, y popularizado en su libro del mismo nombre editado en 1951.El artículo original, A Difficulty in the Concept of Social Welfare, fue publicado en The Journal of PoliticalEconomy,[1] en agosto de 1950.

Motivación del teoremaEn el campo microeconómico se estudia el comportamiento de los agentes económicos individuales partiendo de labase de que son racionales. Por racionalidad se quiere decir que las preferencias que de los agentes tienen sontransitivas, completas y reflexivas.Podemos decir que las preferencias son transitivas cuando, si la situación A es preferida a la situación B, y lasituación B es preferida a la situación C, entonces la situación A es preferida a la situación C; esta característica de larelación de preferencia permite establecer un orden preferencial las diferentes alternativas que se nos presentan.El problema se plantea cuando pasamos del nivel de las preferencias individuales a las preferencias o decisionessociales, esto es, cuando intentamos construir una regla que permita establecer un orden entre las distintasalternativas, no ya a nivel individuo, sino a nivel social (grupal). En este caso, se pueden dar relaciones circularesdonde desaparece la transitividad de la relación de preferencia (intransitividad).Un caso de intransitividad se da, por ejemplo, cuando un conjunto de tres votantes elige entre tres alternativas, elmétodo utilizando de votación es la elección por mayoría simple. El votante A, prefiere la opción X sobre la Y y Ysobre Z, el votante B prefiere a Y sobre Z y a Z sobre X, el votante C prefiere a Z sobre X y a X sobre Y. En estasituación ¿cuál es la escala de preferencia del conjunto? Es un ejemplo de lo que se conoce como la paradoja deCondorcet.En este supuesto, los órdenes de preferencias individuales son:A) X > Y ; Y > Z ; X > Z (por transitividad)B) Y > Z ; Z > X ; Y > X (por transitividad)C) Z > X ; X > Y ; Z > Y (por transitividad)Así, mediante la regla de la mayoría, tendríamos las siguientes preferencias del conjunto:1) X > Y (votantes A y C)2) Y > Z (votantes A y B)3) Z > X (votantes B y C)Ahora bien, por regla de transitividad, tenemos también X > Z, lo que nos lleva a una situación contradictoria.La pregunta que se formula la teoría de la 'elección social' es, ¿bajo qué condiciones resulta posible que laspreferencias agregadas de un conjunto de invididuos sean racionales (reflexivas, transitivas y completas), al tiempoque satisfacen determinadas condiciones axiológicas?.

Paradoja de Arrow 4

¿Es posible una función que agregue todas las preferencias individuales y cumpla un mínimo de condiciones quepodamos considerar como democráticas?. Arrow condiciona la regla de agregación no solo a criterios racionales(transitividad, completitud, reflexividad), sino también a dos criterios que podemos denominar "democráticos": elprincipio de no-dictadura (no existen individuos que determinen la ordenación de las preferencias sociales conindependencia de las preferencias del resto)y el principio de no-imposición (la ordenación de las preferenciassociales dependen de las ordenaciones individuales y no son impuestas por otros criterios, como pueden ser latradición o el azar).El resultado del Teorema de Arrow concluye que no existe ninguna regla de agregación de preferencias que tengatales propiedades normativas deseables (que la agregación resulte en preferencias racionales, que la regla y losresultados sean válidos para cualquier configuración de preferencias, que no vayan contra la unanimidad y que lapreferencia social entre dos alternativas sea independiente de la existencia o no de terceras alternativas), a no ser quelas preferencias sean el fiel reflejo de las preferencias de algún individuo, denominado "dictador".

Enunciado simplificado del teoremaEl Teorema de Imposibilidad de Arrow parte de establecer que una sociedad necesita acordar un orden depreferencia entre diferentes opciones o situaciones sociales. Cada individuo en la sociedad tiene su propio orden depreferencia personal y el problema es encontrar un mecanismo general (una regla de elección social) que transformeel conjunto de los órdenes de preferencia individuales en un orden de preferencia para toda la sociedad, el cual debesatisfacer varias propiedades deseables:• Dominio no restringido o universalidad: la regla de elección social debería crear un orden completo por cada

posible conjunto de órdenes de preferencia individuales (el resultado del voto debería poder ordenar entre sí todaslas preferencias y el mecanismo de votación debería poder procesar todos los conjuntos posibles de preferenciasde los votantes)

• No imposición o criterio de Pareto débil: si A resulta socialmente preferido a B, debe existir al menos unindividuo para el cual A sea preferido a B. Esto implica que la regla no va contra el criterio de unanimidad.

• Ausencia de dictadura: la regla de elección social no debería limitarse a seguir el orden de preferencia de unúnico individuo ignorando a los demás.

• Asociación positiva de los valores individuales y sociales o monotonía: si un individuo modifica su orden depreferencia al promover una cierta opción, el orden de preferencia de la sociedad debe responder promoviendoesa misma opción o, a lo sumo, sin cambiarla, pero nunca degradándola.

• Independencia de las alternativas irrelevantes: si restringimos nuestra atención a un subconjunto de opciones yles aplicamos la regla de elección social a ellas solas, entonces el resultado debiera ser compatible con elcorrespondiente para el conjunto de opciones completo. Los cambios en la forma que un individuo ordene lasalternativas "irrelevantes" (es decir, las que no pertenecen al subconjunto) no debieran tener impacto en elordenamiento que haga la sociedad del subconjunto "relevante".

El teorema de Arrow dice que si el cuerpo que toma las decisiones tiene al menos dos integrantes y al menos tresopciones entre las que debe decidir, entonces es imposible diseñar una regla de elección social que satisfagasimultáneamente todas estas condiciones. Formalmente, el conjunto de reglas de decisión que satisfacen los criteriosrequeridos resulta vacío.

Paradoja de Arrow 5

DemostraciónPara demostrarlo tomaremos como ciertos los axiomas y veremos que hay un votante decisivo que es un dictador(contradicción con el axioma 3). Comencemos con una definición.Un conjunto de votantes se dice decisivo para la alternativa contra si es elegido siempre que todovotante de prefiera a Demostración: Paso I {(Hay un votante decisivo)} Para cada par de alternativas , existe al menos un conjuntono vacío decisivo, el conjunto de todos los votantes. Entre todos estos conjuntos cojamos el conjunto mínimo,llamemosle . Si este conjunto tiene un único votante entonces ya está, este es nuestro votante decisivo. Veamos elcaso de que tiene al menos dos votantes. Sea el conjunto contenido en y formado por un único votante, y sea

. Sea . Vamos a ver que es decisivo para alguna elección, llegando así acontradicción con que era mínimo. Sea decisivo para o , y sea cualquier otra alternativa, supongamosque elige ( ), vota ( ) y todos en votan ( ). Hay que notar que todos en prefieren a y todos en a , entonces, como era decisivo en la elección la sociedad prefiere a en lugar de a . Ahora bien, es menor que , luego no es decisivo para nada, en particular no es decisivo en la elección o , entonces la sociedad prefiere a . Usemos la transitividad, la sociedad prefiere a pero también a ,entonces prefiere a . Pero si vemos las votaciones el único que ha votado por encima de es , luego

es decisivo para o y aquí tenemos la contradicción con que era mínimo.Demostración: Paso II (este votante decisivo es un dictador)Sea un miembro de la sociedad, decimos que si es preferido por la sociedad siempre que prefiera a y sin importar el resto de los votos. Y decimos si es preferido por la sociedad si prefiere a y el resto de la sociedad a . Vemos que es la condiciónde dictadura, mientras que es la de ser decisivo.Llegados a este punto debemos demostra un lema que nos será útil.

Lema: Supongamos que tenemos tres alternativas, , entonces:

y

Demostración (del lema): Tenga esta prioridad, , y supongamos que el resto prefiere a antes que a o a. Como , entonces la sociedad prefiere a . Como todos los individuos prefieren a también la

sociedad, entonces, por transitividad, la sociedad prefiere a . El axioma 5 nos asegura que siempre que prefiera a también lo hará la sociedad. Esto es . Para probar que supongamos que ordena las alternativas en orden y todos los otros votantes los ordenan o . Como tenemos lasociedad prefiere a en lugar de a . Por unanimidad la sociedad prefiere a . La transitividad nos da que lasociedad prefiere sobre . Y, por el axioma 5 tenemos que Podemos seguir ahora con la prueba. Tenemos que ver que para todo par de alternativas.

La prueba de 1 viene directamente del lema cony . De manera similar tenemos 2. Ahora tenemos que y nos dan 3 y

4. Las pruebas de 5 y 6 son similares.

Paradoja de Arrow 6

Interpretaciones del teorema de ArrowEl Teorema de Arrow suele expresarse en lenguaje no matemático con la frase "Ningún sistema de voto es justo".Sin embargo, esta frase es incorrecta o, en el mejor de los casos, imprecisa, ya que haría falta clarificar qué seentiende por un mecanismo de voto justo. Aunque el propio Arrow emplea el término "justo" para referirse a suscriterios, no es en absoluto evidente que así sea.El criterio más discutido es el de independencia de las alternativas irrelevantes ya que parece excesivamente"fuerte". Y así, con una definición más restringida de "alternativas irrelevantes" que excluya a aquellos candidatosdel conjunto de Smith, algunos métodos de Condorcet satisfacen las propiedades de Arrow.

Notas y referencias[1][1] Vol. 58(4) pp. 328-346

Enlaces externos• Tres pruebas sucintas del Teorema de Imposibilidad de Arrow (http:/ / ideas. repec. org/ p/ cwl/ cwldpp/ 1123r3.

html) (en Inglés)• Una prueba pedagógica del Teorema de Imposibilidad de Arrow (http:/ / citeseer. ist. psu. edu/

dardanoni99pedagogical. html) (en Inglés)• Discusión del Teorema de Arrow y el método de Condorcet (http:/ / www. electionmethods. org/ Arrow. htm) (en

Inglés)• Ejemplo práctico de la Paradoja de Arrow aplicado al mundo del fútbol (http:/ / www. matifutbol. com/ docs/

temas/ guante. html) Matifutbol.com (español)

Eficiencia de ParetoLa eficiencia de Pareto, también conocido como óptimo de Pareto u optimalidad de Pareto, es un concepto de laeconomía que tiene aplicaciones en ingeniería y diferentes ciencias sociales. El término recibe su nombre a partir deleconomista italiano Vilfredo Pareto, quien utilizó este concepto en sus estudios sobre eficiencia económica ydistribución de la renta.[cita requerida]

Dada una asignación inicial de bienes entre un conjunto de individuos, un cambio hacia una nueva asignación que almenos mejora la situación de un individuo sin hacer que empeore la situación de los demás se denomina mejora dePareto. Una asignación se define como "Pareto eficiente" o "Pareto óptima" cuando no pueden lograrse nuevasmejoras de Pareto.La eficiencia de Pareto es una noción mínima de la eficiencia y no necesariamente da por resultado una distribuciónsocialmente deseable de los recursos. No se pronuncia sobre la igualdad, o sobre el bienester del conjunto de lasociedad.[1][2]

Eficiencia de Pareto 7

Uso y consideraciones técnicasLa definición técnica podría ser la siguiente: sea P un problema de optimización múlti-objetivo. Se dice entonces queuna solución es pareto-óptima cuando no existe otra solución tal que mejore en un objetivo sin empeorar almenos uno de los otros.Es importante mantener presente que el concepto no se refiere, en economía, a la eficiencia de producción o inclusoa la distribución (intercambio y consumo) de los bienes en general o riqueza en una sociedad sino a una descripciónde un "desideratum" general que sugiere es conveniente que no haya derroche o beneficios no distribuidos.[3] Se haalegado que en términos económicos más generales, "eficiencia" incluye o debe incluir aspectos tanto de eficienciaproductiva como distributiva.[4] (ver eficiencia asignativa)Se ha alegado que el concepto de eficiencia de Pareto es minimalista. No implica ni resulta necesariamente en unadistribución de recursos socialmente deseable ni se refiere a igualdad o a un estado general de bienestar social. Soloimplica una situación que no se puede modificar sin perjudicar por lo menos a un individuo.[1][2] Adicionalmente, noimplica que si algo genera o produce provecho, comodidad, fruto o interés sin perjudicar a otro, provocará unproceso natural de optimización hasta alcanzar el punto óptimo.Consecuentemente se ha dicho que el criterio plantea una disyuntiva entre eficiencia y equidad, ya que si bienresuelve el óptimo individual no resuelve el problema del óptimo social donde no sólo es relevante la asignación delos recursos, sino también la distribución de la renta. Adicionalmente presenta una dificultad práctica ya quecualquier cambio político-económico sería inviable si cualquier miembro de la sociedad se sintiera perjudicado.[5]

Adicionalmente Amartya Sen señala que puede haber muchas situaciones que son eficientes en término de Pareto sinque todas sean igualmente deseables o aceptables desde el punto de vista de la sociedad (o sus miembros).[6]

Aún más, pueden haber situaciones que no son óptimas de acuerdo a Pareto pero que sin embargo son preferiblesdesde el punto de vista general. Por ejemplo, esa situación hipotética en la cual el 1 % de la población poseyera el99% de la riqueza general y el 99% restante de la población poseyera el 1 % de la riqueza, medidas redistributivaspodrían ser vistas en general no sólo como equitables, pero podrían tener un efecto positivo en la economía general,en la medida que un aumento en la demanda puede incrementar la producción. Un argumento en ese sentido esavanzado por Davis[7] (ver también keynesianismo).Como consecuencia de lo anterior se ha propuesto el concepto de "Óptimo social"[8] o "Mejor Óptimo de Pareto",que, se supone, sintetiza las preferencias de la sociedad a través de una Función del bienestar social, incorporandoconsideraciones éticas. Sin embargo, se ha aducido que no es claro cual sería el método para determinar tal"preferencia social". Consecuentemente Kenneth Arrow plantea dudas sobre la vialidad del proyecto.[9] En la otramano Sen argumenta que las preferencias individuales son similares en un cierto sentido: hay una preferencia por elcrecimiento económico, uso efectivo de recursos, distribución equitativa de los productos y otros beneficios, etc.[10]

Sen propone una formulación para solucionar de manera consistente la imposibilidad planteada por Arrow; es decir,sugiere un camino coherente y satisfactorio para deducir las preferencias de la sociedad a través de las preferenciasindividuales; esto le permite encontrar el estado social resultante de las elecciones colectivas, específicamente, lepermite ordenar y evaluar estados sociales a partir de la construcción de indicadores de bienestar, los cualesrequieren necesariamente de comparaciones interpersonales para estudiar las consecuencias distributivas (pobreza,desigualdad, etc.) de determinados tipos de sociedad.[11]

Otra alternativa es la propuesta de Abba Lerner, quien sugirió utilizar eficiencia distributiva — la cual se mide en relación a la eficiencia con la cual aquellos que necesitan los bienes y servicios los reciben[12] Lerner argumenta que a la mayor eficiencia de distribución, el mayor bienestar general. Pero esa mejor distribución de bienes y servicios implica a su vez una mejor distribución de los medios de acceso a tales bienes y servicios en la sociedad, o, más formalmente: “asumiendo que una cantidad fija de ingreso, una función social de bienestar cóncava, funciones individuales de bienestar también de tipo cóncavo, y que estas se distribuyen en forma equiprobabilistica entre los miembros de la sociedad, la maximización de la esperanza matemática del bienestar de la sociedad se alcanza sólo

Eficiencia de Pareto 8

cuando el ingreso se distribuye de manera igualitaria. (Una demostración de este teorema se encuentra en Sen, A.K.Sobre la desigualdad económica. Editorial Crítica. (1979).”[13] (ver también Discusión [14] en teoremasfundamentales de la economía del bienestar )Bajo ciertas condiciones idealizadas se puede mostrar que un sistema de mercado libre lleva a resultados que soneficientes de acuerdo a Pareto. (ver el primero de los teoremas fundamentales de la economía del bienestar). Sinembargo ese resultado no refleja realmente una situación económica real, dado que las condiciones que asume sondemasiado restrictivas. El teorema asume que hay mercados -perfectamente competitivos y en equilibrio- para todoslos bienes posibles, que los costos de transacciones son negligibles, que no hay externalidades y los participantesposeen información perfecta. Se ha demostrado (Teorema de Greenwald-Stiglitz[15]) que en la ausencia de talescondiciones, los resultados son ineficientes de acuerdo a Pareto.

Aspectos formalesLa formalización de la propuesta de Pareto ha permitido que tenga aplicación en las áreas de investigación operativay teoría de juegos. Sus aplicaciones son múltiples en toma de decisiones, en entornos de optimización con objetivosmúltiples y, en general, análisis de coste-beneficio.

Ejemplo de Frontera de Pareto. Los cuadrados representan posibles soluciones odecisiones (valores menores son preferidos) La opción o solución C no esta en laFrontera de Pareto dado que es preferido (dominado) por A y B, Esos a su vez no

son dominados por ningún otro, consecuentemente están en la frontera.

Desde este punto de vista, el concepto seutiliza a fin de analizar las posibles opcionesóptimas de un individuo dada una variedadde objetivos o deseos y uno o varioscriterios de evaluación. Dado un “universo”de alternativas se busca determinar elconjunto que son eficientes de acuerdo aPareto (es decir, aquellas alternativas quesatisfacen la condición de no podersatisfacer mejor uno de esos deseos uobjetivos sin empeorar algún otro). Eseconjunto de alternativas óptimas estableceun “conjunto de Pareto” o la “Frontera dePareto”. El estudio de las soluciones en lafrontera permite a los diseñadores analizarlas posibles alternativas dentro de losparámetros establecidos, sin tener queanalizar la totalidad de posibles soluciones.

Ejemplos

Para ilustrar claramente su fundamento, proponemos el siguiente ejemplo:En el mercado automovilístico disponemos de múltiples vehículos para adquirir. Cada vehículo dispone de ciertascaracterísticas técnicas y de un precio, este último normalmente relacionado con su calidad, aunque no siempre esasí. Ante una persona que va a comprar un coche, caben en principio dos posibilidades:1) Que la persona tenga dinero de sobra, es decir, que desee adquirir el vehículo de mayor calidad -definido deacuerdo a cualquier criterio- sin tener en cuenta el precio. En este caso estaríamos ante un problema mono-objetivo,es decir, el objetivo único es encontrar el vehículo de más prestaciones, por ejemplo un automóvil deportivo o uno delujo.2) Que la persona tenga un presupuesto ajustado. En este caso, aparte de las prestaciones también considerará el precio. Estamos ante un problema multi-objetivo (en este caso con 2 objetivos). Ante esta situación cabe una

Eficiencia de Pareto 9

pregunta. ¿Cuál es el mejor vehículo para comprar?. La respuesta es que no hay un solo vehículo que se considere elmejor. Un deportivo será el que dará mejores prestaciones, pero será también el más caro (el mejor en el objetivoprestaciones y el peor en el objetivo precio). Un vehículo poco potente puede ser el que menos prestaciones ofrezca,pero el que mejor precio tenga (el peor en el objetivo prestaciones y el mejor en el objetivo precio). Así pues nopodemos decir que uno sea mejor que el otro. (la frontera llega a ser una Curva de indiferencia).En esa situación vale considerar criterios adicionales: en adicion a un posible deseo principal de coste adecuado ytransporte personal (por ejemplo proveer transporte conveniente al trabajo), desea la persona transportar, por lomenos ocasionalmente, otros en el coche? (por ejemplo, su familia). Será la función del coche, en adicion a satisfacerel deseo de velocidad o comodidad, demostrar su éxito profesional?. O es simplemente ir al trabajo -en cuyo caso uncoche económico, fácil de aparcar y con pocos costes adicionales, podría ser más adecuado, etc.El examen de esas posibles opciones -dentro de la frontera o conjunto establecido por aquellas soluciones que soncoches -a diferencia de motocicletas o helicópteros, etc- y tienen precios aceptables para la persona permitenestablecer la ventajas y desventajas que esos coches particulares poseen desde el punto de vista de esos criteriosadicionales. Es decir, permiten establecer cual es el coche que maximiza la obtención de beneficios para esa persona.Así pues se dice que un coche, es una solución pareto-óptima cuando no existe otro coche, , talque tenga un mejor precio que y además ofrezca mayores prestaciones.Es por eso por lo que interesa disponer, no de una solución, sino de varias, para que a la hora de tomar decisioneséstas contemplen todas las soluciones pareto-óptimas posibles.

FormalizaciónA continuación se definen los conceptos de dominio y optimización de Pareto, aplicados a un problema deminimización; la extensión al caso de un problema de maximización es trivial.

Dominancia de Pareto: Dado un vector , se dice que domina a otro vector

si y sólo si:

Optimalidad de Pareto: Una solución se dice que es Pareto-óptima si y sólo si no existe otro vector tal que domine a .En otras palabras, la definición anterior dice que el punto es un óptimo de Pareto si no existe un vector que haga mejorar alguno de los objetivos —respecto a los valores obtenidos para — sin que empeore deforma simultánea alguno de los otros. En general, la solución en el sentido de Pareto al problema deoptimización multiobjetivo no será única: la solución estará formada por el conjunto de todos los vectores nodominados, a los que se conoce con el nombre de conjunto de no dominados o frente de Pareto.

Eficiencia de Pareto 10

Figura 1: Frente de Pareto de una función con dos objetivosEn la figura 1 se representa, con trazo grueso, el frente de Pareto de una función con 2 objetivos. El área coloreada Trepresenta la imagen de dicha función objetivo. Se puede observar que no existe ningún punto perteneciente a T quemejore en el sentido de Pareto, a algún punto del Frente: eligiendo un punto de T de forma arbitraria, por ejemplo , se puede trazar la vertical hasta obtener el punto de corte con el Frente de Pareto, en este caso ; dicho punto decorte siempre tendrá el mismo valor de y un valor mejor de . También se puede observar que para 2 puntoscualesquiera del Frente de Pareto, nunca habrá uno que mejore de forma simultánea los dos objetivos respecto al otropunto. Cogiendo por ejemplo los puntos y , se observa que para mejora , pero a costa de empeorar (se está considerando un caso de minimización).En análisis económico se denomina óptimo de Pareto a aquel punto de equilibrio en el que ninguno de los agentesafectados podrá mejorar su situación sin reducir el bienestar de cualquiera de los otros agentes. Por tanto, mientrasque uno de los individuos incluidos en el sistema de distribución, producción o consumo pueda mejorar su situaciónsin perjudicar a otro nos encontraremos en situaciones no óptimas en el sentido paretiano. El óptimo paretiano no essensible a los desequilibrios e injusticias en la asignación de recursos, factores, bienes y servicios, o en la propiedadde éstos, ya que una situación en la que se distribuyan 10 unidades de un bien para su consumo entre dos individuospermite obtener 10 óptimos distintos de Pareto con independencia de la justicia de tal asignación. Serían óptimos dePareto tanto una distribución del tipo 10 a 0, como otra del tipo 5 a 5, ya que una vez asigandos en ambos casos, paramejorar la situación de un individuo irremediablemente se empeoraría la situación del otro al tener que ceder una delas unidades del bien o servicio (aunque el primero parta de 0 y el último de 10).

Eficiencia de Pareto 11

Citas y referencias[1] Barr, N. (2004). Economics of the welfare state. Nueva York, Oxford University Press (EEUU).[2] Sen, A. (1993). Markets and freedom: Achievements and limitations of the market mechanism in promoting individual freedoms. Oxford

Economic Papers, 45(4), 519–541.[3] Por ejemplo Enrique A. Bour escrive: "Por consiguiente, una situación es considerada Pareto no óptima si es posible mejorar la situación de

alguien sin empeorar la situación de nadie. Este concepto es razonable como concepto de "eficiencia" pero insuficiente como concepto de"óptimo". Una economía puede encontrarse en una situación Pareto-óptima pero completamente desagradable desde el punto de vista de casicualquier juicio ético. Es mejor considerar a la optimalidad en sentido de Pareto como un término descriptivo (algunos economistas hablan ensu lugar de ausencia de derroche o de excedente distribuible) más que normativo. Una nota importante adicional es que la optimalidad dePareto es una noción de equilibrio general que depende de cuáles son las alternativas incluídas. Por ejemplo, dos países pueden registrarasignaciones Pareto-óptimas pero si se permite el comercio entre ambos la asignación general ya no es Pareto-óptima." en Eficiencia yBienestar (http:/ / www. ebour. com. ar/ pdfs/ Eficiencia y Bienestar. pdf)

[4] ver, por ejemplo: eficiencia económica (http:/ / www. eco-finanzas. com/ diccionario/ E/ EFICIENCIA_ECONOMICA. htm)[5] Universidad de los Andes: Tema XI: Producción publica y bienestar (http:/ / foroforestal. forest. ula. ve/ clases/ Tema XI. pdf)[6] A. Sen en, por ejemplo: “Sobre ética y economía.” - Alianza Editorial, S.A (2003)[7][7] Davis, Donald. op. cit[8][8] Abram Bergson: «A reformulation of certain aspects of welfare economics», en Quarterly Journal of Economics, vol. 66 (1938),[9] Por ejemplo: Miguel Ángel Galindo Martín: Diccionario de economía aplicada: política económica, economía mundial (http:/ / books. google.

com/ books?id=ILwpMDilU0AC& pg=PA236& lpg=PA236& dq=Optimo+ social+ + + bergson& source=bl& ots=SmZiKQUBj1&sig=xv7dzchcP_PCXPNVHNLjDVgesfc& hl=en& ei=k2Q4TfKWF9K7hAfB4LneCg& sa=X& oi=book_result& ct=result& resnum=6&ved=0CCwQ6AEwBTgU#v=onepage& q& f=false)

[10][10] Sen AK Growth Economics - Penguin, 1970, cap 10.[11] Ver, por ejemplo: Andrés Fernando Casas, Darwin Cortés, Luis Fernando Gamboa: Desarrollo, bienestar y comparaciones interpersonales.

(http:/ / www. urosario. edu. co/ urosario_files/ 91/ 919e9c63-69f0-4233-9ae3-8c4837ffd500. pdf)[12][12] Lerner, Abba: Economía del Control. - Fondo de Cultura Económica (1951)[13] José Luis Estrada López, Angel Escobar Hernández, Oscar Perea García: acceso parcial en Ética y economía: desafíos del mundo

contemporáneo (http:/ / books. google. com/ books?id=ZXh_qWAeu4cC) Plaza y Valdes, (1999)[14] http:/ / es. wikipedia. org/ wiki/ Teoremas_fundamentales_de_la_economía_del_bienestar#Discusi. C3. B3n[15] « Externalities in economies with imperfect information and incomplete markets (http:/ / jstor. org/ stable/ 1891114)». Quarterly Journal of

Economics 101 (2):  pp. 229–264. 1986. doi: 10.2307/1891114 (http:/ / dx. doi. org/ 10. 2307/ 1891114).

Geometría hiperbólica 12

Geometría hiperbólicaLa geometría hiperbólica (o lobachevskiana) es un modelo de geometría que satisface solo los cuatro primerospostulados de la geometría euclidiana. Aunque es similar en muchos aspectos y muchos de los teoremas de lageometría euclidiana siguen siendo válidos en geometría hiperbólica, no se satisface el quinto postulado de Euclidessobre las paralelas. Al igual que la geometría euclideana y la geometría elíptica, la geometría hiperbólica es unmodelo de curvatura constante:• La geometría euclideana satisface los cinco postulados de Euclides y tiene curvatura cero.• La geometría hiperbólica satisface solo los cuatro primeros postulados de Euclides y tiene curvatura negativa.• La geometría elíptica satisface solo los cuatro primeros postulados de Euclides y tiene curvatura positiva.

HistoriaDesde la antigüedad se realizaron esfuerzos por deducir el quinto postulado de Euclides referente a las paralelas delos otros cuatro. Uno de los intentos más amplios y ambiciosos fue el de Giovanni Gerolamo Saccheri en el sigloXVIII quien, contradictoriamente creó lo que podríamos considerar modelo incipiente de geometría hiperbólica. Sinembargo, Saccheri creyó que no era consistente y no llegó a formalizar todos los aspectos de su trabajo. TambiénJohann Heinrich Lambert encontró algunas fórmulas interesantes referentes a lo que hoy llamaríamos triángulos dela geometría hiperbólica, probando que la suma de los ángulos es siempre menor que 180º (o π radianes), la fórmulade Lambert establecía que para uno de estos triángulos se cumplía:

Donde:

, es la suma de los ángulos del triángulo (expresada en radianes).

, es el área total del triángulo.es una constante de proporcionalidad positiva relacionada con la curvatura constante del espacio

hiperbólico en que se halla inmerso el triángulo.Más adelante Carl Friedrich Gauss trabajó en un modelo similar pero no publicó sus resultados. En los años 1820dos jóvenes matemáticos que trabajaban de modo independiente, János Bolyai y Nikolai Ivanovich Lobachevsky,publicaron sus modelos por los cuales establecían la posibilidad de un tipo de geometría alternativa, totalmenteconsistente, que es el que conocemos como geometría hiperbólica.

Geometría hiperbólica 13

Introducción

Paralelas en la geometría hiperbólica

Rectas que pasan por P y son hiperparalelas a R

Un triángulo en un plano con forma de una silla de montar (unparaboloide hiperbólico), así como dos rectas paralelas divergentes.

El axioma de Bolyai, equivalente al quinto postuladode Euclides sobre las rectas paralelas dice que «dadauna recta r y un punto P externo a ella, hay una ysolo una recta que pasa por P que no interseca a'r''». Comúnmente, la recta que posee esta cualidadrecibe el nombre de "paralela" a través de P.

En geometría hiperbólica, este postulado resultafalso porque siempre hay al menos dos rectasdistintas que pasan por P y las cuales no intersecan ar. De hecho para la geometría hiperbólica es posibledemostrar una interesante propiedad: hay dos clasesde rectas que no intersecan a la recta r. Sea B unpunto que pertenece a r tal que la recta PB esperpendicular a r. Considere la recta l que pasa porP, tal que l no interseca a r y el ángulo theta entre PBe l (en sentido contrario a las manecillas del reloj,desde PB) es lo más pequeño posible (es decir,cualquier ángulo más pequeño que theta, forzará a larecta a intersecar a r). Esta (l) , es denominada rectahiperparalela (o simplemente, recta paralela) en lageometría hiperbólica.

En forma similar, la recta m que forma el mismoángulo theta entre PB y ella misma, pero ahora ensentido de las manecillas del reloj desde PB, tambiénserá hiperparalela, pero no pueden haber otras.Todas las otras rectas que pasan por P y que nointersecan a r, forman ángulos más grandes que thetacon PB y son llamadas rectas ultraparalelas (o rectas disjuntamente paralelas). Note que, al haber un númeroinfinito de ángulos posibles entre θ y 90º, cada uno de estos determinará dos rectas que pasan por P y que sondisjuntamente paralelas a r, tendremos entonces, un número infinito de rectas ultraparalelas. Por consiguiente,tenemos esta forma modificada del Postulado de las Rectas Paralelas: «En geometría hiperbólica, dada una recta r yun punto P exterior a r hay exactamente dos rectas que pasan por P, las cuales son hiperparalelas a r, e infinitasrectas que pasan por P y son ultraparalelas a r».

Las diferencias entre rectas hiperparalelas y ultraparaleas, también pueden ser vistas de la siguiente forma: la distancia entre rectas hiperparalelas tiende a cero mientras uno se aleja infinitamente de PB por la recta R. Sin embargo, la distancia entre rectas ultraparalelas no tiende a cero si uno se aleja infinitamente de PB por la recta r. El ángulo de paralelismo en la geometría Euclideana es una constante, es decir, cualquier longitud BP, determinará un ángulo de paralelismo igual a 90 grados. En la geometría hiperbólica, el ángulo de paralelismo varía con la que es llamada la función Π(p). Esta función, descrita por Nikolai Ivanovich Lobachevsky, produce un ángulo único de paralelismo para cada longitud dada BP. Mientras la longitud BP se haga más pequeña, el ángulo de paralelismo se acercará a 90º. Si la longitud BP incrementa sin límites, el ángulo de paralelismo se acercará a cero. Note que, debido a este hecho, mientras las distancias se hagan más pequeñas, el plano hiperbólico se comportará cada vez más

Geometría hiperbólica 14

como la Geometría Euclidiana. Por lo tanto, a pequeñas escalas, un observador en el plano hiperbólico tendrádificultades para darse cuenta de que las distancias no se encuentran en un plano Euclideano. En la geometríaeuclídea la suma de los ángulos de cualquier triángulo es siempre 180°. En la geometría hiperbólica esta suma essiempre menor de 180°, siendo la diferencia proporcional al área del triángulo.

Geometría hiperbólica y físicaPodría muy bien suceder que la geometría hiperbólica fuera realmente verdadera en nuestro mundo a escalacosmológica. Sin embargo, la constante de proporcionalidad entre el déficit de ángulo para un triángulo y su áreatendría que ser extraodinariamente pequeña en este caso, y la geometría euclídea sería una excelente aproximación aesta geometría para cualquier escala ordinaria.

Modelos euclídeos de la geometría hiperbólica

Modelo del disco Poincaré con una teselación {3,7} de rombos truncados.

Existen cuatro modelos orepresentaciones "euclídeas" de lageometría hiperbólica: larepresentación de Klein, el modelo deldisco de Poincaré, el modelo delsemiespacio de Poincaré y el modelode Lorentz. Curiosamente los tresprimeros modelos fueron propuestos ypublicados originalmente por EugenioBeltrami en 1868, sin embargo,alcanzaron notoriedad por el uso quetanto Felix Klein como Henri Poincaréhicieron de ellos, estos dos modelosson modelos de la geometríahiperbólica de dos dimensiones, y songeneralizables a más dimensiones.

• La representación de Klein,también conocida como el modeloproyectivo del disco o modelo deBeltrami-Klein, usa el interior deun círculo como plano hiperbólico,y las cuerdas como líneas del círculo. Este modelo tiene como ventaja su simplicidad, pero como desventaja quelos planos hiperbólicos están distorsionados.

• El modelo de Poincaré usa también el interior de un círculo plano, y en él las líneas rectas de la geometríahiperbólica vienen representadas por arcos de circunferencia que cortan el borde del círculo plano en ángulorecto.

Además este modelo es un modelo de curvatura constante negativa, que admite una representación como variedadriemanniana con un tensor métrico dado por:

Donde a es una constante relacionada con la curvatura K = -1/a2

Geometría hiperbólica 15

Referencias

Bibliografía• A'Campo, Norbert and Papadopoulos, Athanase, (2012) Notes on hyperbolic geometry, in: Strasbourg Master

class on Geometry, pp. 1--182, IRMA Lectures in Mathematics and Theoretical Physics, Vol. 18, Zürich:European Mathematical Society (EMS), 461 pages, SBN ISBN 978-3-03719-105-7, DOI 10.4171/105.

• Robert M. Wald, General Relativity, Chicago University Press, ISBN 0-226-87033-2.• Lee, J.M. Riemannian manifolds: an introduction to curvature. GTM 176. ISBN 0-387-98271-X

Julius von Mayer

Julius von Mayer.

Julius von Mayer (Heilbronn; 25 de noviembre de 1814 — ídem;20 de marzo de 1878); físico y médico alemán.

Biografía

Tras estudiar medicina en Tubinga embarcó en un navío comomédico hacia las Indias Orientales, realizando en el curso de esteviaje un trabajo científico sobre la modificación del metabolismohumano bajo la acción de elevadas temperaturas.

Mayer fue —a la vez que Joule, pero con independencia de él— elprimero en comprobar la transformación de trabajo mecánico encalor, y viceversa, obteniendo incluso, en 1842 el valor de lacaloría, aunque la cifró en 3,6. En 1845 presenta la "relación deMayer", proceso por el cual había obtenido sus resultados,consistente en la medida de la diferencia de las capacidadescaloríficas molares de los gases. En 1846, presenta otra memoriadedicada a los fenómenos eléctricos y biológicos, "El movimiento orgánico", en la que enuncia el Principio deconservación de la energía.

Enlaces externos

• Wikimedia Commons alberga contenido multimedia sobre Julius von MayerCommons.

Julius von Mayer 16

Monumento a Julius von Mayer en su ciudad natal deHeilbronn.

Friedrich Schleiermacher

Friedrich Schleiermacher

Friedrich Schleiermacher

Nacimiento 21 de noviembre de 1768Breslau, Silesia, (hoy Polonia)

Fallecimiento 12 de febrero de 1834

Nacionalidad nació en la región de Silesia, que ahora es  Polonia

Ocupación Teólogo y filósofo

Friedrich Daniel Ernst Schleiermacher (Breslau, 21 de noviembre de 1768 – 12 de febrero de 1834) fue unteólogo y filósofo alemán.

Friedrich Schleiermacher 17

BiografíaFriedrich Schleiermacher nació en Breslau, Silesia (hoy Polonia). Hijo de un clérigo calvinista. Es posiblemente unode los teólogos alemanes del siglo XIX de mayor importancia. Proviene de la tradición reformada. Se educó enescuelas moravas y luteranas.Apreciaba la piedad y el estudio del latín, griego y hebreo de los moravos. Pero se separó de estos ante su resistenciaa entrar en diálogo con la filosofía de su tiempo.Estudió la filosofía kantiana y fue discípulo de Friedrich von Schlegel, un líder del romanticismo en los círculosliterarios de Berlín.Fue ordenado al ministerio en 1794. Fue clérigo en Berlín donde comenzó su asociación con los círculos de lafilosofía romántica.Primer calvinista invitado a enseñar en la Universidad luterana de Halle en 1804.En 1810 fue el primer teólogo invitado a enseñar en la Universidad de Berlín. Era un ecumenista consumado. Abogópor la unión de las iglesias calvinistas y luteranas en Prusia.

TeologíaPresentó una alternativa teológica al racionalismo kantiano. Frente al dogmatismo de la iglesia intentó relacionar elromanticismo con la teología. En diálogo con Kant, negó que fuera posible conocer a Dios por medio de la razón. Ellugar para conocer a Dios era la ética y la moral. Cuestionó la ética como el lugar para el conocimiento de la deidad.Para Schleiermacher, el camino al conocimiento de la deidad era el sentimiento de total dependencia en la deidad yla intuición. En sus obras Über die Religion. Reden an die Gebildeten unter ihren Verächtern (1799) yGlaubenslehre (1822), definió la religión como “el sentimiento e intuición del universo”. Entendía el cristianismocomo “el sentimiento y la dependencia de Dios”.La religión no podía ser estudiada correctamente ni por la filosofía racionalista de la Ilustración, ni por los dogmaseclesiásticos. El sentimiento y la intuición eran los mejores caminos para relacionarse con la deidad. En su obraSoliloquios planteaba que “tantas veces como vuelvo mi mirada hacia adentro de mi ser más íntimo estoy en elcampo de la eternidad”. Por lo tanto, la experiencia piadosa y mística de los creyentes es lugar de reflexión teológica.La teología por lo tanto tenía un nuevo lugar teológico, el sentimiento y la intuición humana. El sentimiento y laintuición eran la labor de la teología. El concepto sentimiento era una dependencia absoluta en la deidad. Y este era“la esencia de la piedad, idéntica consigo misma”. Es decir, era el estar en relación con Dios. No identificaba laexperiencia con la subjetividad. Entendía que el sentimiento era ese lugar donde el yo aprende del Yo divino.Entendía la religión como una dependencia absoluta de la deidad. Tuvo implicaciones sobre la teología y ladogmática en el pensamiento. Planteaba que el dogma era una aserción de nuestro sentimiento. Y no sobre la deidaden sí misma. La doctrina sólo afirma nuestra concepción de Dios. Cuestionaba las definiciones Dios como unaproyección humana sobre la deidad.Para Schleiermacher Dios era una realidad suprapersonal y trascendente. Cuestionaba el dogma de la trinidad.Negaba la interpretación de la muerte de Jesús como un sustituto por el ser humano. Entendía el pecado como undebilitamiento individual y colectivo de los seres humanos. Él negaba que el pecado sea un accidente o mera faltasuperficial y afirma que el pecado es un desorden profundo de la "naturaleza humana", una incapacidad total parahacer el bien que sólo puede ser curada mediante la religión, una anormalidad y deformación de la que surge todomal. Así también afirma que el pecado no solo es individual, sino que tiene un carácter social o colectivo "en cadauno la obra de todos, y en todos la obra de cada uno".Veía a Cristo como el salvador porque en él brillaba dependencia absoluta en Dios. La obra de Cristo consistía entransferir al ser humano esa conciencia de dependencia absoluta en la divinidad. Los creyentes se benefician de estaconciencia a través de una unión mística con Cristo.

Friedrich Schleiermacher 18

Acercamiento al Nuevo TestamentoDesde 1819 a 1832 enfocó su reflexión del dogma cristológico a la investigación sobre Jesús. Planteó la totalirreconciabilidad entre el Evangelio de Juan y los sinópticos (Mateo, Marcos y Lucas). La tendencia de su época eraque los sinópticos eran cada vez más reconocidos como los textos primarios y de mayor cercanía a Jesús de Nazaret.Argumentó a favor de la preeminencia del Jesús juanino. El evangelio de Juan procedía de un testigo visual, mientrasque los sinópticos eran obra de los discípulos de los apóstoles y por lo tanto obras secundarias. Era de la opinión queJuan nos mostraba a Jesús como el ser humano en total dependencia con la divinidad y que nos enseñaba a fortaleceresta dependencia en la divinidad.La salvación humana consistía en reconocer esta dependencia con la divinidad. Esta conciencia en la divinidad delser humano era un tipo de misticismo religioso.Fue criticado por hacer de la teología una empresa esencialmente subjetiva a expensas de la revelación de la deidad.Era de la opinión que el evangelio de Mateo mencionado por Papías en la Historia Eclesiástica de Eusebio no serefería al Mateo canónico. El Mateo canónico había utilizado al Mateo mencionado por Papías como una fuente paraconstruir su narración.Era de la misma opinión sobre la relación del Evangelio de Marcos con la información sobre Marcos como undiscípulo de Pedro presentada por Papías en la Historia Eclesiástica de Eusebio.Fue uno de los precursores de la discusión sobre las relaciones entre los evangelios sinópticos desde una perspectivano confesional. Planteaba que los evangelios sinópticos dependían de dos fuentes primarias en su composición. Estodio paso eventualmente a la teoría de las dos fuentes para explicar las relaciones literarias entre Mateo, Marcos yLucas.Abordó otros asuntos relacionados al Nuevo Testamento tales como el corpus paulino y la pregunta hermenéutica.Sobre el corpus paulino, cuestionó que Pablo fuera el autor de las Epístolas Pastorales. Era un erudito en el manejodel griego de la antigüedad. Entre sus haberes se encuentra haber traducido a Platón al alemán. Por eso percibió lasdiferencias lingüísticas entre las cartas paulinas auténticas y las Cartas Pastorales.En su obra póstuma (1864) hace una distinción entre el Jesús histórico que presentan los evangelios sinópticos y elJesús de la fe que se muestra en el evangelio de Juan. Fiel al racionalismo tardío alemán, niega la existencia de losmilagros que no puedan explicarse racionalmente. Su aportación se enmarca dentro del periodo de la Antiguabúsqueda del Jesús histórico (old quest).Para Schleiermacher, el evangelio según san Marcos era una síntesis de Mateo y Lucas, a los que consideraba másantiguos. Esta idea cambió en 1838 con las aportaciones de Christian Hermann Weisse y Christian Gottlob Wilke

La iglesiaFue uno de los primeros eruditos en cuestionar la interpretación sobre los autores de los Evangelios presentados porla tradición de la Iglesia.La iglesia es un lugar de verdadera comunidad humana. Una comunidad que se basa en este sentido de dependenciaabsoluta en la deidad compartida comunitariamente.Esto es base para una plena humanización.La religión es uncomponente básico de la naturaleza humana.

Friedrich Schleiermacher 19

HermenéuticaOtra gran aportación fue su articulación de una teoría hermenéutica. Para Scheleiermacher, la tarea de lahermenéutica era “entender el discurso tan bien como el autor, y después mejor que él”. Intentó presentar una teoríacoherente sobre el proceso de interpretación de los textos. Es considerado el padre de la hermenéutica moderna.Presentó la teoría de la comunicación entre un emisor y un receptor basado en un contexto social y lingüísticocomún. Ese contexto común era el que hacía posible la comunicación entre dos personas. El receptor podíacomprender el discurso del emisor. Ambos poseían una gramática y lingüística común. Además, un contexto socialcomún favorecía la empatía.Añadió a la teoría tradicional de la interpretación una dimensión psicológica. Previamente estaba basada en la puradecodificación gramatical del discurso.El individuo articula un discurso sobre el eje del lenguaje. En la actividad discursiva hay una doble dimensión. Laindividual de la persona que habla. Y la social del contexto social de la lengua. Así, el discurso tendrá un caráctercomún con la cultura en la que se articula y con el carácter del escritor. Existen dos niveles de comprensión deldiscurso. Son la llamada comprensión comparativa y comprensión adivinatoria. Por lo tanto, cada intérprete debeconfrontar la dimensión social e individual del texto. Esto hace que la tarea interpretativa sea infinita. Cada intérpretepueda re-crear la actividad creativa y mental del autor a través del proceso interpretativo.Schleiermacher propone un sistema circular que conocemos como el círculo hermenéutico. Cada intérprete necesitaintroducirse en la dimensión social y la dimensión individual del autor para comprenderlo.Cuando el intérprete se identifica con las intenciones, formas de pensamiento, situación histórica y el contextohistórico del autor para poder comprenderle. En la medida en que el lector se identifique con el autor y se ponga ensu lugar, tanto mejor será la interpretación.La intelección del lector es lo que llama comprensión comparativa. Un segundo nivel de comprensión, eladivinatorio es intuitivo y subjetivo. Es la comprensión de la individualidad del autor de un texto.Así, en el Esbozo del 1805, Schleiermacher plantea que la hermenéutica es “comprender en la lengua y comprenderen la persona que habla”.Proponía una metodología interpretativa. El lector localizaba el contexto histórico-social y lingüístico y entraba endiálogo con la singularidad del autor.Trataba de que hubiera una dimensión objetiva y otra subjetiva en el proceso de interpretar. Esta parte subjetiva erauna dimensión psicológica en la tarea interpretativa.

Bibliografía• Schleiermacher, Friedrich. Sobre los diferentes métodos de traducir. Traduc. Valentín García Yebra. Editorial

Gredos: Madrid, 2000. ISBN 84-249-2272-7• Berman, Antoine (1984) (en francés). L'épreuve de l'étranger. Culture et traduction dans l'Allemagne

romantique: Herder, Goethe, Schlegel, Novalis, Humboldt, Schleiermacher, Hölderlin.. París: Gallimard. ISBN

978-2070700769.

Enlaces externos• Wikimedia Commons alberga contenido multimedia sobre Friedrich SchleiermacherCommons.• El contenido de este artículo incorpora material de una entrada de la Enciclopedia Libre Universal [1], publicada

en español bajo la licencia Creative Commons Compartir-Igual 3.0 [2].

Friedrich Schleiermacher 20

Referencias[1] http:/ / enciclopedia. us. es/ index. php/ Friedrich_Schleiermacher[2] http:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/ deed. es

Leopold von RankeLeopold von Ranke (21 de diciembre de 1795 - 23 de mayo de 1886), historiador alemán, uno de los másimportantes historiadores del siglo XIX y considerado comúnmente como el padre de la historia científica.

Leopold von Ranke en 1877.

Biografía

Ranke nació en Wiehe, en aquel entonces del reino de Prusia, hoyUnstrut, del estado de Thuringia, Alemania. Fue educado en casa y enel Instituto de Schulpforta, mientras era niño demostró unacercamiento a las culturas clásicas, al Griego, al Latín, pero ademástambién a la Iglesia Luterana. Ranke durante toda su vida apreció estosconocimientos. En 1814, Ranke entra a la Universidad de Leipzig,donde estudia a los Clásicos y Teología. En Leipzig, se convierte enexperto de la filología y en la traducción de autores clásicos al latín.

Historiografía

Influencia de Walter Scott

Las circunstancias que le llevan a la Historia son personales. Sedespierta su interés por las novelas históricas de Walter Scott, inventorde este género. Scott escribe Waverley en 1814, al final de las Guerras Napoleónicas. La historia en esta obra no esel telón de fondo, sino la protagonista. El novelista intenta recrear el pasado, reconstruyendo el conflicto entreingleses y escoceses. Este género caló mucho y fue imitado, teniendo muchos éxitos. Ranke lee estas novelas y sequeda fascinado, y se le ocurre leer cosas del pasado real, para saber si el pasado era realmente así, descubriéndolopara sí aún más fascinante.

Influencia de NiebuhrLa obra de Barthold Georg Niebuhr, 1776-1831, inspiró a Ranke, ya que fue el inventor de lo que Rankeposteriormente hizo. Llevó a cabo la reforma agraria en Prusia, ya que este país se encontraba en un sistema feudal yél lo condujo hasta una modernización, Barthold Georg Niebuhr es el encargado de realizarla, en su solución seinteresa por la historia e intenta averiguar como se lleva a cabo la reforma agraria romana, para luego aplicarla a lasuya y también analiza las reformas, por lo que acude a los historiadores romanos (Tito Livio) llegando a laconclusión de que este método no era fiable, por lo que acude a los documentos contemporáneos, y aplicándoles elmétodo filológico.Como consecuencia de este estudio escribe una historia romana, en la que lo primero que intenta es reconstruir loque ocurrió basándose en documentos de la época, pero, aunque no poseía las mismas cualidades historiográficas deRanke, su labor inaugura el método que Ranke va a llevar a su máximo esplendor en fechas posteriores.

Leopold von Ranke 21

Historia historicista

Sello postal alemán de 1986.

En el año 1824 Ranke publica Historia de los Pueblos Romanos yGermánicos (1.494-1.514). Este es el primer libro del tipo de historiahistoricista, y va a incluir el programa ideológico de esa nueva historia,el contenido analiza un conflicto entre la monarquía francesa y laespañola por los territorios de Italia, la tesis de Ranke es que Europasurge como el conflicto entre los pueblos románicos y los germánicos.

Lo importante del libro es el método, el enfoque que da al asunto. Poreso publica un apéndice donde expone sus métodos, a la vez que criticaa los autores anteriores que habían escrito sobre esa historia, porejemplo a Francesco Guicciardini, que en su Historia de Florencia hacealgo que es insostenible, que es recurrir a la novela, ya que Ranke creeque hay que acudir a los documentos para saber con seguridad lo quehabía ocurrido (Ranke se basa para este libro en los informes de losembajadores venecianos).

Ranke obtiene un reconocimiento inmediato y es nombrado paraocupar la cátedra de la universidad de Berlín y se le considera como el gran maestro de la Historia de Alemania yservirá como punto de referencia para todo el mundo; sus obras completas abarcan 54 volúmenes y en ellas habla dela historia de Prusia, de Inglaterra y de los Papas, pero no escribe una historia universal, Ranke lleva a cabo unaenseñanza partiendo del método de los seminarios, en los que adoctrina historiadores que trabajan codo con codobajo el maestrazgo de Ranke. Era para la mentalidad epistemológica de la época Alemania un centro obligado deformación histórica.

Postulados de RankeNo debe existir una teoría histórica, con esquemas previos que imponga sobre el pasado, como se hacíaanteriormente. Ranke dice que sea el pasado el que hable, el historiador no tiene boca. Pone de manifiesto unmétodo: el filológico, que consiste en el recurso a los documentos.Su historia tiene un componente religioso, Ranke fue un hombre al que le interesaba la historia porque creía que eraun vehículo para encontrar a Dios (consideraba que tenía una presencia en la historia a la manera cristiana, que dierasentido a ésta). Ranke cree que Dios está en los propios hechos de la historia siempre y cuando se deja hablar a lapropia historia, la historia es una especie de jeroglífico divino que si se reconstruye se puede ver la presencia divinaen la historia.

ObraRanke puso énfasis en la narración histórica, introduciendo ideas como la confianza en fuentes primarias, un énfasisen la historia narrativa y especialmente política e internacional (Aussenpolitik), y un compromiso para escribirhistoria "como realmente fue" (wie es eigentlich gewesen ist).Empezando con su primer libro, la Historia de los pueblos latinos y germánicos de 1494 a 1514, Ranke hizo un usoextraordinariamente amplio de fuentes para un historiador de la época, incluyendo "memorias, diarios, cartas, lasexpediciones diplomáticas y de testimonios de primera mano de testigos oculares". En este sentido se apoyó en lastradiciones de Filología, pero dio énfasis a documentos mundanos en lugar de la literatura vieja y exótica.En 1834-36 publica Historia de los Papas, un valioso estudio del Papado y sus representantes en la Edad Moderna, desde el siglo XV a la primera mitad del XIX. Considerada en extremo crítica y sustancialmente escéptica, fue contestada ampliamente desde la historiografía católica del momento, en especial por el historiador Ludwig von

Leopold von Ranke 22

Pastor y su monumental "Historia de los Papas desde fines de la edad media".En el centro de su método, Ranke no creyó en las teorías generales que pudieran cortar el tiempo y espacio. Encambio, habló de que la aproximación al tiempo histórico se hacía por fuentes primarias.Sobre la posibilidad de leyes que dirigieran la historia, dijo no saber de ellas y que prefería quedarse con un“empirismo de tonto”.[cita requerida]

Enlaces externos• Wikimedia Commons alberga contenido multimedia sobre Von Ranke. Commons

Johann Gustav Droysen

Johann Gustav Droysen.

Johann Gustav Droysen (* 6 de junio de 1808 en Treptow delRega; † 19 de junio de 1884 en Berlín) fue un destacadohistoriador alemán. Primero profesor en el instituto Gymnasiumzum Grauen Kloster de Berlín en 1829, desde 1840 profesor de laUniversidad de Kiel, de la de Jena (a partir de 1851) y de la deBerlín (desde 1859).

Trayectoria

Droysen se mete en política con motivo de la cuestión deSchleswig-Holstein. En 1846 participa en las llamadas "Jornadasde Germanistas" (Germanisten-Tagen). En 1848 es nombradorepresentante del gobierno provisional de Kiel ante el Parlamentode Fráncfort, más tarde diputado de la Asamblea Nacional deFráncfort (Frankfurter Nationalversammlung), en la que se adhiereal grupo parlamentario de centro-derecha "Casino". Droysen secoloca en 1833 con su primera obra Historia de Alejandro Magnoen la primera línea de historiadores de su tiempo. El términohelenismo lo acuñó él para designar el periodo comprendido entreAlejandro y Cleopatra. Posteriormente se dedicó a la historia máscontemporánea; su Historia de la política prusiana (1855–1886) es la representación más amplia de la idea históricade Prusia y la pequeña Alemania.

PensamientoDroysen no pertenecía directamente a la escuela de Heinrich von Sybel y Heinrich von Treitschke, entendía lamisión de la historiología en un sentido matizado. Droysen rechaza completamente la pretensión de Leopold vonRanke por la objetividad en la historiografía. Para él también la historia tenía que ejercer una función educativa parael estado.Como teórico de la historia, Droysen sentó las bases de la metodología de la historiología moderna. El métodocrítico con las fuentes, que tuvo gran influencia en la historiografía, se remonta a Droysen y Barthold GeorgNiebuhr. Entre los discípulos más importantes de Droysen se encuentra Friedrich Meinecke. Su hijo Gustav Droysenfue igualmente profesor de historia y llevó a cabo significativas investigaciones sobre la historia de la Guerra de losTreinta Años.

Johann Gustav Droysen 23

Obra• Geschichte Alexanders des Großen, 1833• Geschichte des Hellenismus, 2 Bde., 1836–1843• Das Leben des Feldmarschalls Grafen Yorck von Wartenburg, 3 Bde., 1851/52• Geschichte der preußischen Politik (bis 1756), 14 Bde., 1855–1886• Grundriß der Historik, 1868

Enlaces externos• Gutes Dossier bei historicum.net [1]

• Droysen-Texte im WWW [2]

• Vier Aufsätze, ab Bildschirmseite 165 [3], ver también [4]• Texto alemán de la Historia del helenismo («Geschichte des Hellenismus») [5]

Referencias[1] http:/ / www. klassiker. historicum. net/ 19/ droysen. htm[2] http:/ / www. litlinks. it/ d/ droysen_jg. htm[3] http:/ / www. uni-kiel. de/ ub/ digiport/ ab1800/ Cb1362. html[4] http:/ / www. uni-kiel. de/ ub/ digiport/ ab1800/ his. html[5] http:/ / www. zeno. org/ Geschichte/ M/ Droysen,+ Johann+ Gustav/ Geschichte+ des+ Hellenismus

Covariancia de LorentzLa covariancia de Lorentz (y análogamente la contravariancia de Lorentz) o principio especial de la relatividadse refiere a la propiedad de ciertas ecuaciones físicas de no cambiar de forma bajo cambios de coordenadas de untipo particular, concretamente es requisito de la teoría especial de la relatividad que las leyes de la física tienen quetomar la misma forma en todos los marcos de referencia inerciales.El requerimiento de covariancia de Lorentz afirma concretamente que si dos observadores y usancoordenadas y , tales que ambas son relacionables por una transformación deLorentz de las coordenadas, entonces cualesquiera dos ecuaciones que relacionen magnitudes que presentancovariancia de Lorentz se escribirán de la misma forma para ambos observadores. El principio general de relatividadgeneraliza aún más este principio al extender el requerimiento a sistemas de referencia totalmente generales.

Covariancia de Lorentz y sistemas inercialesEn principio si un observador es inercial cualquier otro que use coordenadas relacionadas con las del primeromediante una transformación de Lorentz será un observador inercial. Por tanto una magnitud, ecuación o expresiónmatemática que presenta covariancia de Lorentz responderá a la mismas "leyes" o ecuaciones para todos los sistemasinerciales.Es importante notar, que si comparamos las medidas de un observador inercial con las de un observador no inercial,la forma de las ecuaciones será diferente. Esto también se da en mecánica newtoniana donde el estudio delmovimiento de un cuerpo visto desde un sistema no-inercial en rotación requiere la inclusión de la fuerza centrífugay la fuerza de Coriolis, y por tanto sus ecuaciones para explicar el movimiento de un móvil cuentan con términosadicionales a las que escribiría un observador inercial, y por tanto las ecuaciones de movimiento no tienen la mismaforma para un observador inercial que para uno no inercial.

Covariancia de Lorentz 24

Covariancia generalizada y relatividad generalLa covariancia de Lorentz es de hecho un tipo de invariancia de forma restringido o especial, de ahí que la primerateoría de la relatividad construida por Albert Einstein se acabara llamando teoría de la relatividad restringida oespecial.El deseo de Albert Einstein de contar con una teoría cuyas ecuaciones tuvieran la misma forma para cualquier tipo deobservador sea este inercial o no inercial, le llevó a buscar ecuaciones que presentaran principio de covariancia, cosaque logró generalizando su teoría, en lo que luego se llamó teoría de la relatividad general.

Violación de LorentzViolación de Lorentz se refiere a teorías que son aproximadamente relativísticas cuando los experimentos que sellevan a cabo manifiestan correcciones a la violación de Lorentz que son pequeñas o están escondidas. Talesmodelos se clasifican en cuatro tipos:• Las leyes de la física presentan covariancia de Lorentz, pero esta simetría se rompe espontáneamente. En el

contexto de la teoría de la relatividad especial, esto llevo al fonón, el cual es un bosón de Goldstone. Los fononesviajan a una velocidad menor que la velocidad de la luz. En el contexto de la teoría de la relatividad general, estolleva al gravitón masivo (esto es diferente de la gravedad masiva, la cual es covariante de Lorentz) y viaja a unavelocidad menor que la de la luz (ya que el gravitón "devora" al fonón).

• Similar a la simetría aproximada de Lorentz en una red (lattice) (donde la velocidad del sonido tiene un papel develocidad crítica) la simetría de Lorentz de la relatividad especial (con la velocidad de la luz como velocidadcrítica en el vacío)solo es un límite a bajas energías de las leyes de la física, lo que implica nuevos fenómenos enalguna escala fundamental. Las partículas elementales ya no son campos teóricos puntuales a escalas de distanciamuy pequeñas, y una escala fundamental distinta de cero debe tomarse en cuenta. La violación de la simetría deLorentz está gobernada por un parámetro que depende de la energía el cual tiende a cero mientras el momentodecrece. Tal comportamiento requiere la existencia de un marco inercial local privilegiado (el "marco en reposodel vacío"). Esto se puede probar, al menos parcialmente, por medio de experimentos de rayos cósmicos ultraenergéticos como los del Observatorio Pierre Auger.

• Las leyes de la física son simétricas bajo una deformación de Lorentz, o mejor dicho, del grupo de Poincaré, yesta simetría deforme es exacta y no se rompe. Esta simetría deforme también es típicamente una simetría delgrupo cuántico, la cual es una generalización del grupo de simetría. Relatividad deforme especial es un ejemplode este tipo de modelos. No es propio llamar a estos modelos de violación de Lorentz como deformes de Lorentzasí como a la teoría especial de la relatividad se le llamaría violación de la simetría Galileana en lugar dedeformación de la misma. La deformación es dependiente de la escala, lo que significa que para escalas delongitud más grandes que la escala de Planck, la simetría luce más como el grupo de Poincaré. Los experimentosde rayos cósmicos ultra energéticos no pueden probarlo.

• Este es uno de su propia clase; un subgrupo del grupo de Lorentz es suficiente para darnos todas las prediccionesgenerales si CP es una simetría exacta. Sin embargo, la simetría CP no lo es. Esto es llamado Relatividad MuyEspecial.

RestriccionesEn teoría de campos, existen estrictas y severas restricciones sobre los operadores en la violación marginal yrelevante de Lorentz dentro tanto de la EDC como del Modelo Standard. Operadores irrelevantes en la violación deLorentz pueden suprimirse por un corte grande en la escala, pero ellos inducen operadores en la violación marginal yrelevante de Lorentz por medio de las correcciones radiativas. Así que también tenemos restricciones estrictas yseveras sobre los operadores irrelevantes en la violación de Lorentz. Sin embargo, si las partículas elementales estáncompuestas y hechas de constituyentes superluminales como se postula en la hipótesis superbradión, talesrestricciones no se cumplirían.

Covariancia de Lorentz 25

Los modelos que pertenecen a las dos primeras clases pueden ser consistentes por medio de experimentos si ocurreun rompimiento de Lorentz a la escala de Planck más allá de ello, y si la violación de la simetría de Lorentz esgobernada por un conveniente parámetro dependiente de la energía. Uno tiene entonces una clase de modelos que sedesvían de la simetría de Poincaré cerca de la escala de Planck pero aún se dirige hacia un grupo exacto de Poincaréa escalas muy grandes de longitud. Esto también es cierto para la tercera clase, la cual además está protegida contralas correcciones radiativas como si aún tuviéramos una simetría cuántica exacta.

Referencias• http:/ / www. physics. indiana. edu/ ~kostelec/ faq. html• http:/ / relativity. livingreviews. org/ Articles/ lrr-2005-5/• Amelino-Camelia G, Ellis J, Mavromatos N E, Nanopoulos D V, and Sarkar S (June 1998). « Tests of quantum

gravity from observations of bold gamma-ray bursts (http:/ / www. nature. com/ nature/ journal/ v393/ n6687/full/ 393763a0_fs. html)». Nature 393:  pp. 763–765. doi: 10.1038/31647 (http:/ / dx. doi. org/ 10. 1038/ 31647).

• Jacobson T, Liberati S, and Mattingly D (August 2003). « A strong astrophysical constraint on the violation ofspecial relativity by quantum gravity (http:/ / www. nature. com/ nature/ journal/ v424/ n6952/ full/ nature01882.html)». Nature 424:  pp. 1019–1021. doi: 10.1038/nature01882 (http:/ / dx. doi. org/ 10. 1038/ nature01882).

• Carroll S (August 2003). « Quantum gravity: An astrophysical constraint (http:/ / www. nature. com/ nature/journal/ v424/ n6952/ full/ 4241007a. html)». Nature 424:  pp. 1007–1008. doi: 10.1038/4241007a (http:/ / dx. doi.org/ 10. 1038/ 4241007a).

• http:/ / scitation. aip. org/ getabs/ servlet/ GetabsServlet?prog=normal&id=PRVDAQ000067000012124011000001

• González-Mestres, L., "Lorentz symmetry violation and the results of the AUGER experiment", http:/ / arxiv. org/abs/ 0802. 2536

Informático teórico 26

Informático teórico

Estatua de Alan Turing, uno de los informáticosteóricos más reconocidos en la historia de las

ciencias de la computación.

Un informático teórico o científico de la computación es unapersona con conocimientos adquiridos en ciencias de la computación, yque se especializa en el estudio de los fundamentos teóricos de lainformación y la computación, para que finalmente alguien aplique losresultados encontrados en sistemas de información.

Un informático teórico puede ser un matemático especializado enmatemáticas discretas y aplicadas, o bien un ingeniero informático,enfocado en la parte más conceptual de la informática, a menudoacercándose más al trabajo de un matemático que al de un ingeniero.Así, aquellos informáticos no teóricos se preocupan más de aplicar losconocimientos existentes a las nuevas tecnologías de la información.

El informático teórico, no obstante, a diferencia del matemático puro,se preocupa sobre todo de la eficiencia de los resultados que obtenga, yno sólo de la correctitud de sus pruebas. Se puede decir que elinformático teórico trabaja siempre inmerso en un ambiente deinvestigación teórico-práctico.

Aclarar quien es informático teórico y quien no lo es resulta, a pesar detodo, una tarea no exenta de ambigüedad. Sin embargo, ladiferenciación se acepta dentro del campo científico, como una manera de diferenciarla de la informática másaplicada.[1][2]

Campo laboralEl informático teórico trabaja normalmente en universidades u organizaciones de investigación, en distintas áreastales como el análisis y diseño de algoritmos, ingeniería de software, teoría de la información, teoría de bases dedatos, complejidad computacional, interacción hombre-máquina, programación (a un alto nivel), teoría de lenguajesde programación, gráficos por computadora, visión artificial, inteligencia artificial, entre otras.Se trata de ingenieros informáticos o matemáticos discretos afines, alejados del mundo empresarial.

Grados académicosEl informático teórico normalmente tiene un grado universitario en el área de ciencias de la computación, en algunauniversidad o institución acreditada. También es común que se trate de ingenieros informáticos o matemáticos quedespués continúan estudios de posgrado, ya sea una maestría o un doctorado relacionado.

Referencias[1] Crespo López, Decoroso (1982) (en español). Informática teórica. España: Universidad Politécnica de Madrid. Facultad de Informática.

ISBN 848563232X, 9788485632329.[2] Sicard Ramírez, Andrés (2001) (en español). Informática teórica. Gómez Marín, Raul Antonio. Fondo Editorial Universidad Eafit. ISBN

9589041760, 9789589041765.

Nilpotente 27

NilpotenteEn matemática, un elemento x de un anillo R se dice que es nilpotente si existe algún entero positivo n tal que xn = 0.

Ejemplos• Esta definición puede ser aplicada en particular a matrices cuadradas. La matriz

es nilpotente porque A³ = 0. Ver matriz nilpotente para mayor detalle.• En el anillo factorial Z/9Z, la clase del 3 es nilpotente porque 3² es congruente con 0 módulo 9.• Suponemos que dos elementos a, b de un anillo no conmutativo R satisfacen ab=0. Entonces, el elemento c=ba es

nilpotente (si es no nulo) ya que c²=(ba)²=b(ab) a=0. Un ejemplo con matrices sería:

Vemos que .

PropiedadesNingún elemento nilpotente puede ser una unidad (excepto en el anillo trivial {0} en el que únicamente existe unúnico elemento 0 = 1). Todos los elementos nilpotentes son divisores de cero.Una matriz cuadrada n dimensional A con elementos en un cuerpo es nilpotente si y solo si su polinomiocaracterístico es Tn, lo cual sucede si y solo si An = 0.Los elementos nilpotentes de un anillo conmutativo forman un ideal; este hecho es consecuencia del teorema delbinomio. Este ideal es el nilradical del anillo. Cada elemento nilpotente de un anillo conmutativo está contenido entodo ideal primo del anillo, y de hecho la intersección de todos los ideales primos es el nilradical.Si x es nilpotente, entonces 1 − x es una unidad, porque xn = 0 implica

(1 − x) (1 + x + x² + ... + xn−1) = 1 − xn = 1.

Nilpotencia en físicaUn operador que satisface es nilpotente. El BRST charge es un ejemplo muy importante en física.Como que los operadores lineales forman una álgebra asociativa y por tanto un anillo, éste es un caso especial de ladefinición inicial. En general, desde el punto de vista de la definición anterior, un operador Q es nilpotente si existen∈N tal que Qn=o (la función cero). En consiguiente, una aplicación lineal es nilpotente si y solo si está definida poruna matriz nilpotente en alguna base. Otro ejemplo es la derivada exterior (otra vez con n=2). Ambas estánrelacionadas, a través de la supersimetría y la teoría de Morse, como fue demostrado por Edward Witten.El campo electromagnético de una onda plana sin fuentes es nilpotente cuando se expresa en el lenguaje de laálgebra del espacio físico.

Nilpotente 28

Referencias• E Witten, Supersymmetry and Morse theory. J.Diff.Geom.17:661-692,1982.• A. Rogers, The topological particle and Morse theory, Class. Quantum Grav. 17:3703-3714,2000.

IdempotenciaEn matemática, la idempotencia es la propiedad para realizar una acción determinada varias veces y aún asíconseguir el mismo resultado que se obtendría si se realizase una sola vez. Un elemento que cumple esta propiedades un elemento idempotente, o un idempotente. De esta manera, si un elemento al multiplicarse por sí mismosucesivas veces da él mismo, este elemento es idempotente. Por ejemplo, los dos únicos números reales que sonidempotentes, para la operación producto (·), son 0 y 1. (0·0=0,1·1=1).

DefiniciónFormalmente, si es un magma, es decir, un conjunto con una operación binaria , entonces un elemento se dice idempotente si . Si todo fuese idempotente bajo , entonces la operación en sí sedenominaría operación idempotente. En particular, cualquier elemento identidad es un idempotente bajo *.En álgebra conjuntista, las operaciones de unión e intersección de conjuntos son idempotentes. En efecto, la unión ointersección de un conjunto consigo mismo, entregan como resultado el conjunto mismo.Análogamente, en álgebra booleana, los operadores Y (and, ) y O (or, ) son idempotentes. En efecto, siV=Verdadero, F=Falso: . Análogamente para F.En álgebra lineal, la proyección es idempotente. Es decir, cualquier matriz que proyecta todos los vectores sobre unsubespacio V (no necesariamente ortogonalmente) es idempotente, si V mismo está fijo punto por punto.

Idempotencia en funcionesUna función de un conjunto a sí mismo se llama idempotente si se cumple que para lacomposición de funciones:

, es decir, .Esto es equivalente a decir que:

Ejemplos triviales de funciones idempotentes en S son la función identidad y las funciones constantes. Ejemplosmenos triviales son el valor absoluto y la función que asigna a cada subconjunto U de un cierto espacio topológico Xla clausura de U. La última es una función idempotente en el conjunto de partes de X. Es un ejemplo de operador declausura; todos los operadores de clausura son funciones idempotentes.

Toda función constante es idempotente. Una función general es idempotente si satisface doscondiciones:1. Tiene puntos fijos, es decir, el conjunto de puntos fijos no es vacío: 2. El conjunto imagen de la función está incluido en el conjunto de puntos fijos : .

Idempotencia 29

Idempotencia en anillosUn anillo en el cual la multiplicación es idempotente ( ) se llama anillo de Boole. Puede serdemostrado que en cada tal anillo, la multiplicación es conmutativa, y cada elemento es su propio inverso aditivo.

Enlaces externos• Weisstein, Eric W. «Idempotent [1]» (en inglés). MathWorld. Wolfram Research.

Referencias[1] http:/ / mathworld. wolfram. com/ Idempotent. html

Idempotencia (informática)En Informática, el término idempotente se usa para describir una operación que produce los mismos resultados si seejecuta una o varias veces. Esto puede tener diferentes significados, dependiendo del contexto en que se aplique. Enel caso de métodos o llamados a subrutinas con efectos secundarios, por ejemplo, esto significa que el estadomodificado permanece igual luego del primer llamado. En programación funcional, sin embargo, una funciónidempotente es aquélla que conserva la propiedad f(f(x)) = f(x).Ésta es una propiedad muy útil en numerosas situaciones, ya que su empleo hace que una operación pueda serrepetida tantas veces como sea necesario sin causar efectos involuntarios. Con operaciones no idempotentes, elalgoritmo podría tener que mantener un registro de si la operación ya hubo sido realizada o no.Estrictamente, una secuencia que nunca produce efectos secundarios puede ser considerada idempotente (siempre ycuando no haya operaciones concurrentes sobre el mismo conjunto de recursos)[1]

Referencias[1] 9.1 The Usable Version of RFC 2616 - Safe and Idempotent Methods (http:/ / www. rfc2616. com/ #9. 1)

UN EJEMPLO DE IDEMPOTENCIA ES LA MULTIPLICACION DE 1*1 = 1 o de 0*0 = 0 ASI COMOTAMBIEN LA MULTIPLICACION DE 1*1*1*1*1*1*1*1*1 = 1

Matriz idempotente 30

Matriz idempotenteUna matriz idempotente[1] es una matriz la cual es igual a su cuadrado, es decir:

A es idempotente si A A = A.[2]

Si representamos el producto por , entonces es idempotente sólo si: .En general, la idempotencia hace referencia a una operación que, si se repite, produce el mismo resultado que si sellevara a cabo una sola vez. En el caso de la matriz idempotente se cumple que: . La ecuaciónanterior muestra que realizar el producto un número finito de veces produce el mismo resultado que realizarlo unasola vez. Un caso particular de matriz idempotente es una matriz de proyección.

Ejemplos de matrices idempotentesEjemplos de matrices idempotentes son la matriz nula y la matriz unidad: .Algunas formulas de matrices idempotentes:Si a comprendida entre {0 y 1}

Por ejemplo, la siguiente matriz es idempotente:

Nota: No debe ser necesariamente simétrica.O sea: la matriz elevada al cuadrado va a ser la misma matriz sin elevarla.

Referencias[1][1] "Algebra II" (tercera edición) Armando O. Rojo Editorial "El Ateneo". Buenos Aires.[2][2] "Econometría" Alfonso Novales (segunda edición) McGraw-Hill

Teorema de Herbrand-Ribet 31

Teorema de Herbrand-RibetEn matemáticas, el Teorema de Herbrand–Ribet es un resultado del número de clase de ciertos campos denúmeros. Es un refuerzo del teorema de Kummer en el sentido que el número primo p divide el número de clase delcampo ciclotómico de la p-iésimas raíces de la unidad si y solo si p divide al numerador del n-ésimo número deBernoulli Bn para algún n, 0 < n < p − 1. El teorema de Herbrand–Ribet especifica en particular, cuando es que pdivide a Bn.

El grupo de Galois Σ del campo ciclotómico de las p-iésimas raíces de la unidad de un primo p, con , consiste de p − 1 elementos del grupo σa, donde σa está definido por . De acuerdo al pequeñoteorema de Fermat, en el anillo de los enteros p-ádicos se tienen p − 1 raíces de la unidad, cada una de las cualeses congruente mod p con algún número en el rango entre 1 y p − 1; por lo tanto se puede definir un carácter deDirichlet ω (el caracter de Teichmüller) con valores en si se requiere que para n coprimos a p, ω(n) seacongruente con n módulo p. La parte p del grupo de clase es un -módulo, y se pueden aplicar elementos en elanillo de grupo a él y obtener elementos del grupo de clase. Definiendo un elemento de idempotencia delanillo de grupo para cada n desde 1 hasta p − 1, como

Podemos dividir la parte p del grupo de clase ideal G de por medio de sus idempotentes; si G es el grupo declase ideal, entonces Gn = εn(G).Entonces se tiene el teorema de Herbrand–Ribet:[1] Gn es notrivial si y solo si p divide al número de Bernoulli Bp−n.Las parte que dice que p divide Bp−n si Gn no es trivial es el aporte de Herbrand.El inverso, que si p divide Bp−n entonces Gn no es trivial se debe a Kenneth Ribet, y es significativamente másdifícil. Por la teoría de campos de clase, esto sólo puede ser verdadero si existe una extensión no-ramificada delcampo de las p-ésimas raíces de la unidad por una extensión cíclica de grado p que se comporta en la formaespecificada bajo la acción de Σ; Ribet demostró esto construyendo esta extensión utilizando métodos de la teoría delas formas modulares. Una demostración más simple del aporte de Ribet al teorema de Herbrand se puede consultaren el libro de Washington.[2]

Barry Mazur y Andrew Wiles, ampliaron y desarrollaron los métodos de Ribet en sus trabajos por demostrar laConjetura principal de la Teoría de Iwasawa,[3] un corolario de la cual es el refuerzo del teorema de Herbrand-Ribet:la potencia de p que divide Bp−n es exactamente la potencia de p que divide el orden de Gn.

Referencias[1] Ribet, Ken, A modular construction of unramified p-extensions of (μ

p), Inv. Math. 34 (3), 1976, pp. 151-162.

[2] Washington, Lawrence C., Introduction to Cyclotomic Fields, Second Edition, Springer-Verlag, 1997.[3] Mazur, Barry, and Wiles, Andrew, Class Fields of Abelian Extension of , Inv. Math. 76 (2), 1984, pp. 179-330.

Jean-François Lyotard 32

Jean-François Lyotard

Jean-François Lyotard.

Jean-François Lyotard (Versalles 1924- París 1998) Filósofo francés

Carrera

Lyotard estudió filosofía en la Sorbona. Uno de sus docentes fueMaurice de Gandillac.

Es reconocido por su introducción al estudio de la postmodernidad afinales de 1970.

Antes de este, fue miembro del grupo 'Socialisme ou Barbarie'(Socialismo o barbarie), un grupo de la izquierda crítica conformadopor intelectuales franceses iniciado en 1956 durante las revueltas enHungría en oposición al estalinismo del comunismo soviético.

Profesor en la Universidad de París VIII (Vincennes, Saint-Denis),miembro del Colegio de Francia, profesor emérito de la Universidad deParís.

Lyotard expuso en "Le Différend" que el discurso humano ocurre enun variado pero discreto número de dominios inconmesurables,ninguno de los cuales tiene el privilegio de pasar o emitir juicios de valor sobre los otros. Siendo así, en Economíalibidinal (1974), La condición postmoderna (1979) y Au juste: Conversations (1979), Lyotard atacó teorías literariascontemporáneas e incitó al discurso experimental desprovisto de excesivos intereses por la verdad. Consideró queya estaba pasada la época de los grandes relatos o "metarrelatos" que intentaban dar un sentido a la marcha de lahistoria.

Este autor criticó la sociedad actual postmoderna por el realismo del dinero, que se acomoda a todas las tendencias ynecesidades, siempre y cuando tengan poder de compra. Criticó los metadiscursos: el cristiano, el ilustrado, elmarxista y el capitalista. Según Lyotard, estos son incapaces de conducir a la liberación. La cultura postmoderna secaracteriza por la incredulidad con respecto a los metarrelatos, invalidados por sus efectos prácticos y actualmente nose trata de proponer un sistema alternativo al vigente, sino de actuar en espacios muy diversos para producir cambiosconcretos. El criterio actual de operatividad es tecnológico y no el juicio sobre lo verdadero y lo justo. Defendía lapluralidad cultural y la riqueza de la diversidad.

Obras• Economía libidinal (Économie libidinale, 1974)• La condición postmoderna: Informe sobre el saber (La Condition postmoderne: Rapport sur le savoir 1979)• Au juste: Conversations (1979)• La diferencia, traducción publicada en 1999 (Le Différend, 1983)• La confesión de Agustín,obra póstuma e incompleta (La Confession d`Agustin)

Jean-François Lyotard 33

Enlaces externos• Jean-François Lyotard. Amistad incombustible [1] Jacques Derrida• Bibliografía en inglés [2]

• "Fábula y paralogía como horizonte de la posmodernidad: Muerte de las metanarraciones y disensión en laheterogeneidad." [3] Por José Lira Rosiles.

Referencias[1] http:/ / www. jacquesderrida. com. ar/ textos/ lyotard. htm[2] http:/ / sun3. lib. uci. edu/ ~scctr/ Wellek/ lyotard/ index. html[3] http:/ / es. scribd. com/ doc/ 48264265/ Fabula-y-paralogia-como-horizonte-de-la-posmodernidad-Jose-Lira

Yutaka TaniyamaYutaka Taniyama (谷 山 豊? 12 de noviembre de 1927 - 17 de noviembre de 1958) fue un matemático japonés. Esconocido por la conjetura de Taniyama-Shimura, que fue un factor importante en la demostración del Últimoteorema de Fermat.

BiografíaTaniyama nació en Kisai, en la prefectura de Saitama (Japón). Su nombre, en realidad, era Toyo, pero muchos lellamaban Yutaka porque es una lectura más común del carácter 豊, con lo que acabó adoptando ese nombre.[1]

En el instituto, se interesó por las matemáticas por inspiración de la historia moderna de las matemáticas de TeijiTakagi.Taniyama estudió matemáticas en la Universidad de Tokio después de terminar la Segunda Guerra Mundial. Allídesarrolló una relación de amistad con otro estudiante, Gorō Shimura. Se graduó en 1953 y permaneció allí como'estudiante de investigación especial', y posteriormente como profesor asociado.Se interesó por la teoría algebraica de números. Escribió Teoría moderna de números (1957) en japonés, junto conGoro Shimura. Aunque pensaron en escribir una versión en inglés, perdieron entusiasmo y nunca tuvieron tiempo deescribirlo antes de la muerte de Taniyama.Pero, ante todo, los dos estaban fascinados por el estudio de las formas modulares, que son objetos que existen en elespacio complejo y que son peculiares debido a su nivel de simetría.La fama de Taniyama se debe principalmente a los dos problemas que planteó en el simposio de Teoría Algebraicade Números que tuvo lugar en Tokio en 1955 (Su reunión con Weil en este simposio tendría una gran influencia enel trabajo de Taniyama). Allí, presentó algunos problemas que trataron sobre la relación existente entre las formasmodulares y las curvas elípticas. Había notado algunas similitudes muy peculiares entre los dos tipos de entidades.Las observaciones de Taniyama le llevaron a creer que cada forma modular está relacionada con alguna curvaelíptica. Shimura trabajó posteriormente con Taniyama sobre esta idea de que las formas modulares y las curvaselípticas estaban relacionadas, y esto forma la base de la conjetura de Taniyama-Shimura:[2]

Toda curva elíptica definida sobre el campo racional es un factor del jacobiano de un campo de funciones modulares

. Esta conjetura demostró ser una parte importante en la demostración del Último Teorema de Fermat de AndrewWiles.Con un futuro aparentemente brillante por delante, tanto en las matemáticas como en su vida privada (estaba planificando su matrimonio), se suicidó. En una nota que dejó, tuvo mucho cuidado en describir exactamente hasta qué punto había llegado en los cursos de cálculo y álgebra lineal que había estado impartiendo y en disculparse ante

Yutaka Taniyama 34

sus colegas por todo lo que su muerte les supondría. En cuanto al motivo que le llevó a quitarse la vida, explicó:Hasta ayer, no tenía la intención definitiva de suicidarme. Más de uno debe haber notado queúltimamente estoy cansado tanto física como mentalmente. Yo mismo no lo entiendo del todo, pero noes el resultado de un incidente particular, ni una cuestión específica. Simplemente quiero decir que heperdido la confianza en el futuro. Quizás mi suicidio pueda perturbar o ser un duro golpe para ciertaspersonas. Espero sinceramente que este incidente no ensombrezca la vida de esta persona. En cualquiercaso, no puedo negar que esta es una especie de traición. Excusad mi comportamiento. Es el último actoque hago a mi manera, como he venido haciendo mi manera toda mi vida.

Un mes más tarde, Misako Suzuki, la mujer con quien se iba a casar también se suicidó dejando una nota que decía:"Nos prometimos que no importaría a dónde nos dirigiéramos, nunca nos separaríamos. Ahora que se ha ido, yotambién me tengo que ir a reunirme con él. "Las ideas de Taniyama han sido objeto de críticas sin fundamento y su conducta había sido considerado en ocasionespeculiar. Goro Shimura mencionó que padecía depresión. Taniyama también menciona en su nota de suicidio lapreocupación de que algunos podrían ser perjudicados por su decisión de quitarse la vida y su esperanza de que elacto no produzca "una oscura sombra sobre esta persona."Después de la muerte de Taniyama, Goro Shimura declaró que:

Taniyama fue siempre amable con sus colegas. Fue el apoyo moral de muchos matemáticos que leconocieron y estuvieron en contacto con él, incluyendo por supuesto a mí mismo. Probablemente, nuncafue consciente del papel que estaba jugando. Aprecio su noble generosidad más ahora que cuando estabavivo. Sin embargo nadie fue capaz de darle todo el apoyo cuando lo necesitaba desesperadamente. Mesiento realmente abrumado por el dolor más amargo.

Referencias[1] « Yutaka Taniyama Biography (http:/ / www. biographybase. com/ biography/ Taniyama_Yutaka. html)» (en inglés). Consultado el

13/abril de 2009.[2] « Taniyama Biography (http:/ / www-gap. dcs. st-and. ac. uk/ ~history/ Mathematicians/ Taniyama. html)» (en inglés). Consultado el

13/abril de 2009.

Luis Gonzaga 35

Luis Gonzaga

San Luis Gonzaga

San Luis de Gonzaga, S.J. Retrato pintado por Goya.Santo confesor

Nombre Luis Gonzaga

Nacimiento 9 de marzo de 1568Castiglione delle Stiviere,  Italia

Fallecimiento 21 de junio de 1591Roma,  Italia

Venerado en Iglesia Católica Romana

Canonización 1726

Órdenes Compañía de Jesús

Festividad 21 de junio

Patronazgo Patrón de la juventud cristiana

San Luis Gonzaga (Castiglione delle Stiviere, Lombardía, 9 de marzo de 1568 - Roma, 21 de junio de 1591). Jesuitaitaliano. Beatificado por Paulo V el 19 de octubre de 1605, y canonizado el 13 de diciembre de 1726 por BenedictoXIII, quien lo declaró patrono de la juventud, título confirmado por Pío XI el 13 de junio de 1926. Se celebra sufiesta el 21 de junio.

BiografíaPrimogénito de Ferrante Gonzaga, marqués de Castiglione, quien en 1566, estando al servicio del rey español FelipeII, se casó en la capilla del Real Alcázar de Madrid con Marta Tana de Santena, dama de la reina Isabel de Valois.Fue el primero de siete hijos y heredero del título.Después de la batalla de Lepanto (1571), don Ferrante recibió el encargo de preparar 3.000 infantes para la empresa de Túnez, y se trasladó a Castelmagiore con su hijo Luis que, durante cuatro o cinco años, vivió entre los soldados. Cuando en 1573 su padre se embarcó para África, Luis regresó a Castiglione, donde, con su madre y sus hermanos, vivió una vida de intensa piedad. La peste de 1576, impulsó a su padre a llevar a sus dos hijos mayores, Luis y Rodolfo, a Florencia, cuyo gran duque Francisco de Médicis, había sido compañero suyo en Madrid. Hasta 1580, Luis y Rodolfo estuvieron al cuidado de un ayo, Pierfrancesco del Turco, quien les buscó maestros de caligrafía, latín, equitación. Cuando en 1579 Ferrante fue nombrado gobernador de Monferrato por el duque de Mantua Guillermo Gonzaga, hizo conducir a sus hijos a la corte ducal. En Mantua, la duquesa Leonor de Austria cuidó a Luis como una madre. Una dolencia hepática le obligó a seguir severas dietas, que le ayudaron en su vida de penitencia. A los 12 años recibió allí la primera comunión de manos de San Carlos Borromeo que se encontraba de

Luis Gonzaga 36

visita por la región de Brescia.En 1581, su padre se trasladó a Madrid como parte del séquito de la ex emperatriz María de Habsburgo, hija deCarlos I y viuda de Maximiliano II; Luis y Rodolfo serían pajes del príncipe don Diego, heredero de Felipe II. En lacorte de España el Libro de la oración y meditación de Luis de Granada fue su guía de vida interior, al paso querecibía lecciones de ciencias del Dr. Dimas de Miguel, amigo de Juan de Herrera.

Vocación religiosaEstudió letras, ciencias y filosofía, leyó textos religiosos que le hicieron tomar la decisión de entrar en la Compañíade Jesús. Los esfuerzos de su padre por retenerlo, confiándole delicados asuntos de su familia en Lombardía, noconsiguieron nada. El 2 de noviembre de 1583, en el palacio de los Gonzaga de Mantua, cedió a su hermano Rodolfotodos sus derechos como primogénito, añadiendo: «¿Quién de los dos es más feliz?; ciertamente, yo». Dada laimportancia estratégica del marquesado de Castiglione, fue necesario que la cesión fuera aprobada por el Emperador.El 25 del mismo mes entraba en el noviciado jesuita de Roma. Siguieron luego los estudios de filosofía y teología.En 1587 recibió las órdenes menores.Dos años después, su director espiritual, Roberto Belarmino, le comunicó la orden del padre general ClaudioAcquaviva de trasladarse a Castiglione para poner paz entre Rodolfo y el duque de Mantua en sus disputas por elcastillo de Solferino, a petición de las madres de entrambos. Lo consiguió y, además, indujo a Rodolfo a hacerpúblico su matrimonio clandestino con Elena Aliprandi, sin dar importancia a las diferencias sociales.

Fallecimiento

Altar de San Luis Gonzaga en Roma, por el escultorPierre Legros el joven (1697-1699).

En 1590-1591 la peste hizo estragos en Roma, causando miles demuertes entre ellas la de los papas Sixto V, Urbano VII y GregorioXIV. Luis atendió con heroísmo a los apestados en S. Giacomodegli Incurabili, en San Juan de Letrán, en S. María de laConsolación, y en el hospital improvisado junto a la iglesia delGesú, donde contrajo la enfermedad. Así moría a los 23 años, trasuna vida rica en experiencias. Reconocía que «el Señor le habíadado un gran fervor en ayudar a los pobres», y añadía: «cuandouno tiene que vivir pocos años, Dios lo incita más a emprendertales acciones». Al padre provincial, que llegó a visitarle horasantes de morir, le dijo:

•• ¡Ya nos vamos, padre; ya nos vamos...!•• ¿A dónde, Luis?•• ¡Al Cielo!•• ¡Oigan a este joven! -exclamó el provincial- Habla de ir al cielo

como nosotros hablamos de ir a Frascati.

Bibliografía

• Lettere e opere spirituali di S. Luigi Gonzaga, ed. P. Boslo Boz,Roma 1949;

• Lettere e Scritti Spirituali di S. L. G., ed. E. ROSSA, Florencia 1926;• Acta Sanct., iunü, IV,847-1172; Copiae processum, ms. 72 del arc. de la Postulación gen. S. I.;• V. CEPARI, Vita del beato L. G., Roma 1606 (trad. cast. con notas de C. González Rodeles, Einsiedeln 1891,

nueva ed. preparada por L. Rocci, Roma 1926);• C. MARTINDALE, Un príncipe viril. S. Luis Gonzaga, Barcelona 1949;

Luis Gonzaga 37

• M. MESCHLER, Vida de S. Luis Gonzaga, patrono de la cristiana juventud, Friburgo de B. 1906;• M. SCADUTO, Il mondo di L. G., Roma 1968;• F. BAUMANN y A. CARDINAL, Luigi Gonzaga, en Bibl. Sanct. 8,348-357.

Enlaces externos• San Luis Gonzaga, S.J. [1]

• Vida del santo (en italiano). [2]

• San Luis Gonzaga y su santuario (en italiano). [3]

• El contenido de este artículo incorpora material [4] de la Gran Enciclopedia Rialp que mediante una autorizaciónpermitió agregar contenidos y publicarlos bajo licencia GFDL. La autorización fue revocada en abril de 2008, asíque no se debe añadir más contenido de esta enciclopedia.

Referencias[1] http:/ / www. sjmex. org/ luisgonzaga. htm[2] http:/ / www. santiebeati. it/ dettaglio/ 23450[3] http:/ / www. santuariosanluigi. it[4] http:/ / www. canalsocial. net/ GER/ busquedaav. asp

Ludwig Schläfli

Ludwig Schläfli.

Ludwig Schläfli (15 de enero de 1814 - 20 de marzo de 1895) fueun geómetra y estudioso del análisis de variable compleja suizo,una de las figuras clave en el desarrollo de la noción de espaciosde dimensiones mayores que 3. Es considerado, junto con ArthurCayley y Bernhard Riemann, uno de los arquitectos fundamentalesde la geometría multidimensional.

Biografía

Juventud y educación

Schläfli pasó la mayor parte de su vida en Suiza. Nació enGraßwyl, pueblo natal de su madre, y se trasladó luego a lacercana Burgdorf, donde su padre era comerciante. Este deseabaque Ludwig siguiera sus pasos, pero el joven carecía de interés porlos asuntos prácticos.

En virtud de sus habilidades matemáticas, se le permitió asistir alGymnasium de Berna en 1829. Para ese tiempo, ya estabaaprendiendo cálculo diferencial Mathematische Anfangsgründe der Analysis des Unendlichen de Abraham GotthelfKästner (1761). En 1831 pasó a la Akademie de Berna para proseguir sus estudios. En 1834 la Akademie seconvertiría en la Universität Bern, donde comenzó a estudiar teología.

Ludwig Schläfli 38

EnseñanzaLuego de graduarse en 1836 obtuvo un puesto como maestro de escuela secundaria en Thun. Permaneció allí hasta1847; en su tiempo libre estudiaba matemática y botánica mientras asistía a la universidad en Berna una vez a lasemana.En 1843 se produjo un cambio radical en su vida. Schläfli había planeado visitar Berlín y acercarse a la comunidadmatemática de esa ciudad, en especial a Jakob Steiner, un conocido matemático suizo. Pero Steiner fue a Berna y allíse encontraron. Steiner no sólo quedó impresionado por los conocimientos matemáticos de Schläfli, sino también porsu dominio del italiano y el francés.Steiner le propuso a Schläfli asistir a sus colegas de Berlín Jacobi, Dirichlet, Borchardt y el propio Steiner comointérprete en un viaje que realizarían a Italia.Schläfli los acompaño a Italia, y el viaje le resultó muy beneficioso. Permanecieron allí más de seis meses, tiempodurante el cual Schläfli hasta tradujo algunas obras matemáticas de los otros al italiano.

Vida posteriorSchläfli mantuvo correspondencia con Steiner hasta 1856. Se presentó para una cátedra en la universidad de Bernaen 1847, siendo incorporado en 1848. Allí permaneció hasta su retiro en 1891, y empleó su tiempo libre en estudiarsánscrito y traducir el libro sagrado hindú Rig Vedá al alemán, hasta su muerte en Berna en 1895.

Geometría multidimensionalHacia 1850 el concepto general de espacio euclidiano no se había desarrollado, pero las ecuaciones lineales de nvariables eran bien entendidas. William Rowan Hamilton había desarrollado los cuaterniones en la década de 1840, yJohn Thomas Graves y Cayley habían hecho lo propio con los octoniones. Estos sistemas trabajaban respectivamentecon bases de cuatro y ocho elementos, y sugerían una interpretación análoga a la de las coordenadas cartesianas en elespacio tridimensional.Desde 1850 hasta 1852 Schläfli trabajó en su obra fundamental, Theorie der vielfachen Kontinuität, en la que inicióel estudio de la geometría lineal del espacio n-dimensional. Sin embargo, sus propósitos de publicar la obra sefrustaron. Primero fue rechazada por la Akademie de Viena, debido a su extensión. Igaul suerte corrió en Berlín.Después de una larga pausa, se le pidió a Schläfli escribir una versión más corta, a lo que se negó. Ni siquiera suamigo Steiner pudo lograr que se publicase en el Crelle, por razones que se desconocen. Partes de la obra fueronpublicadas por Cayley en inglés en 1860. La primera publicación del manuscrito completo no sucedió hasta 1901,después de la muerte de Schläfli. La primera recensión del libro apareció en la revista matemática holandesa NieuwArchief voor de Wiskunde en 1904, escrita por el matemático holandés Pieter Hendrik Schoute.Mientras tanto, Riemann sostuvo su famosa Habilitationsvortrag «Über die Hypothesen welche der Geometrie zuGrunde liegen» en 1854, e introdujo el concepto de variedad n-dimensional. El concepto de espacios de mayoresdimensiones comenzaba a florecer. No se sabe si Riemann estaba familiarizado con la obra de Schläfli.

Ludwig Schläfli 39

PolitoposEn su Theorie der Vielfachen Kontinuität Schläfli define lo que llama poliesquemas, que hoy conocemos comopolitopos, análogos multidimensionales de los polígonos y los poliedros. Desarrolla su teoría y halla, entre otrascosas, un análogo multidimensional de la fórmula de Euler. Determina los politopos regulares, hallando que son seisen la dimensión 4 y tres en todas las dimensiones mayores que 4.Si bien Schläfli era bastante conocido entre sus colegas de la segunda mitad del siglo XIX, especialmente por suscontribuciones al análisis complejo, sus trabajos geométricos tempranos no merecieron la debida atención por largotiempo. Al comienzo del siglo XX Pieter Schoute y Alicia Boole Stott comenzaron a trabajar en politopos. AliciaBoole (hija de George Boole) volvió a probar los resultados de Schläfli para politopos regulares, sólo para ladimensión 4, y luego redescubrió su libro. Más tarde Abraham Willem Wijthoff estudió los politopos semiregulares,y este trabajo fue continuado por H. S. M. Coxeter, John Conway y otros. Todavía quedan numerosos problemas queresolver en el área de investigación abierta por Schläfli.

Enlace externo• O'Connor, John J.; Robertson, Edmund F., «Biografía de Ludwig Schläfli [1]» (en inglés), MacTutor History of

Mathematics archive, Universidad de Saint Andrews.La versión original de este artículo es una adaptación de en:Ludwig Schläfli en Wikipedia en inglés

Referencias[1] http:/ / www-history. mcs. st-andrews. ac. uk/ Biographies/ Schlafli. html

Plano (geometría)

Intersección de dos planos en un espaciotridimensional. Representación isométrica de

dos planos perpendiculares.

En geometría, un plano es el ente ideal que solo posee dos dimensiones,y contiene infinitos puntos y rectas; es uno de los entes geométricosfundamentales junto con el punto y la recta.

Solamente puede ser definido o descrito en relación a otros elementosgeométricos similares. Se suele describir apoyándose en los postuladoscaracterísticos, que determinan las relaciones entre los entesgeométricos fundamentales. .-Cuando se habla de un plano, se estáhaciendo referencia a la superficie geométrica que no posee volumen (esdecir, que es solo bidimensional) y que posee un número infinito derectas y puntos que lo cruzan de un lado al otro. Sin embargo, cuando eltérmino se utiliza en plural, se está hablando de aquel material que eselaborado como una representación gráfica de superficies de diferentetipo. Los planos son especialmente utilizados en ingeniería, arquitecturay diseño ya que sirven para diagramar en una superficie plana otras superficies que son regularmentetridimensionales.Plano vertical: Se representa como una recta oblicua en la proyección horizontal y como figuras diversas en laproyección verticalUn plano queda definido por los siguientes elementos geométricos:•• Tres puntos no alineados.•• Una recta y un punto exterior a ella.• Dos rectas paralelas.

Plano (geometría) 40

Representación gráfica informal de un plano.

•• Dos rectas que se cortan.

Los planos suelen nombrarse con una letra del alfabeto griego.Suele representarse gráficamente, para su mejor visualización, como una figura delimitada por bordes irregulares(para indicar que el dibujo es una parte de una superficie infinita).

Propiedades del plano ℝ3

En un espacio euclidiano tridimensional ℝ3, podemos hallar los siguientes hechos, (los cuales no son necesariamenteválidos para dimensiones mayores).•• Dos planos o son paralelos o se intersecan en una línea.•• Una línea es paralela a un plano o interseca al mismo en un punto o es contenida por el plano mismo.•• Dos líneas perpendiculares a un mismo plano son necesariamente paralelas entre sí.•• Dos planos perpendiculares a una misma línea son necesariamente paralelos entre sí.•• Entre un plano Π cualquiera y una línea no perpendicular al mismo existe solo un plano tal que contiene a la línea

y es perpendicular al plano Π.•• Entre un plano Π cualquiera y una línea perpendicular al mismo existe un número infinito de planos tal que

contienen a la línea y son perpendiculares al plano Π.

Ecuación del planoUn plano queda definido por los siguientes elementos geométricos: un punto y dos vectoresPunto P = (x1, y1, z1)Vector u = (a1, b1, c1)Vector v = (a2, b2, c2)

Esta es la forma vectorial del plano, sin embargo la forma más utilizada es la reducida, resultado de igualar a cero eldeterminante formado por los dos vectores y el punto genérico X = (x, y, z) con el punto dado. De esta manera laecuación del plano es:

Donde (A, B, C) es un vector perpendicular al plano, coincide con el producto vectorial de los vectores u y v. Lafórmula para hallar la ecuación cuando no está en el origen es:

Plano (geometría) 41

Posición relativa entre dos planosSi tenemos un plano 1 con un punto A y un vector normal 1, y también tenemos un plano 2 con un punto B y unvector normal 2.Sus posiciones relativas pueden ser:•• Planos coincidentes: la misma dirección de los vectores normales y el punto A pertenece al plano 2.•• Planos paralelos: si tienen la misma direción los vectores normales y el punto A no pertenece al plano 2.•• Planos secantes: si los vectores normales no tienen la misma dirección.

Distancia de un punto a un plano

Para un plano cualquiera y un punto cualquiera nonecesariamente contenido en dicho plano Π, la menor distancia entre P

1 y el plano Π es:

De lo anterior se deduce que el punto P1

pertenecerá al plano Π si y solo si D=0.Si los coeficientes a, b y c de la ecuación canónica de un plano cualquiera están normalizados, esto es cuando

, entonces la fórmula anterior de la distancia D se reduce a:

SemiplanoSe llama semiplano, en geometría, a cada una de las dos partes en que un plano queda dividido por una recta.

Postulados de la división de un planoEn cada pareja de semiplanos que una recta r determina sobre un plano, existen infinitos puntos tales que:1.1. Todo punto del plano pertenece a uno de los dos semiplanos, o a la recta que los determina.2. Dos puntos del mismo semiplano, determinan un segmento que no corta a la recta r.3. Dos puntos de semiplanos diferentes, determinan un segmento que corta a la recta r. Ésta, la recta, es un conjunto

de infinitos puntos alineados, sin principio ni fin.

Referencias• Weisstein, Eric W. « Plano (http:/ / mathworld. wolfram. com/ Plane. html)» (en inglés). MathWorld. Wolfram

Research.

Espacio euclídeo 42

Espacio euclídeoEn matemáticas, el espacio euclídeo es un tipo de espacio geométrico donde se satisfacen los axiomas de Euclidesde la geometría. La recta real, el plano euclídeo, el espacio tridimensional de la geometría euclidiana son casosespeciales de espacios euclídeos de dimensiones 1, 2 y 3 respectivamente. El concepto abstracto de espacio euclídeogeneraliza esas construcciones a más dimensiones.El término euclídeo se utiliza para distinguir estos espacios de los espacios curvos de las geometrías no euclidianas ydel espacio de la teoría de la relatividad de Einstein. Para resaltar el hecho de que un espacio euclídeo puede poseer ndimensiones, se suele hablar de "espacio euclídeo n-dimensional" (denotado , o incluso ).

IntroducciónUn espacio euclídeo es un espacio vectorial normado sobre los números reales de dimensión finita, en que la normaes la asociada al producto escalar ordinario. Para cada número entero no negativo n, el espacio euclídeon-dimensional es el conjunto:

junto con la función distancia obtenida mediante la siguiente definición de distancia entre dos puntos (x1, ..., xn) e(y1, ..., yn):

Esta función distancia está basada en el teorema de Pitágoras y es llamada Distancia euclidiana.

Estructuras sobre el espacio euclídeoLos espacios euclidianos y sus propiedades han servido de base para generar gran cantidad de conceptosmatemáticos relacionados con la geometría, la topología, el álgebra y el cálculo. Aunque el espacio euclídeo sueleser introducido, por razones didácticas, como espacio vectorial, en realidad sobre él se pueden definir muchas másestructuras. El espacio euclídeo es además de un espacio vectorial un caso de:• Un espacio de Hilbert de dimensión finita, con el producto escalar ordinario.• Un espacio de Banach de dimensión finita, con norma inducida por el producto escalar interior.• Un espacio métrico completo, con distancia inducida por la norma anterior.• Un espacio topológico, inducido por la métrica euclídea.• Un grupo de Lie, con la operación de adición.• Un álgebra de Lie con el producto vectorial.

Espacio euclídeo 43

El espacio euclídeo como espacio métricoPor definición, E n es un espacio métrico, y es por tanto también un espacio topológico; es el ejemplo prototípico deuna n-variedad, y es de hecho una n-variedad diferenciable. Para n ≠ 4, cualquier n-variedad diferenciable que seahomeomorfa a E n es también difeomorfa a ella. El hecho sorprendente es que esto no es cierto también para n = 4, loque fue probado por Simon Donaldson en el año 1982; los contraejemplos se llaman 4-espacios exóticos (o falsos).

El espacio euclídeo como espacio topológicoSe puede decir mucho sobre la topología de E n. Un resultado importante, la invariancia del dominio de Brouwer, esel de que cualquier subconjunto de E n que sea homeomorfo a un subconjunto abierto de E n es en sí mismo abierto.Como consecuencia inmediata de esto se tiene que E m no es homeomorfo a E n si m ≠ n -- un resultadointuitivamente "obvio" que sin embargo no es fácil de demostrar.

El espacio euclídeo como espacio vectorialEl n-espacio euclídeo se puede considerar también como un Espacio vectorial n-dimensional real, de hecho unEspacio de Hilbert, de manera natural. El producto escalar, de x = (x1,...,xn) e y = (y1,...,yn) está dado por:

Referencias• Kelley, John L. (1975). General Topology. Springer-Verlag. ISBN 0-387-90125-6.• Munkres, James (1999). Topology. Prentice-Hall. ISBN 0-13-181629-2.

Espacio vectorial normadoEn matemática un espacio vectorial se dice que es normado si en él se puede definir una norma vectorial. Podemosseñalar los siguientes hechos que ayudan a comprender la importancia del concepto de espacio normado:• En un espacio euclídeo, la norma coincide precisamente con la longitud del vector.• Todo espacio vectorial normado es un espacio métrico con la distancia inducida por la norma.• Si el espacio vectorial es además completo se dice que es un espacio de Banach.

DefiniciónUn espacio vectorial V sobre un cuerpo en el que se define un valor absoluto (generalmente o ) se diceque es normado si en él se puede definir una norma, es decir, una aplicación , que verifica:1. No negatividad. Para todo de su norma ha de ser positiva, y será cero si y sólo si es el vector cero:

si y .2. Homogeneidad. Para todo de y para todo k de se satisface que · donde | | es el

módulo o valor absoluto.3. Desigualdad triangular. Para todos e de se cumple que .Generalmente se denotará a al espacio vectorial normado y cuando la norma sea clara simplemente por .

Espacio vectorial normado 44

Ejemplos

De dimensión finita•• Los espacios euclídeos , estudiados en el análisis clásico.• Las matrices cuadradas de orden n sobre :

De dimensión infinita• El espacio de Hilbert de funciones de cuadrado integrable sobre un intervalo con la norma dada por el

producto escalar .• El espacio de funciones continuas sobre un espacio topológico compacto con la norma del supremo:

Distancia inducidaEn todo espacio vectorial normado se puede definir la distancia :

con la cual (V,d) es un espacio métrico.

Espacios vectoriales normados de dimensión finitaSe cumplen los siguientes resultados (que generalmente no son ciertos para espacios de dimensión infinita):• Todas las normas definidas en el espacio son equivalentes, es decir, definen la misma topología. La convergencia

o divergencia de una sucesión no depende de la norma escogida. El resultado no es cierto para espacios dedimensión infinita siendo siempre posible encontrar dos normas que no son equivalentes.

• El espacio es completo, es decir, es un espacio de Banach. Como consecuencia, todo subespacio de dimensiónfinita de un espacio vectorial (no necesariamente de dimensión finita) es cerrado.

•• Un espacio vectorial normado es de dimensión finita si y sólo si la bola unidad es compacta.•• Todo funcional lineal es continuo. Si el espacio tiene dimensión infinita, existen funcionales lineales no

continuos.• Teorema de Heine-Borel o teorema de Borel-Lebesgue. Un subconjunto del espacio vectorial es compacto si y

solo si es cerrado y acotado.

Espacios normados de dimensión infinitaEn análisis funcional, teoría de ecuaciones diferenciales e incluso en mecánica cuántica intervienen espaciosnormados de dimensión infinita, en especial espacios de Banach y espacios de Hilbert. Ambos tipos de espacios sonmétricamente completos, siendo todo espacio de Hilbert trivialmente también un espacio de Banach (al revés sólo escierto si la norma del espacio de Banach satisface la ley del paralelogramo).Los espacios de Banach son ampliamente usados para discutir ecuaciones de evolución que involucran ecuacionesdiferenciales ordinarias (en concreto un problema bien definido está definido sobre un espacio de Banach).

Espacio vectorial normado 45

Referencias

Bibliografía• Iribarren, Ignacio L.: Topología de espacios métricos (1973) Editorial Limusa Wiley S.A. , primera edición ,

impreso en México• Cotlar, Mischa und Cignoli, Roberto: Nociones de espacios normados (1967) Editorial Universitaria de Buenos

aires, impreso en La Argentina.

Espacio de BanachEn matemáticas, los espacios de Banach, llamados así en honor de Stefan Banach, son uno de los objetos de estudiomás importantes en análisis funcional. Los espacios de Banach son típicamente espacios de funciones de dimensióninfinita.

DefiniciónUn espacio de Banach es un espacio vectorial normado completo. Esto quiere decir que un espacio de Banach es unespacio vectorial sobre el cuerpo de los números reales o el de los complejos con una norma ||·|| tal que todasucesión de Cauchy (con respecto a la métrica d(x, y) = ||x - y||) en V tiene un límite en V.

EjemplosDe aquí en adelante, designará uno de los cuerpos o :• Los conocidos espacios euclidianos , donde la norma euclidiana de x = (x1, ..., xn) está dada por ||x|| = (∑

|xi|²)1/2, son espacios de Banach.

• El espacio de todas las funciones continuas definidas sobre un intervalo compacto (cerrado y acotado)[a, b] tiene la estructura de espacio de Banach si definimos la norma según ||f|| = sup { |f(x)| : x en [a, b] }. Esta es,de hecho, una norma, gracias al hecho de que las funciones continuas definidas sobre un intervalo cerrado estánacotadas. Este espacio es completo con esta norma, y el espacio de Banach resultante se denota por C[a, b]. Esteejemplo se puede generalizar al espacio C(X) de todas las funciones continuas X → K, donde X es un espaciocompacto, o al espacio de todas las funciones continuas acotadas X → K, donde X es cualquier espaciotopológico, y aún al espacio B(X) de todas las funciones acotadas X → K, donde X es cualquier conjunto. Entodos estos ejemplos podemos multiplicar funciones y quedar en el mismo espacio: Todos estos espacios son, dehecho, álgebras de Banach unitarias.

Espacios de sucesiones lp

Si p ≥ 1 es un número real, podemos considerar el espacio de todas las sucesiones infinitas (x1, x2, x3, ...) deelementos en K tales que la serie infinita ∑i |xi|

p es finita. Entonces se define la norma-p de la sucesión como la raízp-ésima del valor de la serie. Este espacio, junto a su norma, es un espacio de Banach; se denota por lp:

El espacio de Banach l∞ consiste en todas las sucesiones acotadas de elementos en K; la norma de una de estassucesiones se define como el supremo de los valores absolutos de los miembros de la sucesión.

Espacio de Banach 46

Espacios de funciones Lp

De nuevo, si p ≥ 1 es un número real, podemos considerar a todas las funciones tales que | f |p esLebesgue-integrable, es decir el conjunto

Se define la norma de f como la raíz p-ésima de esta integral. Por sí mismo, este espacio no es un espacio de Banachporque existen funciones no nulas cuya norma es cero. Definimos una relación de equivalencia como sigue:

Es decir, f y g son equivalentes si y solo si la "semi-norma" de f - g es cero. El conjunto de las clases de equivalenciaobtiene entonces la estructura de espacio de Banach y es denotado por :

Es crucial usar la integral de Lebesgue en lugar de la integral de Riemann en este caso, porque la integral deRiemann no daría un espacio completo. Estos ejemplos se pueden generalizar: ver espacios L p para más detalles.

Otros ejemplos• Si X e Y son dos espacios de Banach, entonces podemos formar su suma directa X ⊕ Y, que es un espacio de

Banach también. Esta construcción se puede generalizar para la suma directa de una cantidad arbitraria deespacios de Banach.

• Si M es un subespacio vectorial cerrado de un espacio de Banach X, entonces el espacio cociente X/M es unespacio de Banach también.

• Finalmente, todo espacio de Hilbert es un espacio de Banach. El recíproco no es cierto.

Relación con espacios de HilbertComo se menciona anteriormente, cada espacio de Hilbert es un espacio de Banach porque, por definición, unespacio de Hilbert es completo con respecto a la norma asociada a su producto interior.No todos los espacios de Banach son espacios de Hilbert. Una condición necesaria y suficiente para que un espaciode Banach sea también un espacio de Hilbert es la identidad del paralelogramo:

para todo u y v en nuestro espacio de Banach V, y donde ||*|| es la norma sobre V.Si la norma de un espacio de Banach satisface esta identidad, entonces el espacio es un espacio de Hilbert, con elproducto interior dado por la identidad de polarización. Si V es un espacio de Banach real entonces la identidad depolarización es

y en el caso que V sea un espacio de Banach complejo la identidad de polarización está dada por

Para demostrar que la identidad del paralelogramo implica que la forma definida por la identidad de polarización esverdaderamente un producto interior, uno verifica algebraicamente que esta forma es aditiva, de donde, se sigue porinducción que la forma es lineal sobre los enteros y racionales. Entonces, como todo real es límite de alguna sucesiónde Cauchy de racionales, la completitud de la norma extiende la linealidad sobre toda la recta real. En el casocomplejo uno puede probar también que la forma bilineal es lineal sobre i en un argumento, y conjugada lineal en elotro.

Espacio de Banach 47

Construcciones en espacios de Banach

Operadores linealesSi V y W son espacios de Banach sobre el mismo cuerpo K, el conjunto de todas las transformaciones linealescontinuas A : V → W se denota por L(V, W). Es de notar que en espacios de infinitas dimensiones no todas lasfunciones lineales son automáticamente continuas. L(V, W) es un espacio vectorial, y definiendo la norma ||A|| = sup{ ||Ax|| : x en V con ||x|| ≤ 1 } se transforma en un espacio de Banach.El espacio L(V) = L(V, V) forma un álgebra de Banach unitaria, donde la operación de multiplicación está dada porla composición de funciones lineales.

Espacio dualSi V es un espacio de Banach y K es el cuerpo subyacente (el de los números reales, o bien, el de los númeroscomplejos), entonces K es un espacio de Banach (usando el valor absoluto como norma) y podemos definir alespacio dual V por V = L(V, K). Este es, de nuevo, un espacio de Banach. Se puede usar para definir una nuevatopología para V: la topología débil.Existe un mapeo natural F de V a V'' definido por: F(x)(f) = f(x) para todo x en V y f en V'. como consecuencia delteorema de Hahn-Banach, este mapeo es inyectivo; si llegara a ser sobreyectivo, entonces el espacio de Banach V sedice reflexivo. Los espacios reflexivos tienen muchas propiedades geométricas importantes. Un espacio es reflexivosi y solo si su espacio dual es reflexivo, lo que ocurre si y solo si su bola unitaria es compacta en la topología débil.Por ejemplo, lp es reflexivo para 1<p<∞ pero l¹ y l∞ no son reflexivos. El dual de lp es lq donde p y q estánrelacionados por la fórmula (1/p) + (1/q) = 1. Ver espacios L p para más detalles.

Derivada de FréchetDada una aplicación (no necesariamente lineal) f : V → W entre dos espacios de Banach es posible definir laderivada de esta función generalizando el caso de . Intuitivamente, si x es un elemento de V, la derivada de f en elpunto x es una forma lineal continua que aproxima f cerca de x. Formalmente, se dice que f es diferenciable en x siexiste una forma lineal continua A : V → W tal que

El límite aquí se toma sobre todas las sucesiones de elementos no nulos de V que converjan al nulo de V. Si el límiteexiste, escribimos Df(x) = A y le llamamos la derivada de f en x.Esta noción de derivada es una generalización de la derivada ordinaria de funciones R → R, pues las funcioneslineales de R a R son las multiplicaciones por números reales.Si f es diferenciable en todos los puntos x de V, entonces Df : V → L(V, W) es otra función entre espacios de Banach(que no es, en general, lineal), que posiblemente, se puede diferenciar de nuevo, definiendo así derivadas más altasde f. La n-ésima derivada en un punto x se puede ver como una función multilineal Vn → W.La diferenciación es una operación lineal en el siguiente sentido: si f y g son dos funciones V → W que sondiferenciables en x, y r y s son escalares de K, entonces rf + sg es diferenciable en x con D(rf + sg)(x) = rD(f)(x) +sD(g)(x).La regla de la cadena es también válida en este contexto: si f : V → W es diferenciable en x que pertenece a V, y g :W → X es diferenciable en f(x), entonces la función compuesta g o f es diferenciable en x ya la derivada es lacomposición de las derivadas:

Espacio de Banach 48

GeneralizacionesMuchos espacios importantes en análisis funcional, por ejemplo el espacio de todas las funciones infinitamentediferenciables de R en R o el espacio de todas las distribuciones sobre R son espacios vectoriales completos, pero nonormados, no siendo espacios de Banach entonces. En los espacios de Fréchet aún se tiene una métrica completa,mientras que los espacios LF son espacios vectoriales uniformes que surgen como límites de espacios de Fréchet.

Enlaces externos• Weisstein, Eric W. «Banach Space [1]» (en inglés). MathWorld. Wolfram Research.• Banach Space [2] en PlanetMath

Referencias[1] http:/ / mathworld. wolfram. com/ BanachSpace. html[2] http:/ / planetmath. org/ encyclopedia/ BanachSpace. html

Stefan BanachStefan Banach (AFI: 'stefan 'banax) (30 de marzo de 1892 en Cracovia, Imperio austrohúngaro[1] – 31 de agosto de1945 en Leópolis, Polonia, actual Ucrania), fue un matemático polaco, uno de los destacados de la Escuela deMatemática de Lwow (Lwowska Szkola Matematyki) en la Polonia previa a la guerra. Fue un autodidacto enmatemáticas; su talento fue descubierto accidentalmente por Juliusz Mien y posteriormente por Hugo Steinhaus.Cuando la Segunda Guerra Mundial comenzó, Banach era el presidente de la Sociedad Matemática Polaca y profesoren la Universidad de Leópolis (Uniwersytet Lwowski). Era un miembro de la Academia de las Ciencias de laRepública Socialista Soviética de Ucrania, y por otra parte mantenía una buena relación con los matemáticossoviéticos, y se le permitió permanecer en su cargo a pesar de la ocupación soviética, desde 1939, de la ciudad.Banach sobrevivió la posterior ocupación alemana desde julio de 1941 hasta febrero de 1944, ganándose la vidaalimentando un piojo con su sangre para el Instituto de Investigación sobre el Tifus del profesor Rudolf Weigl. Susalud empeoró durante la ocupación, y desarrolló un cáncer de pulmón. Tras la guerra, Leópolis se incorporó a laUnión Soviética, y Banach murió allí antes de que pudiera ser repatriado a Cracovia, Polonia. Está enterrado en elCementerio Lychakivskiy.

Obra• Rachunek różniczkowy i całkowy, tom I (Cálculo diferencial e integral, vol. 1) Lwów, Zakład Narodowy im.

Ossolińskich, 1929, 294 pp.• Rachunek różniczkowy i całkowy, tom II (Cálculo diferencial e integral, vol. 2), Lwów, Książnica-Atlas, 1930,

248 pp.• Teoria operacji. Tom l. Operacje liniowe (Teoría de las operacionse, vol. 1: Linear operations), Warsaw, Kasa

im. Mianowskiego, 1931, viii + 236 pp.• Théorie des opérations linéaires, Monografie Matematyczne 1 (Teoría de operaciones lineales, Monografías

Matemáticas 1), Warsaw, 1932, vii + 254 pp.• Mechanika w zakresie szkół akademickich, Monografie Matematyczne 8 (Mecánica para las escuelas

académicas, Monografías Matemáticas 8), Warsaw, Lwów, Wilno, 1938Théorie des opérations linéaires (Teoria operacji liniowych, 1932) está considerado la obra más importante deBanach. En ella formuló el concepto ahora conocido como Espacio de Banach, y demostró muchos teoremasfundamentales del análisis funcional. También creó y editó la revista Studia Mathematica.

Stefan Banach 49

Además de ser uno de los creadores del análisis funcional, Banach también hizo contribuciones importantes a lateoría de la medida, Teoría de conjuntos, y otras ramas de las matemáticas.

Referencias y notas[1] Cracovia, en la región de Galitzia, entonces pertenecía al Imperio austrohúngaro. Actualmente se encuentra en Polonia.

Enlaces externos• Théorie des opérations linéaires (http:/ / matwbn. icm. edu. pl/ kstresc. php?tom=1& wyd=10) Traducción de

1932 (en francés)• O'Connor, John J.; Robertson, Edmund F., « Biografía de Stefan Banach (http:/ / www-history. mcs. st-andrews.

ac. uk/ Biographies/ Banach. html)» (en inglés), MacTutor History of Mathematics archive, Universidad de SaintAndrews.

]]

Espacio de HilbertEn matemáticas, el concepto de espacio de Hilbert es una generalización del concepto de espacio euclídeo. Estageneralización permite que nociones y técnicas algebraicas y geométricas aplicables a espacios de dimensión dos ytres se extiendan a espacios de dimensión arbitraria, incluyendo a espacios de dimensión infinita. Ejemplos de talesnociones y técnicas son la de ángulo entre vectores, ortogonalidad de vectores, el teorema de Pitágoras, proyecciónortogonal, distancia entre vectores y convergencia de una sucesión. El nombre dado a estos espacios es en honor almatemático David Hilbert quien los utilizó en su estudio de las ecuaciones integrales.Más formalmente, se define como un espacio de producto interior que es completo con respecto a la norma vectorialdefinida por el producto interior. Los espacios de Hilbert sirven para clarificar y para generalizar el concepto deseries de Fourier, ciertas transformaciones lineales tales como la transformación de Fourier, y son de importanciacrucial en la formulación matemática de la mecánica cuántica.Los espacios de Hilbert y sus propiedades se estudia dentro del análisis funcional.

IntroducciónComo se explica en el artículo dedicado a los espacios de producto interior, cada producto interior <.,.> en unespacio vectorial H, que puede ser real o complejo, da lugar a una norma ||.|| que se define como sigue:

Decimos que H es un espacio de Hilbert si es completo con respecto a esta norma. Completo en este contextosignifica que cualquier sucesión de Cauchy de elementos del espacio converge a un elemento en el espacio, en elsentido que la norma de las diferencias tiende a cero. Cada espacio de Hilbert es así también un espacio de Banach(pero no viceversa).Todos los espacios finito-dimensionales con producto interior (tales como el espacio euclídeo con el producto escalarordinario) son espacios de Hilbert. Esto permite que podamos extrapolar nociones desde los espacios de dimensiónfinita a los espacios de Hilbert de dimensión infinita (por ejemplo los espacios de funciones). Sin embargo, losejemplos infinito-dimensionales tienen muchos más usos. Estos usos incluyen:• La teoría de las representaciones del grupo unitarias.• La teoría de procesos estocásticos cuadrado integrables.

Espacio de Hilbert 50

• La teoría en espacios de Hilbert de ecuaciones diferenciales parciales, en particular formulaciones del problemade Dirichlet.

• Análisis espectral de funciones, incluyendo teorías de wavelets.• Formulaciones matemáticas de la mecánica cuántica.El producto interior permite que uno adopte una visión "geométrica" y que utilice el lenguaje geométrico familiar delos espacios de dimensión finita. De todos los espacios vectoriales topológicos infinito-dimensionales, los espaciosde Hilbert son los de "mejor comportamiento" y los más cercanos a los espacios finito-dimensionales.Los elementos de un espacio de Hilbert abstracto a veces se llaman "vectores". En las aplicaciones, son típicamentesucesiones de números complejos o de funciones. En mecánica cuántica por ejemplo, un conjunto físico es descritopor un espacio complejo de Hilbert que contenga las "funciones de ondas" para los estados posibles del conjunto.Véase formulación matemática de la mecánica cuántica.Una de las metas del análisis de Fourier es facilitar un método para escribir una función dada como la suma(posiblemente infinita) de múltiplos de funciones bajas dadas. Este problema se puede estudiar de manera abstractaen los espacios de Hilbert: cada espacio de Hilbert tiene una base ortonormal, y cada elemento del espacio de Hilbertse puede escribir en una manera única como suma de múltiplos de estos elementos bajos.Los espacios de Hilbert fueron nombrados así por David Hilbert, que los estudió en el contexto de las ecuacionesintegrales. El origen de la designación, aunque es confuso, fue utilizado ya por Hermann Weyl en su famoso libro lateoría de grupos y la mecánica cuántica publicado en 1931. John von Neumann fue quizás el matemático que másclaramente reconoció su importancia.

EjemplosEn los siguientes ejemplos, asumiremos que el cuerpo subyacente de escalares es , aunque las definiciones sonsimilares al caso de que el cuerpo subyacente de escalares sea .

Espacios euclideosEl primer ejemplo, que ya había sido avanzado en la sección anterior, lo constituyen los espacios de dimensión finitacon el producto escalar ordinario.En otras palabras, n con la definición de producto interior siguiente:

donde la barra sobre un número complejo denota su conjugación compleja.

Espacios de sucesionesSin embargo, mucho más típico es el espacio de Hilbert infinito dimensional.

Si B es un conjunto, definimos sobre B, de la forma:

Este espacio se convierte en un espacio de Hilbert con el producto interior

para todo x e y en .B no tiene por que ser un conjunto contable en esta definición, aunque si B no es contable, el espacio de Hilbert queresulta no es separable.

Espacio de Hilbert 51

Expresado de manera más concreta, cada espacio de Hilbert es isomorfo a uno de la forma para un conjuntoadecuado B. Si B = N, se escribe simplemente .

Espacios de LebesgueÉstos son espacios funcionales asociados a espacios de medida (X, M, μ), donde M es una σ-álgebra de subconjuntosde X y μ es una medida contablememte aditiva en M. Sea L² μ(X) el espacio de funciones mediblescuadrado-integrables complejo-valoradas en X, módulo el subespacio de esas funciones cuya integral cuadrática seacero, o equivalentemente igual a cero casi por todas partes. cuadrado integrable significa que la integral del cuadradode su valor absoluto es finita. módulo igualdad casi por todas partes significa que las funciones son identificadas siy sólo si son iguales salvo un conjunto de medida 0.El producto interior de las funciones f y g se da como:

Uno necesita demostrar:•• Que esta integral tiene de hecho sentido.•• Que el espacio que resulta es completo.Éstos son hechos técnicamente fáciles. Obsérvese que al usar la integral de Lebesgue se asegura de que el espaciosea completo. Vea espacios Lp para discusión adicional de este ejemplo.

Espacios de Sobolev

Los espacios de Sobolev, denotados por son otro ejemplo de espacios de Hilbert, que se utilizan muy amenudo en el marco de las ecuaciones en derivadas parciales definidas sobre un cierto dominio . Los espacios deSobolev generalizan los espacios Lp.Además de los espacios de Sobolev generales se usan ciertas notaciones particulares para cierto tipo deespacios:

••

Bases ortonormalesUn concepto importante es el de una base ortonormal de un espacio de Hilbert H: esta es una familia {ek}k ∈ B de H'satisfaciendo:• Los elementos están normalizados: Cada elemento de la familia tiene norma 1: ||ek|| = 1 para todo k en B• Los elementos son ortogonales: Dos elementos cualesquiera de B son ortogonales, esto quiere decir: <ek, ej> = 0

para todos los k, j en B cumpliendo la condición j ≠ k.• Expansión densa: La expansión lineal de B es densa en H.También utilizamos las expresiones secuencia ortonormal y conjunto ortonormal. Los ejemplos de basesortonormales incluyen:• El conjunto {(1,0,0),(0,1,0),(0,0,1)} forma una base ortonormal de R³• La secuencia {fn: n ∈ Z} con fn(x) = exp(2πinx) forma una base ortonormal del espacio complejo L²([0, 1])• La familia {eb: b ∈ B} con eb(c) = 1 si b = c y 0 en caso contrario, forma una base ortonormal de l²(B).Obsérvese que en el caso infinito-dimensional, una base ortonormal no será una base en el sentido del álgebra lineal;para distinguir los dos, la última base se llama una base de Hamel.Usando el lema de Zorn, se puede demostrar que cada espacio de Hilbert admite una base ortonormal; además, cualesquiera dos bases ortonormales del mismo espacio tienen el mismo cardinal. Un espacio de Hilbert es separable

Espacio de Hilbert 52

si y solamente si admite una base ortonormal numerable.Puesto que todos los espacios separables infinito-dimensionales de Hilbert son isomorfos, y puesto que casi todos losespacios de Hilbert usados en la física son separables, cuando los físicos hablan de espacio de Hilbert quierensignificar el separable.Si {ek}k ∈ B es una base ortonormal de H, entonces cada elemento x de H se puede escribir como:

Incluso si B no es numerable, sólo contablemente muchos términos en esta suma serán diferentes a cero, y laexpresión está por lo tanto bien definida. Esta suma también se llama la expansión de Fourier de x.Si {ek}k ∈ B es una base ortonormal de H, entonces H es isomorfo a l²(B) en el sentido siguiente: existe una funciónlineal biyectiva Φ : H → l²(B) tal que

para todo x y y en H.

Operaciones en los espacios de Hilbert

Suma directa y producto tensorialDado dos (o más) espacios de Hilbert, podemos combinarlos en un espacio más grande de Hilbert tomando su sumadirecta o su producto tensorial. La primera construcción se basa en la unión de conjuntos y la segunda en el productocartesiano.

La suma directa requiere que , y es el mínimo espacio de Hilbert que "contiene" a la unión delos dos conjuntos:

Mientras que el producto tensorial es el mínimo espacio de Hilbert que "contiene" al producto castesiano:

Complementos y proyecciones ortogonalesSi S es un subconjunto del espacio de Hilbert H, definimos el conjunto de vectores ortogonales a S

es un subespacio cerrado de H y forma, por tanto, un espacio de Hilbert. Si V es un subespacio cerrado de H,entonces el se llama el complemento ortogonal de V. De hecho, cada x en H puede entonces escribirseunívocamente como x = v + w con v en V y w en . Por lo tanto, H es la suma directa interna de Hilbert de Vy . El operador lineal PV : H → H que mapea x a v se llama la proyección ortogonal sobre V.Teorema. La proyección ortogonal PV es un operador lineal auto-adjunto en H con norma ≤ 1 con la propiedad PV² =PV. Por otra parte, cualquier operador lineal E auto-adjunto tal que E² = E es de la forma PV, donde V es el rango deE. Para cada x en H, PV(x) es el elemento único v en V que minimiza la distancia ||x - v||.Esto proporciona la interpretación geométrica de PV(x): es la mejor aproximación a x por un elemento de V.

Espacio de Hilbert 53

ReflexividadUna propiedad importante de cualquier espacio de Hilbert es su reflexividad, es decir, su espacio bidual (dual deldual) es isomorfo al propio espacio. De hecho, se tiene todavía más, el propio espacio dual es isomorfo al espaciooriginal. Se tiene una descripción completa y conveniente del espacio dual (el espacio de todas las funciones linealescontinuas del espacio H en el cuerpo base), que es en sí mismo un espacio de Hilbert. De hecho, el teorema derepresentación de Riesz establece que para cada elemento φ del H ' dual existe un y solamente un u en H tal que

para todo x en H y la asociación φ ↔ u proporciona un isomorfismo antilineal entre H y H '. Esta correspondencia esexplotada por la notación bra-ket popular en la física pero que hace fruncir el ceño a los matemáticos.

Operadores en espacios de Hilbert

Operadores acotadosPara un espacio H de Hilbert, los operadores lineales continuos A: H → H son de interés particular. Un tal operadorcontinuo es acotado en el sentido que mapea conjuntos acotados a conjuntos acotados. Esto permite definir su normacomo

La suma y la composición de dos operadores lineales continuos son a su vez continuos y lineales. Para y en H, lafunción que envía x a <y, Ax> es lineal y continua, y según el teorema de representación de Riesz se puede por lotanto representar en la forma

Esto define otro operador lineal continuo A*: H → H, el adjunto de A.El conjunto L(H) de todos los operadores lineales continuos en H, junto con la adición y las operaciones decomposición, la norma y la operación adjunto, formas una C*-álgebra; de hecho, éste es el origen de la motivación yel más importante ejemplo de una C*-álgebra.Un elemento A en L(H) se llama auto-adjunto o hermitiano si A* = A. Estos operadores comparten muchaspropiedades de los números reales y se ven a veces como generalizaciones de ellos.Un elemento U de L(H) se llama unitario si U es inversible y su inverso viene dado por U*. Esto puede también serexpresado requiriendo que <Ux, Uy> = <x, y> para todos los x, y en H. Los operadores unitarios forman un grupobajo composición, que se puede ver como el grupo de automorfismos de H.

Operadores no acotadosEn mecánica cuántica, uno también considera operadores lineales, que no necesariamente son continuos y que nonecesariamente están definidos en todo espacio H. Uno requiere solamente que se definan en un subespacio denso deH. Es posible definir a operadores no acotados auto-adjuntos, y éstos desempeñan el papel de los observables en laformulación matemática de la mecánica cuántica.Ejemplos de operadores no acotados auto-adjuntos en el espacio de Hilbert L²(R) son:•• Una extensión conveniente del operador diferencial

donde i es la unidad imaginaria y f es una función diferenciable de soporte compacto.• El operador de multiplicación por x:

Espacio de Hilbert 54

éstos corresponden a los observables de momento y posición, respectivamente, expresados en unidades atómicas.Observe que ni A ni B se definen en todo H, puesto que en el caso de A la derivada no necesita existir, y en el caso deB la función del producto no necesita ser cuadrado-integrable. En ambos casos, el conjunto de argumentos posiblesforman subespacios densos de L²(R).

Referencias• Dieudonne, Jean Alexandre. Fundamentos de análisis moderno. — Barcelona. Buenos Aires : Reverté, 1966 . —

359 p.

Ortogonalidad (matemáticas)En matemáticas, el término ortogonalidad (del griego orthos —recto— y gonía —ángulo—) es una generalizaciónde la noción geométrica de perpendicularidad. En el espacio euclídeo convencional el término ortogonal y el términoperpendicular son sinónimos. Sin embargo, en espacios de dimensión finita y en geometrías no euclídeas el conceptode ortogonalidad generaliza al de perpendicularidad.

Ortogonalidad en espacios vectoriales

Definición

Formalmente, en un espacio vectorial con producto interior V, dos vectores e son ortogonales si elproducto escalar de es cero. Esta situación se denota . Además, un conjunto A se dice que esortogonal a otro conjunto B, si cualquiera de los vectores de A es ortogonal a cualquiera de los vectores del conjuntoB.

Ortogonalidad y perpendicularidad

En geometría euclídea se tiene, dos vectores e ortogonales forman un ángulo recto, los vectores y lo son ya que, . En espacios no euclídeospuede definirse de modo abstracto el ángulo entre dos vectores a partir del producto interior.

Ortogonalidad respecto de una matriz (A-ortogonalidad)Dados dos vectores y pertenecientes a un espacio vectorial de dimensión y una matriz de dimensión

, si el productor escalar , notado , es igual a cero, se dice que y sonortogonales respecto a la matriz o A-ortogonales. Un conjunto de vectores se dice que forma unabase A-ortonormal si para todo .

Ortogonalidad (matemáticas) 55

Transformación ortogonalEn Geometría y Álgebra lineal, una transformación de un espacio prehilbertiano en símismo —donde representa el producto escalar en — es ortogonal cuando es una aplicación lineal de

en sí mismo (un automorfismo) de forma que cualesquiera que sean los se cumple que.

En particular, el conjunto puede ser un espacio euclídeo.En caso de que sea un espacio vectorial sobre el cuerpo de los números complejos, se dirá que estransformación unitaria.

Ortogonalidad en otros contextosEl concepto de ortogonalidad puede extenderse a otros objetos geométricos diferente de los vectores. Por ejemplodos curvas suaves se consideran ortogonales en un punto si sus respectivos vectores tangentes son ortogonales. Dosfamilias de curvas se llaman ortogonales si en el punto de intersección de una curva de la primera familia con unacurva de la segunda familia ambas resultan ser ortogonales. Un ejemplo de esto es el de las líneas isostáticas detracción y compresión en una viga, las cuales son las envolventes de las tensiones principales.

Sistemas de coordenadas ortogonalesUn sistema de coordenadas sobre una variedad de Riemann o un espacio localmente euclídeo es ortogonal cuandolas líneas coordenadas asociadas a los valores constantes de alguna de las coordenadas tienen vectores tangentes queson ortogonales entre sí. Las coordenadas cartesianas, las coordenadas cilíndricas y las coordenadas esféricas sonejemplos de sistemas de coordenadas ortogonales.Los sistemas de coordenadas ortogonales son interesantes porque el tensor métrico expresado en ese sistema decoordenadas es diagonal. Si además todos los términos del tensor métrico son +1 (o también -1 si estamos en unaVariedad pseudoriemanniana) el sistema de coordendas se califica además de ortonormal.Los sistemas de coordenadas ortogonales las líneas coordenadas forman familias de curvas ortogonales entre sí.

ReferenciasWeisstein, Eric W. «Ortogonal [1]» (en inglés). MathWorld. Wolfram Research.

Referencias[1] http:/ / mathworld. wolfram. com/ Orthogonal. html

Función de onda 56

Función de onda

Función de onda para una partícula bidimensional encerrada en una caja. Las líneas denivel sobre el plano inferior están relacionadas con la probabilidad de presencia.

En mecánica cuántica, una función deonda es una forma derepresentar el estado físico de unsistema de partículas. Usualmente esuna función compleja, de cuadradointegrable y univaluada de lascoordenadas espaciales de cada una delas partículas. Las propiedadesmencionadas de la función de ondapermiten interpretarla como unafunción de cuadrado integrable. Laecuación de Schrödinger proporcionauna ecuación determinista paraexplicar la evolución temporal de lafunción de onda y, por tanto, del estadofísico del sistema en el intervalocomprendido entre dos medidas(cuando se hace una medida deacuerdo con el postulado IV la evolución no es determinista).

Históricamente el nombre función de onda se refiere a que el concepto fue desarrollado en el marco de la primerafísica cuántica, donde se interpretaba que las partículas podían ser representadas mediante una onda física que sepropaga en el espacio. En la formulación moderna, la función de onda se interpreta como un objeto mucho másabstracto, que representa un elemento de un cierto espacio de Hilbert de dimensión infinita que agrupa a los posiblesestados del sistema.

Formulación original de Schrödinger-De BroglieEn 1923 De Broglie propuso la llamada hipótesis de De Broglie por la que a cualquier partícula podía asignársele unpaquete de ondas materiales o superposición de ondas de frecuencia y longitud de onda asociada con el momentolineal y la energía:

donde son el momento lineal y la energía cinética de la partícula, y son el vector número de onda y lafrecuencia angular. Cuando se consideran partículas macroscópicas muy localizadas el paquete de ondas se restringecasi por completo a la región del espacio ocupada por la partícula y, en ese caso, la velocidad de movimiento de lapartícula no coincide con la velocidad de fase de la onda sino con la velocidad de grupo del paquete:

donde . Si en lugar de las expresiones clásicas del momento lineal y la energía se usan lasexpresiones relativistas, lo cual da una descripción más precisa para partículas rápidas, un cálculo algo más largo,basado en la velocidad de grupo, lleva a la misma conclusión.La fórmula de De Broglie encontró confirmación experimental en 1927 un experimento que probó que la ley de Bragg, inicialmente formulada para rayos X y radiación de alta frecuencia, era también válida para electrones lentos

Función de onda 57

si se usaba como longitud de onda la longitud postulada por De Broglie. Esos hechos llevaron a los físicos a tratar deformular una ecuación de ondas cuántica que en el límite clásico macroscópico se redujera a las ecuaciones demovimiento clásicas o leyes de Newton. Dicha ecuación ondulatoria había sido formulada por Erwin Schrödinger en1925 y es la celebrada Ecuación de Schrödinger:

donde se interpretó originalmente como un campo físico o campo de materia que por razones históricas sellamó función de onda y fue el precedente histórico del moderno concepto de función de onda.El concepto actual de función de onda es algo más abstracto y se basa en la interpretación del campo de materia nocomo campo físico existente sino como amplitud de probabilidad de presencia de materia. Esta interpretación,introducida por Max Born, le valió la concesión del premio Nobel de física en 1954.

Formulación moderna de Von NeumannLos vectores en un espacio vectorial se expresan generalmente con respecto a una base (un conjunto concreto devectores que "expanden" el espacio, a partir de los cuales se puede construir cualquier vector en ese espaciomediante una combinación lineal). Si esta base se indexa con un conjunto discreto (finito, contable), larepresentación vectorial es una "columna" de números. Cuando un vector de estado mecanocuántico se representafrente a una base continua, se llama función de ondas.

FormalizaciónLa formalización rigurosa de la función de onda requiere considerar espacios de Hilbert equipados, donde puedanconstruirse bases más generales. Así para cualquier operador autoadjunto, al teorema de descomposición espectral,permite construir el equivalente de una base vectorial dependiente de un índice continuo (infinito, incontable). Porejemplo, si se considera el operador de posición , que es autoadjunto sobre un dominio denso en el espacio deHilbert convencional , entonces se pueden construir estados especiales:

Pertenecientes a un espacio equipado de Hilbert , tal que la función de onda puede ser interpretada como las"componentes" del vector de estado del sistema respecto a una base incontable formada por dichos vectores:

Nótese que aunque los estados propios del operador posición no son normalizables, ya que en general nopertenecen al espacio de Hilbert convencional del sistema (sino sólo al espacio equipado), el conjunto de funcionesde onda sí definen estados en el espacio de Hilbert. Eso sucede porque los estados propios satisfacen:

Puesto que las funciones de onda así definidas, que son de cuadrado integrable, sí forman un espacio de Hilbertisomorfo y homeomorfo al original, el cuadrado del módulo de la función de onda puede ser interpretado como ladensidad de probabilidad de presencia de las partículas en una determinada región del espacio.

Un tratamiento análogo al anterior usando vectores propios del operador momento lineal también pertenecientes aun espacio equipado de Hilbert permiten definir las "funciones de onda" sobre el espacio de momentos. El conjuntode estos estados cuánticos propios del operador momento son llamados en física "base de espacio-k" (encontraposición a la función de onda obtenida a partir del operador posición que se llama "base de espacio-r"). Por larelación de conmutación entre los operadores posición y momento, las funciones de onda en espacio-r y en espacio-kson pares de transformadas de Fourier.

Función de onda 58

El nombre espacio-k proviene de que , mientras que el nombre espacio-r proviene del hecho de que lascoordenadas espaciales con frecuencia se designan mediante el vector

Problemas de nomenclaturaPor la relación concreta entra la función de onda y la localización de una partícula en un espacio de posiciones,muchos textos sobre mecánica cuántica tienen un enfoque "ondulatorio". Así, aunque el término función de onda seuse como sinónimo "coloquial" para vector de estado, no es recomendable, ya que no sólo existen sistemas que nopueden ser representados por funciones de onda, sino que además el término función de onda lleva a imaginar quehay algún medio que está ondulando en sentido mecánico.

Referencias

Bibliografía• de la Peña, Luis (2006). Introducción a la mecánica cuántica (3 edición). México DF: Fondo de Cultura

Económica. ISBN 968-16-7856-7.

Enlaces externos• La Relatividad de Escala descubre el Universo como una gran función de onda (http:/ / www. tendencias21. net/

La-Relatividad-de-Escala-descubre-el-Universo-como-una-gran-funcion-de-onda_a1500. html)

Ecuación de SchrödingerLa ecuación de Schrödinger fue desarrollada por el físico austríaco Erwin Schrödinger en 1925. Describe laevolución temporal de una partícula masiva no relativista. Es de importancia central en la teoría de la mecánicacuántica, donde representa para las partículas microscópicas un papel análogo a la segunda ley de Newton en lamecánica clásica. Las partículas microscópicas incluyen a las partículas elementales, tales como electrones, así comosistemas de partículas, tales como núcleos atómicos.

Nacimiento de la ecuación

Contexto históricoAl comienzo del siglo XX se había comprobado que la luz presentaba una dualidad onda corpúsculo, es decir, la luzse podía manifestar (según las circunstancias) como partícula (fotón en el efecto fotoeléctrico), o como ondaelectromagnética en la interferencia luminosa. En 1923 Louis-Victor de Broglie propuso generalizar esta dualidad atodas las partículas conocidas. Propuso la hipótesis, paradójica en su momento, de que a toda partícula clásicamicroscópica se le puede asignar una onda, lo cual se comprobó experimentalmente en 1927 cuando se observó ladifracción de electrones. Por analogía con los fotones, De Broglie asocia a cada partícula libre con energía ycantidad de movimiento una frecuencia y una longitud de onda :

La comprobación experimental hecha por Clinton Davisson y Lester Germer mostró que la longitud de onda asociada a los electrones medida en la difracción según la fórmula de Bragg se correspondía con la longitud de onda

Ecuación de Schrödinger 59

predicha por la fórmula de De Broglie.Esa predicción llevó a Schrödinger a tratar de escribir una ecuación para la onda asociada de De Broglie que paraescalas macroscópicas se redujera a la ecuación de la mecánica clásica de la partícula. La energía mecánica totalclásica es:

El éxito de la ecuación, deducida de esta expresión utilizando el principio de correspondencia, fue inmediato por laevaluación de los niveles cuantificados de energía del electrón en el átomo de hidrógeno, pues ello permitía explicarel espectro de emisión del hidrógeno: series de Lyman, Balmer, Bracket, Paschen, Pfund, etc.La interpretación física correcta de la función de onda de Schrödinger fue dada en 1926 por Max Born. En razón delcarácter probabilista que se introducía, la mecánica ondulatoria de Schrödinger suscitó inicialmente la desconfianzade algunos físicos de renombre como Albert Einstein, para quien «Dios no juega a los dados».

La derivación históricaEl esquema conceptual utilizado por Schrödinger para derivar su ecuación reposa sobre una analogía formal entre laóptica y la mecánica:• En la óptica ondulatoria, la ecuación de propagación en un medio transparente de índice real n variando

lentamente a la escala de la longitud de onda conduce —mientras se busca una solución monocromática donde laamplitud varía muy lentamente ante la fase— a una ecuación aproximada denominada eikonal. Es laaproximación de la óptica geométrica, a la cual está asociada el principio variacional de Fermat.

• En la formulación hamiltoniana de la mecánica clásica, existe una ecuación de Hamilton-Jacobi (que en últimainstancia es equivalente a las leyes de Newton). Para una partícula masiva no relativista sometida a una fuerza quederiva de una energía potencial, la energía mecánica total es constante y la ecuación de Hamilton-Jacobi para la”función característica de Hamilton” se parece formalmente a la ecuación de la eikonal (el principio variacionalasociado es el principio de mínima acción.)

Este paralelismo lo había notado ya Hamilton en 1834, pero el no tenía una razón para dudar de la validez de lamecánica clásica. Después de la hipótesis de De Broglie de 1923, Schrödinger dice:[1] la ecuación de la eikonalsiendo una aproximación a la ecuación de onda de la óptica ondulatoria, buscamos la ecuación de onda de la"mecánica ondulatoria" (a realizar) donde la aproximación será la ecuación de Hamilton-Jacobi. Lo que falta,primero para una onda estacionaria (E = cte), después para una onda de cualquier tipo.[2]

Schrödinger había en efecto comenzado por tratar el caso de una partícula relativista —como de Broglie antes queél—.[3] Entonces había obtenido la ecuación conocida hoy día con el nombre de Klein-Gordon, pero su aplicación alcaso del potencial eléctrico del átomo de hidrógeno daba unos niveles de energía incompatibles con los resultadosexperimentales.[4] Ello hará que se concentre sobre el caso no-relativista, con el éxito conocido.

Interpretación estadística de la función de ondaA principios de la década de 1930 Max Born que había trabajado junto con Werner Heisenberg y Pascual Jordan enuna versión de la mecánica cuántica basada en el formalismo matricial alternativa a la de Heisenberg apreció que laecuación de Schrödinger compleja tiene una integral de movimiento dada por que podía serinterpretada como una densidad de probabilidad. Born le dio a la función de onda una interpretación probabilísticadiferente de la que De Broglie y Schrödinger le habían dado, y por ese trabajo recibió el premio Nobel en 1954. Bornya había apreciado en su trabajo mediante el formalismo matricial de la mecánica cuántica que el conjunto deestados cuánticos llevaba de manera natural a construir espacios de Hilbert para representar los estados físicos de unsistema cuántico.

Ecuación de Schrödinger 60

De ese modo se abandonó el enfoque de la función de onda como una onda material, y pasó a interpretarse de modomás abstracto como una amplitud de probabilidad. En la moderna mecánica cuántica, el conjunto de todos losestados posibles en un sistema se describe por un espacio de Hilbert complejo y separable, y cualquier estadoinstantáneo de un sistema se describe por un "vector unitario" en ese espacio (o más bien una clase de equivalenciade vectores unitarios). Este "vector unitario" codifica las probabilidades de los resultados de todas las posiblesmedidas hechas al sistema. Como el estado del sistema generalmente cambia con el tiempo, el vector estado es unafunción del tiempo. Sin embargo, debe recordarse que los valores de un vector de estado son diferentes para distintaslocalizaciones, en otras palabras, también es una función de x (o, tridimensionalmente, de r). La ecuación deSchrödinger da una descripción cuantitativa de la tasa de cambio en el vector estado.

Formulación moderna de la ecuaciónEn mecánica cuántica, el estado en el instante t de un sistema se describe por un elemento del espaciocomplejo de Hilbert — usando la notación bra-ket de Paul Dirac. representa las probabilidades deresultados de todas las medidas posibles de un sistema.La evolución temporal de se describe por la ecuación de Schrödinger :

donde• : es la unidad imaginaria ;• : es la constante de Planck normalizada (h/2π) ;• : es el hamiltoniano, dependiente del tiempo en general, el observable corresponde a la energía total del

sistema ;• : es el observable posición ;• : es el observable impulso.Como con la fuerza en la segunda ley de Newton, su forma exacta no la da la ecuación de Schrödinger, y ha de serdeterminada independientemente, a partir de las propiedades físicas del sistema cuántico.Debe notarse que, contrariamente a las ecuaciones de Maxwell que describen la evolución de las ondaselectromagnéticas, la ecuación de Schrödinger es no relativista. Nótese también que esta ecuación no se demuestra:es un postulado. Se supone correcta después de que Davisson y Germer hubieron confirmado experimentalmente lahipótesis de Louis de Broglie.Para más información del papel de los operadores en mecánica cuántica, véase la formulación matemática de lamecánica cuántica.

Limitaciones de la ecuación• La ecuación de Schrödinger es una ecuación no relativista que sólo puede describir partículas cuyo momento

lineal sea pequeño comparado con la energía en reposo dividida de la velocidad de la luz.• Además, la ecuación de Schrödinger no incorpora el espín de las partículas adecuadamente. Pauli generalizó

ligeramente la ecuación de Schrödinger al introducir en ella términos que predecían correctamente el efecto delespín; la ecuación resultante es la ecuación de Pauli.

• Más tarde, Dirac, proporcionó la ahora llamada ecuación de Dirac que no sólo incorporaba el espín parafermiones de espín 1/2, sino que introducía los efectos relativistas.

Ecuación de Schrödinger 61

Resolución de la ecuaciónLa ecuación de Schrödinger, al ser una ecuación vectorial, se puede reescribir de manera equivalente en una baseparticular del espacio de estados. Si se elige por ejemplo la base correspondiente a la representación de posicióndefinida por:

Entonces la función de onda satisface la ecuación siguiente:

Donde es el laplaciano.De esta forma se ve que la ecuación de Schrödinger es una ecuación en derivadas parciales en la que intervienenoperadores lineales, lo cual permite escribir la solución genérica como suma de soluciones particulares. La ecuaciónes ,en la gran mayoría de los casos, demasiado complicada para admitir una solución analítica de forma que suresolución se hace de manera aproximada y/o numérica.

Búsqueda de los estados propiosLos operadores que aparecen en la ecuación de Schrödinger son lineales; de lo que se deduce que toda combinaciónlineal de soluciones es solución de la ecuación. Esto lleva a favorecer la búsqueda de soluciones que tengan un graninterés teórico y práctico: al saber los estados que son propios del operador hamiltoniano. Estos estados,denominados estados estacionarios, son las soluciones de la ecuación de estados y valores propios,

denominada habitualmente ecuación de Schrödinger independiente del tiempo. El estado propio estáasociado al valor propio , escalar real que corresponde con la energía de la partícula en dicho estado.Los valores de la energía pueden ser discretos como las soluciones ligadas a un pozo de potencial (por ejemplo niveldel átomo de hidrógeno); resultando una cuantificación de los niveles de energía. Estas pueden corresponder tambiéna un espectro continuo como las soluciones libres de un pozo de potencial (por ejemplo un electrón que tenga lasuficiente energía para alejarse al infinito del núcleo de átomo de hidrógeno).

A menudo se obtiene que numerosos estados corresponden a un mismo valor de la energía: hablamosentonces de niveles de energía degenerados.De manera general, la determinación de cada uno de los estados propios del hamiltoniano, , y de la energíaasociada, da el estado estacionario correspondiente, solución de la ecuación de Schrödinger :

Una solución de la ecuación de Schrödinger puede entonces escribirse generalmente como una combinación lineal detales estados:

Según los postulados de la mecánica cuántica,

• el escalar complejo es la amplitud del estado sobre el estado ;• el real es la probabilidad (en el caso de un espectro discreto) de encontrar la energía mientras se

hace una medida de la energía sobre el sistema.

Ecuación de Schrödinger 62

Rareza de una solución analítica exactaLa búsqueda de estados propios del hamiltoniano es en general compleja. Incluso en el caso resoluble analíticamentedel átomo de hidrógeno solo es rigurosamente resoluble de forma simple si se descarta el acoplamiento con el campoelectromagnético que permite el paso a los estados excitados, soluciones de la ecuación de Schrödinger del átomo,desde el nivel fundamental.Algunos modelos simples, aunque no del todo conformes con la realidad, pueden ser resueltos analíticamente y sonmuy útiles. Estas soluciones sirven para entender mejor la naturaleza de los fenómenos cuánticos, y en ocasiones sonuna aproximación razonable al comportamiento de sistemas más complejos (en mecánica estadística se aproximanlas vibraciones moleculares como osciladores armónicos). Ejemplos de modelos:• La partícula libre (potencial nulo) ;• La partícula en una caja• Un haz de partícula incidiendo sobre una barrera de potencial• La partícula en un anillo• La partícula en un potencial de simetría esférica• El oscilador armónico cuántico (potencial cuadrático)• El átomo de hidrógeno (potencial de simetría esférica)• La partícula en una red monodimensional (potencial periódico)En los otros casos, hay que usar técnicas de aproximación :• La teoría perturbacional da expresiones analíticas en la forma de desarrollos asintóticos alrededor de un problema

sin-perturbaciones que sea resoluble exactamente.• El análisis numérico permite explorar casos inaccesibles a la teoría de perturbaciones.• El método variacional• Las soluciones de Hartree-Fock• Los métodos cuánticos de Montecarlo

Límite clásico de la ecuación de SchrödingerInicialmente la ecuación de Schrödinger se consideró simplemente como la ecuación de movimiento de un campomaterial que se propagaba en forma de onda. De hecho puede verse que en el límite clásico, cuando laecuación de Schrödinger se reduce a la ecuación clásica de movimiento en términos de acción o ecuación deHamilton-Jacobi. Para ver esto, trabajaremos con la función de onda típica que satisfaga la ecuación de Schrödingerdependiente del tiempo que tenga la forma:

Donde es la fase de la onda si se substituye esta solución en la ecuación de Schrödinger dependiente deltiempo, tras reordenar los términos convenientemente, se llega a que:

(4)

Si se toma el límite el segundo miembro desaparece y tenemos que la fase de la función de onda coincidecon la magnitud de acción y esta magnitud puede tomarse como real. Igualmente puesto que la magnitud de acciónes proporcional a la masa de una partícula puede verse que para partículas de masa grande el segundomiembro es mucho más pequeño que el primero:

(5)

Ecuación de Schrödinger 63

Y por tanto para partículas macroscópicas, dada la pequeñez de la constante de Planck, los efectos cuánticosresumidos en el segundo miembro se anulan, lo cual explica porqué los efectos cuánticos sólo son apreciables aescalas subatómicas.De acuerdo con el principio de correspondencia las partículas clásicas de gran masa, comparada con la escalacuántica, son partículas localizadas describibles mediante un paquete de ondas altamente localizado que se desplazapor el espacio. La longitud de onda de las ondas que conformaban dicho paquete material están en torno a la longitudde De Broglie para la partícula, y la velocidad de grupo del paquete coincide con la velocidad del movimiento de lapartícula lo que reconcilia la naturaleza corpuscular observada en ciertos experimentos con la naturaleza ondulatoriaobservada para partículas subatómicas.

Formulación MatricialExiste una formulación matricial de la mecánica cuántica, en dicha formulación existe una ecuación cuya forma esesencialmente la misma que la de las ecuaciones clásicas del movimiento, dicha ecuación es

(6)

De esta ecuación es posible deducir la segunda ley de Newton, resolviendo para el operador . En efecto se tiene(7)

evaluando el conmutador se deduce(8)

No es difícil demostrar que y, por tanto, se obtiene:(9)

donde se ha usado . Este resultado es análogo al de la mecánica clásica, para una ecuación parecidaque involucra los corchetes de Poisson, más aún, esta ecuación es justamente la formulación Newtoniana de lamecánica.

Bibliografía• Erwin Schrödinger; Mémoires sur la mécanique ondulatoire, Félix-Alcan (París-1933). Reedición Jacques Gabay

(1988), ISBN 2-87647-048-9. Contiene la traducción al francés de Alexandre Proca de las memorias históricas de1926 :• Cuantificación y valores propios (I) y (II), Annalen der Physik (4) 79 (1926) [[5]] y [[6]] (en alemán);• Sobre la comparación entre la mecánica cuántica de Heisenberg-Born-Jordan y la mía, Annalen der Physik

(4) 79 (1926) [[7]] (en alemán);• Cuantificación y valores propios (III) - Teoría de las perturbaciones con aplicación del efecto Stark a las

rayas de Balmer, Annalen der Physik (4) 80 (1926) [[8]] (en alemán);• Cuantificación y valores propios (IV), Annalen der Physik (4) 81 (1926) [[9]] (en alemán);• Sobre el efecto Compton, Annalen der Physik (4) 82(1927) [[10]] (en alemán);

Ecuación de Schrödinger 64

• El teorema de la conservación de la energía y la cantidad de movimiento para las ondas materiales, Annalender Physik (4) 82 (1927) [[11]] (en alemán);

• Intercambios de energía según la mecánica ondulatoria, Annalen der Physik (4) 83 (1927)[[12]] (en alemán).• Erwin Schrödinger, «An Undulatory Theory of the Mechanics of Atoms and Molecules», Phys. Rev. 28, 1049

(1926) [[13]] (en inglés)

Notas[1] Schrödinger discute en detalle las relaciones entre la mecánica hamiltoniana y la óptica en 1926 (véase bibliografía). Walter Moore;

Schrödinger - Life & Thought, Cambridge University Press (1989).[2] Para los curiosos, esta derivación se detalla en: Herbert Goldstein; Classical mechanics, Addison-Wesley (2×10{{{1}}} edición-1980), párrafo

10.8, pp. 484-492.[3] Abraham Païs; Inward Bound, Oxford University Press (1986).[4][4] La fórmula de Balmer obtenida es correcta, pero la estructura fina es incorrecta.[5] http:/ / home. tiscali. nl/ physis/ HistoricPaper/ Schroedinger/ Schroedinger1926a. pdf[6] http:/ / home. tiscali. nl/ physis/ HistoricPaper/ Schroedinger/ Schroedinger1926b. pdf[7] http:/ / home. tiscali. nl/ physis/ HistoricPaper/ Schroedinger/ Schrodinger1926c. pdf[8] http:/ / home. tiscali. nl/ physis/ HistoricPaper/ Schroedinger/ Schroedinger1926d. pdf[9] http:/ / home. tiscali. nl/ physis/ HistoricPaper/ Schroedinger/ Schroedinger1926e. pdf[10] http:/ / home. tiscali. nl/ physis/ HistoricPaper/ Schroedinger/ Schroedinger1927a. pdf[11] http:/ / home. tiscali. nl/ physis/ HistoricPaper/ Schroedinger/ Schroedinger1927b. pdf[12] http:/ / home. tiscali. nl/ physis/ HistoricPaper/ Schroedinger/ Schroedinger1927c. pdf[13] http:/ / home. tiscali. nl/ physis/ HistoricPaper/ Schroedinger/ Schroedinger1926c. pdf

Teorema de NoetherEl teorema de Noether es un resultado central en física teórica. Expresa que cualquier simetría diferenciable,proveniente de un sistema físico, tiene su correspondiente ley de conservación. El teorema se denomina así por lamatemática Emmy Noether, quien lo formuló. Además de permitir aplicaciones físicas prácticas, este teoremaconstituye una explicación de por qué existen leyes de conservación y magnitudes físicas que no cambian a lo largode la evolución temporal de un sistema físico.

ExplicaciónEl teorema de Noether relaciona pares de ideas básicas de la física: (1) una es la invariancia de la forma que una leyfísica toma con respecto a cualquier transformación (generalizada) que preserve el sistema de coordenadas (aspectosespaciales y temporales tomados en consideración), y la otra es (2) la ley de conservación de una cantidad física.Informalmente, el teorema de Noether se puede establecer como: A cada simetría (continua) le corresponde una leyde conservación y viceversa. El enunciado formal del teorema deriva una expresión para la cantidad física que seconserva (y, por lo tanto, también la define) de la condición de invariancia solamente. Por ejemplo:• la invariancia con respecto a la (dirección del eje de) rotación da la ley de conservación del momento angular.• la invariancia de sistemas físicos con respecto a la traslación (dicho simplemente, las leyes de la física no varían

con la localización en el espacio) da la ley de conservación del momento lineal.• la invariancia con respecto a (la traslación en) el tiempo da la ley de conservación de la energía.Al subir a la teoría cuántica de campos, la invariancia con respecto a la transformación general de gauge da la ley dela conservación de la carga eléctrica, etcétera. Así, el resultado es una contribución muy importante a la física engeneral, pues ayuda a proporcionar intuiciones de gran alcance en cualquier teoría general en física, con sólo analizarlas diversas transformaciones que harían invariantes la forma de las leyes implicadas.

Teorema de Noether 65

Rotaciones y momento angularCuando el lagrangiano de un sistema físico presenta simetría rotacional, es decir, existe un grupo detransformaciones isomorfo a un subgrupo unidimensional del grupo de rotaciones o grupo especial ortogonalentonces existe una magnitud física conservada llamada momento angular que tiene un valor constante a lo largo dela evolución temporal. Es decir, dicha magnitud no cambia de valor a medida que el sistema evoluciona, razón por lacual dicha magnitud se llama constante del movimiento o magnitud conservada.

Traslaciones y momento linealAnálogamente si el lagrangiano de un sistema físico es invariante bajo cierto grupo uniparamétrico de traslacionesentonces existe una componente del momento lineal paralela a dichas traslaciones que no varía con el tiempo, amedida que el sistema evoluciona. Es decir, a pesar de que el estado de movimiento de una partícula o el estadofísico del sistema varíe, dicha magnitud física siempre mantiene el mismo valor, por complicada que sea la evolucióndel sistema.

Invariancia temporal y energíaDe modo similar al caso anterior, la independencia del tiempo del lagrangiano, puede ser vista como una invarianciafrente a "traslaciones temporales". En este caso la magnitud conservada es el Hamiltoniano o la integral deJacobi-Painlevé. En un sistema natural si el lagrangiano no depende explícitamente del tiempo se tiene que la energíase conserva. Es decir, en cualquier evolución temporal del sistema la energía no cambia de valor.

Invariancia gauge y cargaEn el contexto de la teoría cuántica de campos la existencia de una simetría gauge abstracta del lagrangiano quedescribe la interacción electromagnética implica que existe una magnitud conservada que puede identificarse con lacarga eléctrica, dado que el grupo de simetría gauge del campo electromagnético es el grupo unitario U(1) lamagnitud conservada es un escalar.Análogamente, aunque ligeramente más complicado, es el caso de la interacción débil y la interacción fuerte, cuyosgrupos de simetría gauge son SU(2) y SU(3), que no son conmutativos y llevan a la conservación de la carga desabor y la carga de color.

Tratamiento formal en física clásicaSupóngase que se tiene un conjunto cerrado R de dimensión d y una variedad blanco o codominio . Sea elespacio de todas las funciones diferenciables de R a . Para aclarar ideas particularicemos estas ideas en dosámbitos diferentes:• En mecánica clásica, R es un intervalo cerrado de que representa el tiempo y la variedad blanco es el fibrado

tangente del espacio de posiciones o espacio de configuración.• En la teoría clásica de campos, R es una región del espacio-tiempo y la variedad blanco es el conjunto de valores

que los campos pueden tomar en cualquier punto dado. Por ejemplo, si hay m campos escalares real-valorados,φ1...,φm, entonces la variedad blanco podría ser , dotada de la estructura topológica adecuada.

Para probar el teorema consideraremos el segundo de estos casos (el resultado para sistemas de partículas clásicas sepuede probar particularizando la demostración esbozada aquí).

Teorema de Noether 66

Paso 1: funcional de acciónPara ello, al estar tratando un sistema físico existirá un funcional de acción que describe el sistema.Matemáticamente este funcional resulta ser una aplicación del tipo:

,Para conseguir la versión usual del teorema de Noether, se necesitan restricciones adicionales en la acción física. Seasume que es la integral sobre R del lagrangiano del sistema físico:

Este lagrangiano depende de las variables del campo (siendo K un conjunto de índices tensoriales o de otro tipo,según el tipo de campo), sus derivadas y la posición en R. Es decir :

Suponiendo dadas condiciones de contorno, que son básicamente una especificación del valor de en el borde deR si es compacta, o un cierto límite en cuando x se acerca a ∞, que permitirá hacer la integración por partes).Podemos denotar por el subconjunto de que consiste en las funciones tales que todas las derivadasfuncionales de S en son cero y satisface las condiciones de contorno dadas.

Paso 2: funcional de acciónAhora, suponga que tenemos una transformación infinitesimal sobre , dada por la derivada funcional, δ tal que:

para todas las subvariedades compactas R. Entonces, decimos que δ es un generador de un grupo de Lieuniparamétrico. Ahora, para cualquier N, debido al teorema de Euler-Lagrange, tenemos:

.

Paso 3: Corriente conservadaPuesto que la última expresión es cierta para cualquier R, tenemos:

.

Se puede reconocer inmediatamente esto como la ecuación de continuidad para la corriente

que se llama la corriente de Noether asociada a la simetría. La ecuación de continuidad dice que si se integra estacorriente sobre una "rebanada" (hipersuperficie) de tipo espacio, se consegue una cantidad conservada llamada lacarga de Noether (asumiendo, por supuesto, que si R es no compacto, las corrientes decaen suficientemente rápido enel infinito).

Teorema de Noether 67

Tratamiento formal en física cuánticaEn física cuántica la descripción de un sistema se realiza mediante el lagrangiano cuántico que es un funcionaldefinido sobre el espacio de Hilbert relevante para el sistema. Cuando dicho lagrangiano es invariante respecto a ungrupo uniparamétrico de aplicaciones unitarias de dicho espacio de Hilbert, entonces cada uno de los generadores

del álgebra de Lie de dicho grupo es un observable que es una constante del movimiento en el sentido de que:

Podemos exponer una transformación que sea mezcla de diferentes campos:

donde es un parámetro infinitesimal y los están fijados.

Si es invariante bajo la transformación, entonces donde

Todo esto significa que la carga del sistema se conservará:

La naturaleza física de la corriente y de la carga vendrá dada por una forma específica de latransformación.

Enlaces externos• artículo sobre el teorema de Noether [1] por John Baez

Referencias[1] http:/ / math. ucr. edu/ home/ baez/ noether. html

Teoría de campo de gauge 68

Teoría de campo de gauge

Cromodinámica cuántica como teoría gauge,basada en el grupo SU(3). Cada tipo de quark (uo d en la imagen) posee tres «copias» de distinto

«color». Los gluones actúan como bosónintermediario entre partículas con color (como un

fotón entre partículas con carga eléctrica).

En física, una teoría de campo gauge (o teoría de gauge o teoría de"recalibración") es un tipo de teoría cuántica de campos que se basaen el hecho de que la interacción entre fermiones puede ser vista comoel resultado de introducir transformaciones "locales" pertenecientes algrupo de simetría interna en el que se base la teoría gauge. Las teoríasde gauge se discuten generalmente en el lenguaje matemático de lageometría diferencial e involucran el uso de transformaciones degauge. Una transformación de gauge es una transformación de algúngrado de libertad interno, que no modifica ninguna propiedadobservable física.

Un campo gauge es un campo de Yang-Mills asociado a lastransformaciones de gauge asociadas a la teoría y que describe lainteracción física entre diferentes campos fermiónicos. Por ejemplo elcampo electromagnético es un campo de gauge que describe el modode interactuar de fermiones dotados con carga eléctrica.

Introducción

En física, las teorías extensamente aceptadas del modelo estándar son teorías de campo de gauge. Esto significa quelos campos en el modelo estándar exhiben alguna simetría interna abstracta conocida como invariancia de gauge. Lainvariancia gauge significa que el lagrangiano que describe el campo es invariante bajo la acción de un grupo de Lieque se aplica sobre las componentes de los campos. Cuando se aplica la misma transformación a todos los puntos delespacio, se dice que la teoría tiene invariancia gauge global. Las teorías de gauge usan lagrangianos, tales que encada punto del espacio es posible aplicar transformaciones o "rotaciones" ligeramente diferentes en cada punto delespacio y aun así el lagrangiano es invariante, en ese caso se dice que el lagrangiano presenta también invariancia degauge local. Es decir, un lagrangiano con simetría gauge local permite escoger ciertos grados de libertad internos deuna manera en una región del espacio y de otra en otra región del espacio suficientemente alejada sin afectar a laprimera región. La posibilidad de que un lagrangiano admita esta transformación más general puede ser visto comouna versión generalizada del principio de equivalencia de la teoría de la relatividad general.

Desde el punto de vista físico, los campos de gauge se manifiestan físicamente en forma de partículas bosónicas sinmasa (bosones gauge), por lo que se dice que todos los campos de gauge son mediados por el grupo de bosones degauge sin masa de la teoría.

Formulación matemáticaPara formular una teoría de campo gauge es necesario que la dinámica de los campos fermiónicos de la teoría vengadescrita por un lagrangiano que tenga alguna simetría interna "local" dada por un grupo de Lie, llamado grupo detransformaciones de gauge. Así pues, al "rotar" algo en cierta región, no se determina cómo los objetos rotan enotras regiones (se usa el término "rotar" porque los grupos de gauge más frecuentes son SU(2) y SU(3) que songeneralizaciones del grupo de rotaciones ordinarias). Físicamente una transformación de gauge es unatransformación de algún grado de libertad que no modifica ninguna propiedad física observable. Las doscaracterísticas formales que hacen de un campo un campo gauge son:1. Los campos gauge aparecen en el lagrangiano que rige la dinámica del campo en forma de conexión, por tanto,

matemáticamente están asociadas a 1-formas que toman valores sobre una cierta álgebra de Lie.

Teoría de campo de gauge 69

2.2. El campo de gauge puede ser visto como el resultado de aplicar a diferentes puntos del espacio diferentestransformaciones dentro del grupo de simetría asociado a los campos fermiónicos de la teoría.

Mecanismo de HiggsAunque en el modelo estándar todas las interacciones o fuerzas básicas exhiben algún tipo de simetría de gauge, estasimetría no es siempre obvia en los estados observados. A veces, especialmente cuando la temperatura disminuye, lasimetría se rompe espontáneamente, es decir, ocurre el fenómeno conocido como ruptura espontánea de la simetría.Un ejemplo básico de la simetría rota que se da a menudo es una de estado sólido imán. Se compone de muchosátomos, cada uno de las cuales tiene un momento magnético dipolar. Sin embargo, las leyes del magnetismo sonrotacionalmente simétricas, y es así que en las altas temperaturas, los átomos estarán alineados aleatoriamente, y lasimetría rotatoria será restaurada. Semejantemente, se puede, con las condiciones apropiadas, enfriar agua bajo latemperatura de solidificación. Cuando un cristal de hielo se tira en el líquido, la simetría es rota y el agua solidificainmediatamente.Para dar cuenta de estos hechos de ruptura de la simetría, se ha propuesto el mecanismo de Higgs. Si en ellagrangiano de la interacción o "campo de fuerzas" concreto que está siendo estudiado se introducen cierto tipo decampos escalares que interactúan consigo mismo, en el límite de bajas energías los bosones gauge se comportancomo si estuvieran dotados de masa; este efecto es precisamente el mecanismo de Higgs. En otras palabras elmecanismo de Higgs puede ser interpretado pensando que la interacción entre el campo escalar introducido o campode Higgs y los bosones gauge, hace que estos "adquieran" masa, es decir, presenten interacciones como las quepresentarían genuinas partículas con masa.

Formulación matemáticaEn una teoría de campo de gauge, una transformación de gauge es una aplicación diferenciable:

(*)

Donde:, es espacio-tiempo, o variedad diferenciable, donde aparece el campo.

, es un grupo de Lie o grupo de simetría del campo, es decir, es un grupo de transformaciones que dejaninvariable el lagrangiano que define la dinámica del campo. Este grupo se suele llamar grupo detransformaciones de gauge del campo.

Matemáticamente podemos tratar convenientemente una teoría de gauge como una conexión definida sobre unfibrado principal definido sobre el espacio-tiempo , más precisamente el fibrado puede definirse como el espaciotopológico cociente de cartas locales:

Donde:

es una carta locales otra carta local

es el espacio vectorial que hace de fibra, para las teorías gauge más comunes k = 2 ó 3 (y en algunasteorías de gran unificación k puede llegar a ser 9 o 10).

son aplicaciones que para cada solape entre cartas locales dan el cambio decoordenadas sobre las fibras.

En la construcción anterior de fibrado principal el espacio base será el espacio-tiempo será y la "fibra" será el espacio vectorial . El grupo de gauge de la teoría es un grupo de Lie . Hecha esta

Teoría de campo de gauge 70

construcción una transformación de gauge es precisamente una sección diferenciable del anterior fibrado principal.Es decir una aplicación como (*) que a cada punto del espacio le asigna un elemento del grupo de Lie que representala simetría gauge. Una transformación de gauge global sería una aplicación como esa que a todos los puntos delespacio-tiempo les asignara la misma transformación, mientras que un lagrangiano con invariancia gauge local esuno tal que si en cada punto del espacio se elige una transformación diferente, y por tanto (*) es lo más generalposible, entonces el lagrangiano no cambia.Físicamente una transformación de gauge es una transformación de algún grado de libertad interno que nomodifica ninguna propiedad observable física. El número de grados de libertad internos es el mismo k que aparece enla definición anterior.

ConexionesTécnicamente el campo de gauge asociado a una teoría gauge, aparece en el modelo matemático como una conexiónsobre el fibrado principal anteriormente definido. Concretamente a partir las componentes de la 1-forma quetoma valores en el álgebra de Lie asociada al grupo de gauge, pueden calcularse el conjunto de componentes físicasque caracterizan el campo de gauge. Propiamente el campo de gauge es un campo de Yang-Mills obtenido a partir dela 2-forma dada por:

Donde d es la derivada exterior y es producto exterior (o producto cuña).

Transformaciones infinitesimalesUna transformación de gauge infinitesimal es similar a una transformación de gauge ordinaria, pero en la definiciónse substituye el grupo de gauge por su álgebra de Lie asociada:

Donde:, es espacio-tiempo, o variedad diferenciable, donde aparece el campo.

, es el álgebra de Lie correspondiente al grupo de gauge . Esta definición puede extenderse acualquier elemento sobre un fibrado tangente al espacio-tiempo, de tal modo que están definidas lastransformaciones de gauge infinitesiamales de cualquier tipo de campo espinorial o tensorial.

Las transformaciones de gauge inifinitesimales definen el número de campos bosónicos de la teoría y la forma enque estos intereactúan. El conjunto de todas las transformaciones de gauge infinitesimales forman un álgebra de Lie,que se caracterizada por un escalar diferenciable a valores en un álgebra de Lie, ε. Bajo tal transformación de gaugeinfinitesimal:

Donde [·,·] es el corchete de Lie. Estas tansformaciones infinitesimales tienen varias propiedades interesantes:• Las transformaciones de gauge infinitesimales conmutan con la derivada covariante definida por la conexión:

, donde es la derivada covariante.• También, , que significa que se transforma covariantemente.• No todas las transformaciones de gauge pueden ser generadas por transformaciones infinitesimales de gauge en

general; por ejemplo, cuando la variedad de base es una variedad compacta sin borde tal que la clase dehomotopía de funciones de esa variedad al grupo de Lie es no trivial, un ejemplo de ello son los instatones.

Teoría de campo de gauge 71

Lagrangiano de una teoría gaugeLa integral de acción calculada a partir del lagrangiano del campo de Yang-Mills está dada por:

Donde designa el operador dual de Hodge y la integral se define como la integral de un n-forma proporcional alelemento de volumen de la variedad de Riemann que define el espacio-tiempo.

Bucle de WilsonUna cantidad que es invariante bajo transformaciones de gauge es el bucle de Wilson, que se define sobre cualquiertrayectoria cerrada, γ, como sigue:

donde ρ es un carácter de una representación compleja; y representa al operador de trayectoria ordenada. En lasteorías de las interacciones electrodébil y fuerte del modelo estándar de la física de partículas, Lagrangianos debosones, que medían interacciones entre los fermiones, son invariantes bajo transformaciones de gauge. Esta es larazón por la cual estos bosones se llaman bosones de gauge.

Formas de Chern-SimonsVer Chern-Simons.

Ejemplos de teorías de campo de gauge•• Electrodinámica cuántica•• Modelo electrodébil•• Modelo estándar

Referencias

BibliografíaLibros• Bromley, D.A. (2000). Gauge Theory of Weak Interactions. Springer. ISBN 3-540-67672-4.• Cheng; Li, L.-F. (1983). Gauge Theory of Elementary Particle Physics. Oxford University Press. ISBN

0-19-851961-3.• Frampton, P. (2008). Gauge Field Theories (3rd edición). Wiley-VCH.• Kane, G.L. (1987). Modern Elementary Particle Physics. Perseus Books. ISBN 0-201-11749-5.• Schumm, Bruce (2004) Deep Down Things. Johns Hopkins University Press. Esp. chpt. 8. A serious attempt by a

physicist to explain gauge theory and the Standard Model with little formal mathematics.Artículos• Introduction to Gauge Theories. 1997. Bibcode:  1997hep.ph....5211B (http:/ / adsabs. harvard. edu/ abs/ 1997hep. ph. .

. . 5211B).• Gross, D. (1992). « Gauge theory – Past, Present and Future (http:/ / psroc. phys. ntu. edu. tw/ cjp/ v30/ 955.

pdf)». Consultado el 23-04-2009.• «From Lorenz to Coulomb and other explicit gauge transformations». Am.J.Phys 70:  pp. 917–928. 2002. doi:

10.1119/1.1491265 (http:/ / dx. doi. org/ 10. 1119/ 1. 1491265). Bibcode:  2002AmJPh..70..917J (http:/ / adsabs. harvard.edu/ abs/ 2002AmJPh. . 70. . 917J).

Teoría de campo de gauge 72

• Preparation for Gauge Theory. 1999. Bibcode:  1999math.ph...2027S (http:/ / adsabs. harvard. edu/ abs/ 1999math. ph. .. 2027S).

Enlaces externos• George Svetlichny (http:/ / xxx. lanl. gov/ abs/ math-ph/ 9902027)

Campo de Yang-Mills

Esquema perturbativo de QFT para la interacción de un electrón (e) con un quark (q), lalínea azul representa un campo electromagnético (campo de Yang-Mills con simetríaU(1)) y la línea verde un campo de color (campo de Yang-Mills con simetría SU(3)).

Un campo de Yang-Mills es un tipocampo físico usado sobre todo enteoría cuántica de campos cuyolagrangiano tiene la propiedad de serinvariante bajo una transformación degauge local.

Historia

En 1954, Chen Ning Yang y RobertMills[1] sugierieron que el principio deinvariancia local de fase o invarianciade gauge local no eran compatibles conuna teoría de campos local, es decir,que obedeciera los principiosrelativistas de causalidad. Es decircuando, como es común, ellagrangiano de un campo tiene alguna simetría interna dada por un grupo de transformaciones de gauge, debería serposible escoger en cada punto del espacio una transformación de gauge diferente, sin que eso hiciese que lasecuaciones de la teoría fueran alteradas. Así Yang y Mills buscaron la teoría más general de lagrangiano para uncampo con invariancia de gauge local.

De hecho la electrodinámica cuántica era ya una teoría con invariancia de gauge local, donde el grupo de gauge eraprecisamente el grupo de Lie U(1). El resultado del trabajo de Yang y Mills fue una generalización del lagrangianode la electrodinámica cuántica, donde ahora el grupo de gauge era un grupo no conmutativo. Los gluones de lacromodinámica cuántica vienen descritos por un campo de Yang-Millis sobre el grupo de Lie no-conmutativo SU(3)asociado a la simetría de color.

Formulación matemáticaPara construir un campo de Yang-Mills cuyo grupo de gauge de dimensión m, necesitamos un campomulticomponente (cuyas componentes suelen ser espinores de Dirac). Todas las componentes delcampo están definidas sobre un espacio-tiempo :

(1)

Bajo una transformación de gauge local el campo se transformaría de acuerdo con:

Campo de Yang-Mills 73

(2) Donde:

es el elemento del grupo de gauge asignado al punto .denota una matriz dada por una representación unitaria del grupo de gauge ., son m funciones definidas sobre el espacio-tiempo que parametrizan la

transformación local de gauge (diferentes elecciones de esas funciones representan diferentes transformacionesde gauge).

, es una base del álgebra de Lie asociada al grupo de gauge .

Potenciales de un campos de Yang-MillsLos campos de Yang-Mills propiamente dichos, derivan de m campos vectoriales o más propiamente 1-formas convalores sobre el álgebra de Lie asociada al grupo de gauge. Estas 1-formas funcionan como el potencial vector delcampo electromagnético. Cada uno de estos potenciales viene j viene dado por:

Dada la ley de transformación (2) es sencillo ver que a partir de estas 1-formas puede definirse un operadordiferencial o derivada covariante del campo definda como:

(3)

Donde g es un parámetro real llamado constante de acoplamiento. Es sencillo comprobar que se cumplen las leyes detransformación:

(4)

Para una transformación de gauge infinitesimal la última de las expresiones de (4) se reduce a:(5)

Donde los coeficientes fijk son las constantes de estructura del álgebra de Lie:(6)

Campos de Yang-MillsLo que propiamente se denomina campo de Yang-Mills viene dado por un conjunto de componentes de intensidad decampo que matemáticamente se obtienen a partir de los potenciales vectores de la sección anterior. Es importantenotar que una 1-forma como las descritas anteriormente puede ser interpretado matemáticamente como una conexiónsobre un fibrado principal. Concretamente a partir las componentes de la 1-forma que toma valores en el álgebrade Lie asociada al grupo de gauge, pueden calcularse las componentes físicas que caracterizan el campo deYang-Mills propiamente dicho que matemáticamente es la 2-forma dada por:

Donde d es la derivada exterior y es producto exterior (o producto cuña). Expresado en componentes la relaciónanterior puede expresarse como:

Campo de Yang-Mills 74

Lagrangiano de un campo de Yang-MillsLos campos de Yang-Mills son un caso especial de teoría de campo de gauge con simetría dada generalmente por ungrupo no abeliano, el lagrangiano para dicho campo se toma generalmente como:

(7)

Donde debe tenerse presente que al ser las magnitudes combinaciones lineales de los generadores del álgebrade Lie asociada al grupo de gauge del campo, que se obtienen a partir del potencial vector:

(8)

Este tensor se llama intensidad de campo y a veces, también curvatura del campo, debido a que si se interpreta como las componentes de una conexión matemática entonces es la curvatura de dicha conexión, ya que elconmutador de las derivadas covariantes de gauge:

(9)

Donde naturalmente la derivada covariante anterior se define a partir del vector potencial considerado como derivadacovariante, es decir, , siendo la identidad para el grupo de generadores, es la constante deacoplamiento. En cuatro dimensiones, la constante de acoplamiento es un número puro. Además para el grupoespecial unitario SU(N) y los índices A partir del lagrangiano dado por (7) se deducen las siguientes ecuaciones de evolución para el campo:

(10a)

O bien introduciendo la abreviación la ecuación anterior puede reescribirse como:(10b)

De la ecuación anterior, se sigue que el campo tiene la propiedad de interactuar consigo mismo cuando el grupo degauge no es abeliano, por lo que las ecuaciones de movimiento en ese caso son semilineales, a diferencia de las delelectromagnetismo clásico cuyo grupo de gauge es abeliano. En general debido a la no linealidad las ecuaciones demovimiento en general sólo se saben manipular mediante teoría de perturbaciones para pequeñas desviacionesrespecto a la linealidad.Una propiedad adicional de la intensidad de campo es que al igual que sucede con el campo electromagnético, existeun análogo de la identidad de Bianchi:

(11)

Cuando se considera una región del espacio-tiempo donde existen fuentes del campo la ecuación de campo vienedada por:

(12)

Nótese que estas corrientes deben transformarse propiamente bajo transformaciones gauge del grupo asociado algrupo de simetría del campo gauge. Dichas corrientes vienen dadas en términos de los espinores que definen elcampo como:

(13)

Campo de Yang-Mills 75

Cuando se quiere considerar el efecto de interacción con la material el lagrangiano debe ampliarse para describirtanto el campo fermiónico de partículas fuente del campo como la interacción entre el campo y su fuente:

(14)

Siendo:

, la parte del lagrangiano que representa la materia (fermiones) y su interacción con el campo de gauge.son las partes en que el lagrangiano anterior puede descomponerse, la correspondinete a la materia

aislada y la correspondiente a la interacción.

es el campo fermiónico dado por (1).es la masa del campo fermiónico.

Propiedades de un campo gauge•• Aún en ausencia de campos fermiónicos el lagrangiano contiene términos que representan la interacción del

campo consigo mismo, lo cual implica que los campos bosónicos pueden propagarse en el vacío. Laautointeracción además da lugar a fenómenos de no-linealidad que complican la descripción de la evolucióntemporal del campo.

EjemplosLos ejemplos de teoría cuántica de campos renormalizables exitosas son ejemplos de campos de Yang-Mills, entreellos están la electrodinámica cuántica, que puede generalizarse al modelo electrodébil y la cromodinámica cuántica.A continuación se examinan algunos de estos ejemplos con cierto detalle.

Campo electromagnéticoEl caso más simple posible de campo de Yang-Mills es uno cuyo grupo de gauge es unidimensional y por tantogrupo de gauge conmutativo. El campo electromagnético puede ser visto como un ejemplo de campo de Yang-Millscuyo grupo de gauge es U(1) cuya álgebra de Lie asociada es isomorfa al espacio euclídeo unidimensional . Enesta sección consideraremos el campo electromagnético en interacción con sólo un campo fermiónico asociado a loselectrones (naturalmente el ejemplo se podría complicar añadiendo otros tipos de partículas cargadas, aunque no sehará aquí para no complicar la explicación).Los electrones libres, sin interacción electromagnética, pueden ser descritos esencialmente por la ecuación de Diracque puede ser derivada del siguiente lagrangiano de materia:

Existe una simetría global de este lagrangiano consistente en la transformación:(a)

Ya que al substituir el nuevo campo el lagrangiano queda inalterado. Esto indica que U(1) es una simetría internaglobal del lagrangiano.En una teoría gauge con simetría local U(1), el lagrangiano debería seguir siendo invariante cuando se reemplaza laconstante de la ecuación (a) por una función que varía de un punto a otro del espacio tiempo. Es obvio queahora la transformación:

Campo de Yang-Mills 76

(b)

No deja invariante el lagrangiano, ya que la derivada de la función introduce términos nuevos en el lagrangianotransformado. Sin embargo, si se construye un nuevo lagragiano en el que la derivada ordinaria se reemplaza porla derivada covariante dada por:

Se puede lograr un lagranginao que no sólo sea invariante bajo la transformación (a) sino también bajo latransformación (b), este nuevo lagragiano es:

Si se identifica el parámetro e con la carga eléctrica usual (este es el origen del término en teorías de gauge), y lasfunciones con las componentes del potencial vector el lagrangiano anterior puede reescribirse como:

Es decir, el nuevo lagrangiano invariante gauge local puede ser visto como el lagrangiano original al que se hasumado un término de interacción electromagnético adicional. De hecho el principio de requerir que un determinadocampo fermiónico sea tenga una invariancia gauge local, acaba requiriendo que exista un campo bosónico quegarantizará la invariancia local. Esta "receta" de invariancia gauge conduce a un acoplamiento mínimo entre elcampo fermiónico y el campo bosónico representada por . Para obtener una teoría gauge completa se requiereque el lagrangiano incluya términos que describan la dinámica del propio campo , en el caso de laelectrodinámica invariante local U(1) el lagrangiano total de la teoría gauge se obtiene sumándole el lagrangiano deYang-Mills resultando:

Donde pueden obtenerse de la relación general:

Ya que por ser U(1) un grupo abeliano, y siendo que para el grupo U(1) es unidimensional se tiene.

Campo de color SU(3)La cromodinámica cuántica se asienta en que los quarks interaccionan mediante un campo de Yang-Mills asociado ala carga de color cuya simetría gauge viene dada por SU(3). Considerando tres campos fermiónicos asociados aquars de tres colores, la transformación de simetría puede escribirse como:

Introduciendo la derivada covariante basada en SU(3) se tiene:

Donde el campo gluónico bajo transformaciones gauge sigue la siguiente ley:

Con todo esto, el lagrangiano de Dirac puede generalizarse al lagrangiano invariante gauge:

Campo de Yang-Mills 77

Campo electrodébilEl modelo electrodébil describe la interacción de leptones y quarks en interacción a través del campo electrodébil, esdecir, mediante el intercambio de fotones asociados a la interacción electromagnética y bosones vectoriales masiviosasociados a la interacción débil. Naturalmente esta teoría engloba como caso particular la electrodinámica cuántica.La peculiaridad del modelo electrodébil convencional es que, debido a la observación empírica de que la interaccióndébil falta de simetría de paridad en la forma de actuación de dichas interacciones, dicho modelo separa en ellagrangiano la forma en que interaccionan los fermiones levógiros de los ferminoes dextrógiros:

donde las dos partes del lagrangino describen los campos gauge bosónicos (cg) y fermiónicos en interacción con elcampo electrodébil (fer-cg), siendo cada una de estas partes de la forma:

Donde:

, está asociada al subgrupo no abeliano.

, es la parte asociada al subgrupo abeliano.

son cuatro potenciales vectores a partir de los cuales pueden obtenerse las componentes del campo.El mecanismo por el cual se introduce esa falta de simetría es el mecanismo de ruptura espontánea de la simetría quefinalmente comporta que varios bosones vectoriales de exhiban una masa efectiva, y de ahí que la interacción débil adiferencia de la interacción electromagnética tenga corto alcance (y por tanto a distancias superiores a distanciasnucleares sea totalmente despreciable).

Otras aplicacionesLos campos de Yang-Mills han estimulado también resultados fuera de la física, dentro de la matemática han sidousados extensivamente para examinar las propierdades de fibrados holomorfos poliestables. Y también a través de lateoría de Donaldson se han aplicado a la teoría de nudos.Una importante cuestión abierta concerniente a las ecuciones de campo de Yang-Mills es si dado un hamiltonianocuántico para un campo de Yang-Mills no-abeliano existe un valor positivo mínimo de la energía, es decir, siconsiderando el espectro del hamiltoniano es cierto o no que para un campo así:

En ese caso la "masa efectiva del campo" sería . El problema anterior constituye uno de los Problemas delMilenio que el Instituto de Matemáticas Clay premia con 1 millón de dólares estadounidenses a quién puedaresolverlo.

Referencias[1] C. N. Yang & R. L. Mills, Physical Review, 96, 191 (1954).

Grado de libertad (física) 78

Grado de libertad (física)El número de grados de libertad en un sistema físico se refiere al número mínimo de números reales que esnecesario especificar para determinar completamente el estado físico. El concepto aparece en mecánica clásica y entermodinámica.En mecánica, por cada partícula libre del sistema y por cada dirección en la que ésta es capaz de moverse existen dosgrados de libertad, uno relacionado con la posición y el otro con la velocidad.El número de grados de libertad de un sistema cuando existen ligaduras entre las partículas, será el número total devariables, menos el número de ligaduras que las relacionan.Obsérvese que esta definición no coincide ni con la definición de grados de libertad que se usa en ingeniería demáquinas, ni con la que se usa en ingeniería estructural.

Grados de libertad en mecánica clásicaEn mecánica hamiltoniana el número de grados de libertad de un sistema coincide con la dimensión topológica delespacio de fases del sistema. En mecánica lagrangiana el número de grados de libertad coincide la dimensión delfibrado tangente del espacio de configuración del sistema.Un conjunto de N partículas intereactuantes pero moviéndose sin restricciones en el espacio tridimensional tiene 6Ngrados de libertad (tres coordenadas de posición y tres velocidades). Si el conjunto de partículas se mueve sobre unestado d-dimensional el número de grados de libertad es 2d·N.Si existen ligaduras entre las partículas el número de grados de libertad será

Ejemplos•• Partícula libreUna sola partícula libre tiene 6 grados de libertad•• Partícula obligada a moverse sobre una superficieLa superficie supone una ligadura para las posiciones, ya que debe cumplirse

y otra para las velocidades, ya que la velocidad debe ser en todo momento tangente a la superficie, por lo que

por tanto el número de grados de libertad es

valor que coincide con lo que se espera para un movimiento en una variedad bidimensional.

Grado de libertad (física) 79

Ejemplo: Diferentes formas de visualizar los 3grados de libertad de una molécula diatómica en

forma de pesa. (CM: centro de masas del sistema,T: movimiento traslacional, R: movimiento

rotacional, V: movimiento vibracional.)

•• Dos partículas en los extremos de una varillaPor tener dos partículas tenemos 12 grados de libertad, pero lacondición de que la distancia entre las partículas sea fijada supone unaligadura para sus posiciones y otra para sus velocidades, lo que nos da

Estos grados de libertad se pueden representar por variables diferentes(las tres coordenadas del centro de la varilla y los dos ángulos que danla orientación de ésta, con sus correspondientes velocidades).•• Un sólido rígidoUn sólido formado por partículas posee en principio variables.Pero el número de ligaduras es:

•• Para la primera partícula, ninguna•• Para la segunda partícula, 2 (la distancia a la primera y su

velocidad, como en el caso de dos partículas unidas por unavarilla)

•• Para la tercera partícula, 4 (las distancias a las dos primeras partículas y sus correspondientes velocidades)•• Para la cuarta y siguientes, 6, ya que una vez dada la distancia a tres partículas, la distancia a todas las demás

está también fijada).Por tanto el número de grados de libertad es

que se pueden representar por seis variables (la posición del centro de masa y los ángulos de Euler) y suscorrespondientes velocidades.En general, no todas las ligaduras pueden representarse mediante una reducción en el número de variables (aunque síen el número de variables independientes). Cuando tenemos un sistema en el cual las ligaduras no son integrables, sedice que el sistema es no holónomo.Es importante señalar que la convención para contabilizar los grados de libertad en ingeniería mecánica es diferente,siendo justamente la mitad que en los casos (1) y (2).

Grados de libertad en mecánica estadística

Teorema de equipartición de la energíaEn el límite clásico de la mecánica estadística la energía de un sistema en equilibrio térmico con n grados de libertadcuadráticos e independientes es:

Donde:es la constante de Boltzmann

es la temperaturaes el número de grados de libertad del sistema

Grado de libertad (estadística) 80

Grado de libertad (estadística)En estadística, grados de libertad es un estimador del número de categorías independientes en una prueba particularo experimento estadístico. Se encuentran mediante la fórmula , donde =número de sujetos en la muestra(también pueden ser representados por , donde =número de grupos, cuando se realizan operaciones congrupos y no con sujetos individuales) y es el número de sujetos o grupos estadísticamente dependientes.Cuando se trata de ajustar modelos estadísticos a un conjunto de datos, los residuos -expresados en forma de vector-se encuentran habitualmente en un espacio de menor dimensión que aquél en el que se encontraban los datosoriginales. Los grados de libertad del error los determina, precisamente, el valor de esta menor dimensión.Un ejemplo aclara el concepto. Supongamos que

son variables aleatorias, cada una de ellas con media , y que

es la "media muestral". Entonces las cantidades

son los residuos, que pueden ser considerados estimaciones de los errores . La suma de los residuos (adiferencia de la suma de los errores, que no es conocida) es necesariamente 0,

ya que existen variables con valores superiores e inferiores a la media muestral. Esto también significa que losresiduos están restringidos a encontrarse en un espacio de dimensión (en este ejemplo, en el caso general a

) ya que, si se conoce el valor de de estos residuos, la determinación del valor del residuo restante esinmediata. Así, se dice que "el error tiene grados de libertad" (el error tiene grados de libertal para elcaso general)..

Carl Ludwig Siegel 81

Carl Ludwig Siegel

Carl Ludwig Siegel

Nacimiento 31 de diciembre de 1896Berlín, Alemania

Fallecimiento 4 de abril de 1981Göttingen, Alemania

Campo Matemáticas

Instituciones Universidad de FráncfortUniversidad de Princeton

Alma máter Universidad de Göttingen

Supervisor doctoral Edmund Landau

Conocido por Teoría de números

Premiosdestacados

Premio Wolf en Matemáticas

Carl Ludwig Siegel (31 de diciembre de 1896 - 4 de abril de 1981) fue un matemático especializado en la teoría denúmeros.

BiografíaSiegel nació en Berlín, donde se matriculó en la Universidad Humboldt en Berlín en 1915 como estudiante dematemáticas, astronomía y física. Entre sus maestros fueron Max Planck y Ferdinand Georg Frobenius, cuyainfluencia hizo al joven Siegel abandonar la astronomía y que siga la teoría de los números.En 1917 fue enrolado en el Ejército alemán y tuvo que interrumpir sus estudios. Después del final de la PrimeraGuerra Mundial, se matriculó en la Universidad de Göttingen, bajo el estudio de Edmund Landau, que fue susupervisor de tesis de doctorado (Ph.D. en 1920). Se quedó en Göttingen como la enseñanza y el asistente deinvestigación; muchos de sus resultados pioneros fueron publicados durante este período. En 1922, fue nombradoprofesor de la Johann Wolfgang Goethe-Universität.

Carl Ludwig Siegel 82

CarreraEn 1938, regresó a Gotinga antes de emigrar en 1940 a través de Noruega a los Estados Unidos, donde se incorporóal Instituto de Estudios Avanzados en la Universidad de Princeton, donde ya había pasado un año sabático en 1935.Él regresó a Gotinga sólo después de la Segunda Guerra Mundial, cuando aceptó un puesto como profesor en 1951,que mantuvo hasta su jubilación en 1959.El trabajo de Siegel en teoría de números y ecuaciones de Diofanto de la mecánica celeste y, en particular, le ganónumerosos honores. En 1978, fue galardonado con el premio Wolf en Matemáticas, uno de los más prestigiosas en elcampo.

Referencias• O'Connor, John J.; Robertson, Edmund F., «Biografía de Carl Ludwig Siegel [1]» (en inglés), MacTutor History of

Mathematics archive, Universidad de Saint Andrews.

Referencias[1] http:/ / www-history. mcs. st-andrews. ac. uk/ Biographies/ Siegel. html

Conservación de la energía

Sistema mecánico en el cual se conserva la energía, para choque perfectamente elástico yausencia de rozamiento.

La ley de la conservación de laenergía constituye el primer principiode la termodinámica y afirma que lacantidad total de energía en cualquiersistema físico aislado (sin interaccióncon ningún otro sistema) permaneceinvariable con el tiempo, aunque dichaenergía puede transformarse en otraforma de energía. En resumen, la leyde la conservación de la energía afirmaque la energía no puede crearse nidestruirse, sólo se puede cambiar deuna forma a otra, por ejemplo, cuandola energía eléctrica se transforma enenergía calorífica en un calefactor.Dicho de otra forma: la energía puedetransformarse de una forma a otra otransferirse de un cuerpo a otro, peroen su conjunto permanece estable (o constante).

Conservación de la energía y termodinámica

Dentro de los sistemas termodinámicos, una consecuencia de la ley de conservación de la energía es la llamadaprimera ley de la termodinámica, la cual establece que, al suministrar una determinada cantidad de energía térmica(Q) a un sistema, esta cantidad de energía será igual a la diferencia del incremento de la energía interna del sistema(ΔU) menos el trabajo (W) efectuado por el sistema sobre sus alrededores:

Conservación de la energía 83

(ver Criterio de signos termodinámico)

Aunque la energía no se pierde, se degrada de acuerdo con la segunda ley de la termodinámica. En un procesoirreversible, la entropía de un sistema aislado aumenta y no es posible devolverlo al estado termodinámico físicoanterior. Así un sistema físico aislado puede cambiar su estado a otro con la misma energía pero con dicha energía enuna forma menos aprovechable. Por ejemplo, un movimiento con fricción es un proceso irreversible por el cual seconvierte energía mecánica en energía térmica. Esa energía térmica no puede convertirse en su totalidad en energíamecánica de nuevo ya que, como el proceso opuesto no es espontáneo, es necesario aportar energía extra para que seproduzca en el sentido contrario.Desde un punto de vista cotidiano, las máquinas y los procesos desarrollados por el hombre funcionan con unrendimiento menor al 100%, lo que se traduce en pérdidas de energía y por lo tanto también de recursos económicoso materiales. Como se decía anteriormente, esto no debe interpretarse como un incumplimiento del principioenunciado sino como una transformación "irremediable" de la energía.

El principio en mecánica clásica• En mecánica lagrangiana la conservación de la energía es una consecuencia del teorema de Noether cuando el

lagrangiano no depende explícitamente del tiempo. El teorema de Noether asegura que cuando se tiene unlagrangiano independiente del tiempo, y por tanto, existe un grupo uniparamétrico de traslaciones temporales osimetría, puede construirse una magnitud formada a partir del lagrangiano que permanece constante a lo largo dela evolución temporal del sistema, esa magnitud es conocida como hamiltoniano del sistema. Si además, laenergía cinética es una función sólo del cuadrado de las velocidades generalizadas (o lo que es equivalente a quelos vínculos en el sistema sean esclerónomos, o sea, independientes del tiempo), puede demostrarse que elhamiltoniano en ese caso coincide con la energía mecánica del sistema, que en tal caso se conserva.

• En mecánica newtoniana el principio de conservación de la energía, no puede derivarse de un principio tanelegante como el teorema de Noether, pero puede comprobarse directamente para ciertos sistemas simples departículas en el caso de que todas las fuerzas deriven de un potencial, el caso más simple es el de un sistema departículas puntuales que interactúan a distancia de modo instantáneo.

El principio en mecánica relativistaUna primera dificultad para generalizar la ley de conservación de la energía de la mecánica clásica a la teoría de larelatividad está en que en mecánica relativista no podemos distinguir adecuadamente entre masa y energía. Así deacuerdo con esta teoría, la sola presencia de un partícula material de masa m en reposo respecto observador implicaque dicho observador medirá una cantidad de energía asociadada a ella dada por E = mc2. Otro hecho experimentalcontrastado es que en la teoría de la relatividad no es posible formular una ley de conservación de la masa análoga ala que existe en mecánica clásica, ya que esta no se conserva. Así aunque en mecánica relativista no existan leyes deconservación separadas para la energía no asociada a la masa y para la masa, sin embargo, sí es posible formular unaley de conservación "masa-energía" o energía total.Dentro de la teoría de la relatividad especial, la materia puede respresentarse como un conjunto de campos materialesa partir de los cuales se forma el llamado tensor de energía-impulso total y la ley de conservación de la energía seexpresa en relatividad especial, usando el convenio de sumación de Einstein, en la forma:

(1)

A partir de esta forma diferencial de la conservación de la energía, dadas las propiedades especiales del espacio-tiempo en teoría de la relatividad especial siempre conduce a una ley de conservación en forma integral. Esa integral representa precisamente una mangitud física que permanece invariable a lo largo de la evolución del sistema

Conservación de la energía 84

y es precisamente la energía. A partir de la expresión (1), escrita en términos de coordenadas galileanas , y usando elteorema de la divergencia tenemos:

(2)

Si la segunda integral que representa el flujo de energía y momentum se anula, como sucede por ejemplo siextendemos la integral a todo el espacio-tiempo para un sistema aislado llegamos a la conclusión de que el primermiembro de la expresión anterior permanece invariable durante el tiempo. Es decir:

(3)

La componente "temporal" es precisamente la energía total del sistema, siendo las otras tres lacomponentes del momento lineal en las tres direcciones espaciales.

Conservación en presencia de campo electromagnéticoEn presencia de campos electromagnéticos la energía cinética total de las partículas cargadas no se conserva. Porotro lado a los campos eléctrico y magnético, por el hecho de ser entidades físicas que evolucionan en el tiemposegún la dinámica propia de un lagrangiano, puede asignárseles una magnitud llamada energía electromagnética dadapor una suma de cuadrados del módulo de ambos campos que satisface:

(4)

El término encerrado en el primer paréntesis es precisamente la integral extendida a todo el espacio de lacomponente , que de acuerdo con la sección precedente debe ser una magnitud conservada para un campoelectromagnético adecuadamente confinado.

Conservación en presencia de campo gravitatorioEl campo gravitatorio dentro de la mecánica relativista es tratado dentro de la teoría general de la relatividad. Debidoa las peculiaridades del campo gravitatorio tal como es tratado dentro de esta teoría, no existe una manera deconstruir una magnitud que represente la energía total conjunta de la materia y el espacio-tiempo que se conserve. Laexplicación intuitiva de este hecho es que debido a que un espacio-tiempo puede carecer de simetría temporal, hechoque se refleja en que no existen vectores de Killing temporales en dicho espacio, no puede hablarse de invarianciatemporal de las ecuaciones de movimiento, al no existir un tiempo ajeno al propio tiempo coordenado delespacio-tiempo.Otra de las consecuencias del tratamiento que hace la teoría de la relatividad general del espacio-tiempo es que noexiste un tensor de energía-impulso bien definido. Aunque para ciertos sistemas de coordenadas puede construirse elllamado pseudotensor de energía-impulso, con propiedades similares a un tensor, pero que sólo puede definirse ensistemas de coordenadas que cumplen ciertas propiedades específicas.Por otro lado, aún en la teoría de la relatividad general para cierto tipo de sistemas muy especiales, puede construirseuna magnitud asimilable a la energía total del sistema. Un ejemplo de estos sistemas son los espacio-tiemposasintóticamente planos caracterizados por una estructura causal peculiar y ciertas condiciones técnicas muyrestrictivas; estos sistemas son el equivalente en teoría de la relatividad de los sistemas aislados.

y predice desviaciones de la misma sólo en regiones ocupadas por

materia. En particular la teoría de Logunov y Mestvirishvili, predice

la no ocurrencia de agujeros negros,[1] y esa es una de las principales

predicciones que la diferencian de la teoría general de la relatividad

de Albert Einstein.

Conservación de la energía 85

El principio en mecánica cuánticaEn mecánica cuántica aparecen algunas dificultades al considerar la cantidad de energía de un sistema a lo largo deltiempo. Así la energía total en ciertos sistemas aislados no está fijada para algunos estados cuánticos sino que puedefluctuar a lo largo del tiempo. Sólo los estados llamados estacionarios que son autovectores del operadorhamiltoniano tienen una energía bien definida, cuando además el hamiltoniano no depende del tiempo.Sin embargo, en sistemas aislados aún para estados no estacionarios, puede definirse una ley de conservación de laenergía en términos de valores medios. De hecho para un sistema cuántico cualquiera el valor medio de la energía deun estado puro viene dado por:

(1) ,

Y por tanto cuando el hamiltoniano no depende del tiempo, como sucede en un sistema aislado el valor esperado dela energía total se conserva. Aunque para algunos estados se observen fluctuaciones oscilantes de la energía cuyadesviación estándar se relacionan con el principio de indeterminación de Heisenberg mediante:

(2) ,

Donde:

Referencias[1] A. A. Logunov, 1998, Curso de Teoría de la Relatividad y de la gravitación, Universidad Estatatal de Lomonósov, Moscú, ISBN

5-88417-162-5

Primer principio de la termodinámicaEl primer principio de la termodinámica o primera ley de la termodinámica ,[1] se postula a partir del siguientehecho experimental:

En un sistema cerrado adiabático (que no hay intercambio de calor con otros sistemas o su entorno comosi estuviera aislado) que evoluciona de un estado inicial a otro estado final , el trabajo realizadono depende ni del tipo de trabajo ni del proceso seguido.

Más formalmente, este principio se descompone en dos partes;•• El «principio de la accesibilidad adiabática»

El conjunto de los estados de equilibrio a los que puede acceder un sistema termodinámico cerrado es,adiabáticamente, un conjunto simplemente conexo.

• y un «principio de conservación de la energía»:El trabajo de la conexión adiabática entre dos estados de equilibrio de un sistema cerrado dependeexclusivamente de ambos estados conectados.

Este enunciado supone formalmente definido el concepto de trabajo termodinámico, y sabido que los sistemastermodinámicos sólo pueden interaccionar de tres formas diferentes (interacción másica, interacción mecánica einteracción térmica). En general, el trabajo es una magnitud física que no es una variable de estado del sistema, dadoque depende del proceso seguido por dicho sistema. Este hecho experimental, por el contrario, muestra que para lossistemas cerrados adiabáticos, el trabajo no va a depender del proceso, sino tan solo de los estados inicial y final. Enconsecuencia, podrá ser identificado con la variación de una nueva variable de estado de dichos sistemas, definidacomo energía interna.

Primer principio de la termodinámica 86

Se define entonces la energía interna, , como una variable de estado cuya variación en un proceso adiabático es eltrabajo intercambiado por el sistema con su entorno:

Cuando el sistema cerrado evoluciona del estado inicial A al estado final B pero por un proceso no adiabático, lavariación de la Energía debe ser la misma, sin embargo, ahora, el trabajo intercambiado será diferente del trabajoadiabático anterior. La diferencia entre ambos trabajos debe haberse realizado por medio de interacción térmica. Sedefine entonces la cantidad de energía térmica intercambiada Q (calor) como:

Siendo U la energía interna, Q el calor y W el trabajo.Por convenio, Q es positivo si va del ambiente al sistema, onegativo si lo ha perdido el sistema y W, es positivo si lo realiza el ambiente contra el sistema y negativo si estárealizado por el sistema.Esta definición suele identificarse con la ley de la conservación de la energía y, a su vez, identifica el calor como unatransferencia de energía. Es por ello que la ley de la conservación de la energía se utilice, fundamentalmente porsimplicidad, como uno de los enunciados de la primera ley de la termodinámica:

La variación de energía de un sistema termodinámico cerrado es igual a la diferencia entre la cantidad decalor y la cantidad de trabajo intercambiados por el sistema con sus alrededores.

En su forma matemática más sencilla se puede escribir para cualquier sistema cerrado:

donde:es la variación de energía del sistema,

es el calor intercambiado por el sistema a través de unas paredes bien definidas, yes el trabajo intercambiado por el sistema a sus alrededores.

Véase también: Criterio de signos termodinámico

HistoriaDurante la década de 1840, varios físicos entre los que se encontraban Joule, Helmholtz y Meyer, fuerondesarrollando esta ley. Sin embargo, fueron primero Clausius en 1850 y Thomson (Lord Kelvin) un año despuésquienes escribieron los primeros enunciados formales.[2][3]

DescripciónLa forma de transferencia de energía común para todas las ramas de la física -y ampliamente estudiada por éstas-es el trabajo.Dependiendo de la delimitación de los sistemas a estudiar y del enfoque considerado, el trabajo puede sercaracterizado como mecánico, eléctrico, etc. pero su característica principal es el hecho de transmitir energía y que,en general, la cantidad de energía transferida no depende solamente de los estados iniciales y finales, sino también dela forma concreta en la que se lleven a cabo los procesos.El calor es la forma de transferencia de un tipo de energía particular, propiamente termodinámica, que es debidaúnicamente a que los sistemas se encuentren a distintas temperaturas (es algo común en la termodinámica catalogarel trabajo como toda trasferencia de energía que no sea en forma de calor). Los hechos experimentales corroboranque este tipo de transferencia también depende del proceso y no sólo de los estados inicial y final.Sin embargo, lo que los experimentos sí demuestran es que dado cualquier proceso de cualquier tipo que lleve a un sistema termodinámico de un estado A a otro B, la suma de la energía transferida en forma de trabajo y la energía transferida en forma de calor siempre es la misma y se invierte en aumentar la energía interna del sistema. Es decir,

Primer principio de la termodinámica 87

que la variación de energía interna del sistema es independiente del proceso que haya sufrido. En forma de ecuacióny teniendo en cuenta el criterio de signos termodinámico esta ley queda de la forma:

Así, la Primera Ley (o Primer Principio) de la termodinámica relaciona magnitudes de proceso (dependientes deéste) como son el trabajo y el calor, con una variable de estado (independiente del proceso) tal como lo es la energíainterna.

Aplicaciones de la Primera LeySistemas cerradosUn sistema cerrado es uno que no tiene intercambio de masa con el resto del universo termodinámico. También esconocido como masa de control. El sistema cerrado puede tener interacciones de trabajo y calor con sus alrededores,así como puede realizar trabajo a través de su frontera. La ecuación general para un sistema cerrado (despreciandoenergía cinética y potencial y teniendo en cuenta el criterio de signos termodinámico) es:

Donde Q es la cantidad total de transferencia de calor hacia o desde el sistema, W es el trabajo total e incluye trabajoeléctrico, mecánico y de frontera; y U es la energía interna del sistema.Sistemas abiertosUn sistema abierto es aquel que tiene entrada y/o salida de masa, así como interacciones de trabajo y calor con susalrededores, también puede realizar trabajo de frontera.La ecuación general para un sistema abierto en un intervalo de tiempo es:

O igualmente;

donde;in representa todas las entradas de masa al sistema.out representa todas las salidas de masa desde el sistema.

es la energía por unidad de masa del flujo y comprende la entalpía, energía potencial y energía cinética:

La energía del sistema es:

La variación de energía del sistema en el intervalo de tiempo considerado (entre t0 y t) es:

Sistemas abiertos en estado estacionarioEl balance de energía se simplifica considerablemente para sistemas en estado estacionario (también conocido comoestado estable). En estado estacionario se tiene , por lo que el balance de energía queda:

Sistema aislado

Primer principio de la termodinámica 88

Es aquel sistema en el cual no hay intercambio ni de masa ni de energía con el exterior.

Referencias[1] En español (como en francés), a diferencia del inglés — por ejemplo, First law of thermodynamics—, se usa la palabra «principio» para

designar leyes naturales que no pueden demostrarse explícitamente, sin embargo se pueden medir y cuantificar observando los resultados queproducen.

[2] Clausius, R. (1850). « Über die bewegende Kraft der Wärme (http:/ / gallica. bnf. fr/ ark:/ 12148/ bpt6k15164w/ f384. table)». Annalen derPhysik und Chemie 79:  pp. 368-397, 500-524. . Consultado el 23 de septiembre de 2009.

[3] Thomson, W. (Lord Kelvin) (1851). «On the Dynamical Theory of Heat, with Numerical Results Deduced from Mr Joule’s Equivalent of aThermal Unit, and M. Regnault’s Observations on Steam». Transactions of the Royal Sociey of Edinburgh 20:  pp. 261-268, 289-298.

Enlaces externos• Primer Principio de la Termodinámica (http:/ / www. fisicanet. com. ar/ fisica/ termodinamica/

ap04_primer_principio. php) Fisicanet

Teoremas de incompletitud de Gödel

Kurt Gödel a los 19 años de edad, cinco años antes de lademostración de los teoremas.

Los teoremas de incompletitud de Gödel son doscélebres teoremas de lógica matemática demostradospor Kurt Gödel en 1931. Ambos están relacionados conla existencia de proposiciónes indecidibles en ciertasteorías aritméticas.

El primer teorema de incompletitud afirma que, bajociertas condiciones, ninguna teoría matemática formalcapaz de describir los números naturales y la aritméticacon suficiente expresividad, es a la vez consistente ycompleta. Es decir, si los axiomas de dicha teoría no secontradicen entre sí, entonces existen enunciados queno pueden probarse ni refutarse. Las teorías aritméticaspara las que el teorema es válido son básicamenteaquellas en las que la deducción de teoremas puederealizarse mediante un algoritmo.

La prueba del teorema es totalmente explícita: en ellase construye una fórmula, denotada habitualmente G enhonor a Gödel, para la que dada una demostración de lamisma, puede construirse una refutación, y viceversa.Sin embargo, la interpretación natural de dichasentencia en términos de números naturales esverdadera.[1]

El segundo teorema de incompletitud es un caso particular del primero: afirma que una de las sentencias indecidiblesde dicha teoría es aquella que "afirma" la consistencia de la misma. Es decir, que si el sistema en cuestión esconsistente, no es posible probarlo dentro del propio sistema.Los teoremas de incompletitud de Gödel son uno de los grandes avances de la lógica matemática, y supusieron—según la mayoría de la comunidad matemática— una respuesta negativa al segundo problema de Hilbert.[1]

Teoremas de incompletitud de Gödel 89

Enunciado de los teoremas

ContextoLos teoremas de incompletitud se formulan en el contexto de una teoría formal de primer orden.[2] Una teoría deprimer orden no es más que un modelo simplificado del razonamiento matemático, formado por dos elementos:• Un lenguaje formal, que consta de un conjunto de signos, y de una sintaxis, que determina qué cadenas de signos

son fórmulas bien formadas.• Un cálculo deductivo, formado por las reglas de inferencia, que definen cuando, de una serie de fórmulas dadas,

una de ellas es «consecuencia» del resto; y por los axiomas, un cierto conjunto de fórmulas (que puede serinfinito).

Con estos elementos se estudia el concepto de demostración: los teoremas son aquellas fórmulas que se obtienen deuna cadena de fórmulas que, o bien son axiomas, o bien son consecuencia de fórmulas anteriores.Las teorías formales T tienen una serie de rasgos en función de lo que son capaces de demostrar:

• T es consistente si es imposible demostrar una fórmula φ y también su negación ¬φ.• T es completa si dada cualquier fórmula φ, existe una demostración de φ o de ¬φ.

La consistencia de una teoría es un requisito básico para que sea útil, ya que según el principio de explosión, unateoría inconsistente demuestra cualquier fórmula. La completitud es una característica "deseable", que permitiría queuna teoría tuviera una "respuesta" para cada "pregunta" que pueda formularse en su lenguaje. El primer teorema deincompletitud establece que, bajo ciertas hipótesis, una teoría formal no puede tener ambas características.La primera de estas hipótesis es que la teoría sea aritmética. Una teoría aritmética es una teoría formal que incluyesignos capaces de describir los números naturales (como por ejemplo: «+», «×» ó «0»), de modo que bien susaxiomas o bien sus teoremas contengan los llamados axiomas de Peano, que son los enunciados básicos de laaritmética.[3]

La segunda hipótesis es que la teoría sea recursiva, lo cual significa básicamente que el procedimiento paradistinguir1.1. las fórmulas bien formadas de las que no lo son,2.2. si una fórmula es consecuencia de otras o no,3.3. si una fórmula dada es un axioma o no,es un algoritmo, y puede ser llevado a cabo sin ambigüedad en un tiempo finito.

Primer teoremaEl enunciado del primer teorema reza:

Primer teorema de incompletitud de Gödel

Toda teoría aritmética recursiva que sea consistente es incompleta

La demostración de este teorema pasa por construir una cierta fórmula, la "sentencia de Gödel" G, que no puede serprobada ni refutada en T: ni G ni ¬G son teoremas de T (es decir, es independiente o indecidible).Para ello, dado que en una teoría recursiva toda demostración es un procedimiento algorítmico, Gödel desarrolló unmétodo para codificar fórmulas y demostraciones mediante números y operaciones sobre los mismos, llamadonumeración de Gödel. Una vez hecho esto, la sentencia G es aquella que afirma «no existe un número x con lapropiedad P», donde la propiedad P, al ser examinada a la luz de esta equivalencia entre números y fórmulas,significa «ser la demostración (en la teoría T) de G». Por lo tanto, la sentencia G afirma «no soy demostrable en lateoría T». (Véase el razonamiento detallado más abajo).

Teoremas de incompletitud de Gödel 90

El hecho de que G no sea demostrable implica que es cierta —pues afirma su propia indemostrabilidad—, en lainterpretación natural en que las variables de la teoría se interpretan como los números naturales. Esto significaque ninguna teoría aritmética en las condiciones del teorema puede demostrar todos los enunciados verdaderos de laaritmética.[1]

Además, el hecho de que ¬G tampoco sea demostrable significa que si se toma como axioma, la teoría resultante T' =T + ¬G es también consistente, a pesar de que ¬G es falsa en su interpretación natural. Esto demuestra la existenciade modelos no estándar de la aritmética: los objetos que describe T' no son los números naturales (ya que paraellos¬G es falsa), pero cumplen todos los teoremas aritméticos (que son también teoremas de T').[4] En otras palabras, elprimer teorema de incompletitud asegura que estas teorías de primer orden no pueden caracterizar totalmente losobjetos que describen.[5]

Tomando G (o su contraria) como axioma se obtiene una nueva teoría T' en la que G (o su contraria) es trivialmentedemostrable. Sin embargo esto no invalida el teorema, puesto que G (o su contraria) hablan de «demostrabilidad enT». T' es también incompleta: puede escribirse una nueva sentencia G' que afirma «no soy demostrable en T'». Endefinitiva, para una teoría formal que sea consistente y completa debe fallar alguna de las hipótesis: o bien no esrecursiva y no hay un algoritmo para distinguir los axiomas del resto de fórmulas, como es el caso de las extensionesconsistentes que se construyen en el teorema de completitud de Gödel;[6] o bien no son aritméticas, en el sentido deque no describen una porción lo suficientemente grande de los números naturales y sus axiomas, como la aritméticade Presburger.[7]

Segundo teoremaEl enunciado del segundo teorema hace referencia a una fórmula, Consis T, que puede construirse en cualquier teoríaT (ver más abajo), y que afirma que la teoría T es consistente. La sentencia Consis T expresa sencillamente,utilizando de nuevo la "equivalencia" entre demostraciones y operaciones numéricas, «no existe una demostración de0 = 1» (la ausencia de demostración para alguna fórmula es equivalente la consistencia de la teoría, debido alprincipio de explosión). Entonces se tiene:

Segundo teorema de incompletitud de Gödel

En toda teoría aritmética recursiva que sea consistente, Consis T no es un teorema.

Para demostrar que Consis T no es un teorema, se ha de utilizar una vez más la numeración de Gödel y la capacidadexpresiva de las teorías aritméticas para convertir el primer teorema de incompletitud en el teorema formal Consis T⇒ ¬∃x P(x), donde P es la propiedad mencionada anteriormente de «ser una demostración de G». Puesto que Gafirma su propia indemostrabilidad, este teorema formal es equivalente a Consis T ⇒ G, por lo que si Consis T fuerademostrable, por pura deducción formal G también lo sería, lo cual es imposible si T es consistente (según el primerteorema de incompletitud).El segundo teorema de incompletitud impone serias limitaciones a la hora de demostrar la consistencia de una teoríaformal T: nunca podrá hacerse utilizando únicamente la propia T. Si se utiliza una extensión T' en la que Consis Tpueda demostrarse, la propia consistencia de T' no podrá demostrarse ni en T ni en T'.

Teoremas de incompletitud de Gödel 91

Ejemplos de afirmaciones indecidiblesLa existencia de una afirmación indecidible dentro de un sistema formal no es en sí misma un fenómenosorprendente.El subsiguiente trabajo combinado de Gödel y Paul Cohen ha dado ejemplos concretos de afirmaciones indecidibles:tanto el axioma de elección como la hipótesis del continuo son indecidibles en la axiomatización estándar de teoríade conjuntos. Esos resultados no requieren del teorema de incompletitud.En 1936, Alan Turing demostró que el problema de la parada (la cuestión de si una máquina de Turing parará alintroducirle unos datos) es indecidible. Más tarde este resultado se generalizó en el campo de las funcionesrecursivas en el Teorema de Rice que demuestra que todos los problemas de decisión que no son triviales sonindecidibles en un sistema que sea Turing-completo.En 1973, se demostró que el problema de Whitehead en teoría de grupos es indecidible en la teoría estándar degrupos. En 1977, Kirby, Paris y Harringon demostraron que una afirmación en combinatoria, una versión delteorema de Ramsey, es indecidible en la axiomatización de la aritmética dada por los axiomas de Peano pero sepuede demostrar cierta en el más amplio sistema de la teoría de conjuntos. El algoritmo de Kruskal, que tieneimplicaciones en informática, también es indecidible a partir de los axiomas de Peano pero demostrable en teoría deconjuntos. Asimismo, el teorema de Goodstein es una afirmación relativamente simple sobre los números naturalesque es indecidible en la aritmética de Peano.Gregory Chaitin produjo afirmaciones indecidibles en teoría algorítmica de la información y de hecho demostró supropio teorema de la incompletud en ese contexto.Uno de los primeros problemas de los que se sospechó que serían indecidibles fue el problema de equivalencia deenunciados sobre grupos, propuesto inicialmente por Max Dehn en 1911, el cual establece que existe un gruporepresentado de forma finita para el cual no existe algoritmo que decida si dos fórmulas que sólo hablan sobrepropiedades de esos grupos son equivalentes. El carácter indecidible de este enunciado no fue demostrado sino hasta1952.

Malentendidos en torno a los teoremas de GödelPuesto que el primer teorema de la incompletud de Gödel es tan famoso, ha dado origen a multitud demalentendidos. Aquí resumimos algunos:1. El teorema no implica que todo sistema axiomático interesante sea incompleto. Por ejemplo, la geometría

euclídea se puede axiomatizar de forma que sea un sistema completo. (De hecho, los axiomas originales deEuclides son casi una axiomatización completa. Los axiomas que faltan expresan propiedades que parecen tanobvias que fue necesaria la aparición de la idea de la prueba formal hasta que se echaron en falta). Sin embargohasta en un sistema completo como el de la geometría habrá construcciones imposibles (trisección del ángulo,cuadratura del círculo).

2. El teorema sólo se aplica a sistemas que permitan definir los números naturales como un conjunto. No basta conque el sistema contenga los números naturales. Además debe ser capaz de expresar el concepto " es un númeronatural" usando los axiomas y la lógica de primer orden. Hay multitud de sistemas que contienen a los númerosnaturales y son completos. Por ejemplo, tanto los números reales como los números complejos tienenaxiomatizaciones completas.

Teoremas de incompletitud de Gödel 92

Discusión e implicacionesLos resultados de incompletitud afectan a la filosofía de las matemáticas, particularmente a los puntos de vista talescomo el formalismo, que usa la lógica formal para definir sus principios. Se puede parafrasear el primer teoremadiciendo "nunca se podrá encontrar un sistema axiomático que sea capaz de demostrar todas las verdadesmatemáticas y ninguna falsedad."Por otra parte, desde una perspectiva estrictamente formalista esta paráfrasis se consideraría sin significado porquepresupone que la «verdad» y «falsedad» matemáticas están bien definidas en un sentido absoluto, en lugar de serrelativas a cada sistema formalLa siguiente reformulación del segundo teorema es todavía más inquietante para los fundamentos de lasmatemáticas:

Si se puede demostrar que un sistema axiomático es consistente a partir de sí mismo, entonces esinconsistente.

Por tanto, para establecer la consistencia de un sistema se necesita utilizar otro sistema , pero una prueba enno es totalmente convincente a menos que la consistencia de ya se haya probado sin emplear . La

consistencia de los axiomas de Peano para los números naturales por ejemplo se puede demostrar en la teoría deconjuntos, pero no en la teoría de los números naturales por sí sola. Esto proporciona una respuesta negativa alproblema número dos de la famosa lista de cuestiones abiertas importantes en matemáticas de David Hilbert(llamada problemas de Hilbert).En principio, los teoremas de Gödel todavía dejan alguna esperanza: podría ser posible producir un algoritmo generalque para una afirmación dada determine si es indecidible o no, permitiendo a los matemáticos evitar completamentelos problemas indecidibles. Sin embargo, la respuesta negativa al Entscheidungsproblem demuestra que no existe talalgoritmo.Es de notar que los teoremas de Gödel sólo son aplicables a sistemas axiomáticos suficientemente fuertes. Estetérmino significa que la teoría contiene la suficiente aritmética para llevar a cabo las instrucciones de codificaciónrequeridas por la prueba del primer teorema de incompletud. Esencialmente, todo lo que se exige son algunos hechosbásicos sobre la adición y la multiplicación tal y como por ejemplo se formalizan en la aritmética Q de Robinson.Hay sistemas axiomáticos incluso más débiles que son consistentes y completos, por ejemplo la aritmética dePresburger que demuestra todas las afirmaciones de primer orden ciertas aplicando sólo la suma.El sistema axiomático puede consistir en un número infinito de axiomas (tal y como hace la aritmética de primerorden de Peano), pero para poder aplicarse el teorema de Gödel debe haber un algoritmo efectivo que sea capaz averificar la corrección de las pruebas. Por ejemplo, el conjunto de todas las declaraciones de primer orden que sonciertas en el modelo estándar de los números naturales es completo. El teorema de Gödel no se puede aplicar porqueno hay ningún procedimiento efectivo que decide si una cierta declaración es un axioma. De hecho, que esto sea asíes una consecuencia del primer teorema de incompletud de Gödel.Otro ejemplo de una especificación de una teoría en la que el primer teorema de Gödel no es aplicable se puedeconstruir de la siguiente manera: ordenemos todas las posibles declaraciones sobre los números naturales primeropor su longitud y luego en orden lexicográfico; comencemos con un sistema axiomático inicialmente igual a losaxiomas de Peano, repasemos la lista de declaraciones una a una, y, si la declaración actual no se puede demostrar nirefutar a partir del actual sistema de axiomas, entonces añadámosla a la lista. Esto crea un sistema que es completo,consistente y suficientemente potente, pero no recursivamente enumerable.El propio Gödel sólo demostró una versión de los teoremas arriba expuestos que es técnicamente un poco más débil;la primera demostración de las versiones descritas arriba fue dada por J. Barkley Rosser en 1936.En esencia, la prueba del primer teorema consiste en construir una declaración dentro de un sistema formalaxiomático al que se le puede dar la siguiente interpretación meta matemática:

«Esta declaración no se puede probar.»

Teoremas de incompletitud de Gödel 93

Como tal, puede verse como una versión moderna de la paradoja del mentiroso. Al contrario de la declaración delmentiroso, no se refiere directamente a sí mismo; la interpretación de arriba sólo se puede "ver" desde fuera delsistema formal.En un trabajo publicado en 1957 en Journal of Symbolic Logic, Raymond Smullyan mostró que los resultados deincompletitud de Gödel pueden obtenerse para sistemas mucho más elementales que los considerados por Gödel.Smullyan también ha reivindicado las pruebas más simples con el mismo alcance, basadas en los trabajos de AlfredTarski sobre el concepto de verdad en los sistemas formales. Más simples, pero no menos perturbadorasfilosóficamente. Smullyan no ha plasmado sus reflexiones sobre incompletitud sólo en obras técnicas; también haninspirado célebres libros de divulgación como ¿Cómo se llama este libro?.Si el sistema axiomático es consistente, la prueba de Gödel muestra que (y su negación) no se pueden demostraren el sistema. Por tanto es cierto ( afirma no ser demostrable y no lo es) y, sin embargo, no se puede probarformalmente en el sistema. Fíjese que añadir a los axiomas del sistema no resolvería el problema: habría otrasentencia de Gödel para la teoría ampliada.Roger Penrose afirma que esta (presunta) diferencia entre lo que se puede probar mecánicamente y lo que loshumanos pueden ver como cierto muestra que la inteligencia humana no es mecánica en su naturaleza. También JohnR. Lucas se ha ocupado de está cuestión en Mentes, Máquinas y Gödel.[8]

Esta perspectiva no está ampliamente aceptada, porque tal y como lo plantea Marvin Minsky, la inteligencia humanaes capaz de errar y de comprender declaraciones que son en realidad inconsistentes o falsas. Sin embargo, Minsky hainformado de que Kurt Gödel le dijo a él en persona que él creía que los seres humanos tienen una forma intuitiva,no solamente computacional, de llegar a la verdad y por tanto su teorema no limita lo que puede llegar a ser sabidocomo cierto por los humanos.Véanse Refutaciones a la interpretación de Penrose en los Enlaces en Inglés de la sección Enlaces externos yreferencias

La posición de que el teorema muestra que los humanos tienen una habilidad que transciende la lógica formaltambién se puede criticar de la siguiente manera: No sabemos si la sentencia es cierta o no, porque no sabemos (nipodemos saber) si el sistema es consistente. De modo que en realidad no sabemos ninguna verdad que esté fuera delsistema. Todo lo que sabemos es lo siguiente:

O es indemostrable dentro del sistema, o el sistema es inconsistente.Esta declaración es fácilmente demostrable dentro del sistema.Otra implicación es que el trabajo de Gödel motivó a Alan Turing (1912-1954) a estudiar qué funciones eransusceptibles de poder ser calculadas y cuáles no. Para ello se sirvió de su Máquina de Turing, una máquina depropósito general mediante la que formalizó las funciones y procedimientos de cálculo. Demostrando que existíanfunciones que no son posibles de calcular mediante la Máquina de Turing. El paradigma de este conjunto defunciones lo representa la función que establece "si dada una Máquina de Turing, ésta produce un resultado o, por elcontrario, se queda calculando indefinidamente". Esta función, conocida con el nombre de Problema de parada(Halting Problem), será pieza fundamental para demostrar la incomputabilidad de ciertas funciones.

Teoremas de incompletitud de Gödel 94

Demostración de los teoremasLa demostración de los teoremas de incompletitud se basa en tres conceptos:1. La numeración de Gödel, que permite traducir las teorías formales a operaciones de aritmética pura.2.2. La potencia expresiva de las teorías formales aritméticas, cuyas expresiones recogen dichas operaciones.3. El lema diagonal, que permite que las fórmulas sean autorreferentes.El enunciado original debido a Gödel, cuya demostración se esboza en esta sección, es más débil que el presentadoarriba, ya que en lugar de la consistencia de la teoría T se exige una propiedad más fuerte, la ω-consistencia.

Una teoría aritmética es ω-inconsistente si, para alguno de sus teoremas formales de la forma ∃x, φ(x), puede refutarse cualquier casoparticular, esto es, puede probarse ¬φ([n]), para cada numeral [n]. Una teoría que no es ω-inconsistente se dice ω-consistente.

(Los numerales [n] son los símbolos que utilice el lenguaje de la teoría para especificar los números naturalesconcretos. En el ejemplo de la aritmética de Peano en la sección siguiente, los numerales son los símbolos dados por:[0] ≡ 0, [1] ≡ S0, [2] ≡ SS0, etc.) La ω-consistencia implica la consistencia (pero no al revés). El enunciado «fuerte»,en el que sólo se requiere la consistencia de la teoría fue probado por J. B. Rosser mediante un método muy similar.

Numeración de GödelLa numeración de Gödel es una herramienta que permite relacionar las teorías formales con la aritmética. El lenguajede una teoría formal de primer orden está compuesto por una cantidad —a lo sumo— numerable de signos, como porejemplo:

∃ , ⇒ , ¬ , |, =, x , y , z , ... , 0 , + , × , Sen el caso del lenguaje de la aritmética de Peano, donde además de los símbolos lógicos y las variables, aparecenalgunos símbolos adicionales para la arimética (donde S es el símbolo para denotar «el número siguiente a»).También el conjunto de todas las cadenas (sucesiones finitas de signos) es numerable, así como el conjunto de lassucesiones finitas de cadenas.Una numeración de Gödel es una asignación de un único número natural para cada elemento de cada uno de estostres conjuntos: signos, cadenas de signos y sucesiones de cadenas.

Ejemplo

Una posible codificación para los signos, cadenas y sucesiones de cadenas es la siguiente. Para los signos se adopta:«∃» → 10 , «⇒» → 11 , «¬» → 12 , «|» → 13 , «=» → 14 , «0» → 15 ,«S» → 16 , «+» → 17 , «×» → 18 , «x» → 20 , «y» → 2000 , «z» → 200000 , ...

Dada una cadena de signos, se adopta el criterio de «apilar» los números de Gödel de sus signos, con un 77 inicial paraindicar que se trata de una cadena:

«x + [5] = 0» se torna en: 77-20-17-16-16-16-16-16-15-14-15, es decir, en 7720171616161616151415Para una sucesión de cadenas de signos, puede adoptarse un convenio similar, con un 88 inicial, para indicar que se trata deuna sucesión:

La sucesión «0 = 1, y + 1 = 0» se convierte en: 88-77-15-14-16-15-77-2000-17-16-15-14-15, es decir en:8877151416157720001716151415

Puesto que la manipulación de estos signos, cadenas y sucesiones puede traducirse en manipulación de unos ciertosnúmeros, tanto la sintáxis que distingue las cadenas de signos «con sentido» —las fórmulas− como el cálculodeductivo que distingue las sucesiones de cadenas «que demuestran algo» —las demostraciones— se ven traducidasa operaciones aritméticas. Es decir, existen una serie de relaciones y funciones aritméticas que se corresponden conlas reglas sintácticas y del cálculo deductivo, como por ejemplo:

Sig x : x es (el número de Gödel de) un signoCad x : x es (el número de Gödel de) una cadena (de signos)

Teoremas de incompletitud de Gödel 95

(Se omite «el número de Gödel de» en adelante)Suc x : x es una sucesión (de cadenas)Form x : la cadena x es una fórmulaAx x : la fórmula x es un axiomaCons(x, y, z): «x es una fórmula consecuencia inmediata de las fórmulas y y z»Dem(x, y): «la sucesión x es una demostración de la fórmula y»

La forma precisa de estas funciones y relaciones es laboriosa y depende del criterio que se haya escogido paraefectuar la numeración de Gödel. En particular la relación Ax x ha de construirse teniendo en cuenta un ciertoconjunto de axiomas concreto, luego la relación Dem hace refencia a una teoría concreta que no se ha especificado.

Ejemplo

Es sencillo entender ahora cómo deben definirse algunas de estas relaciones según la numeración de Gödelmostrada antes:

Sig x ≡ x está entre 10 y 18 (ambos inclusive), o es de la forma 20·100i (con i > 1)Cad x ≡ En base 10, x es de la forma 88n(s1)...n(sk), donde cada n(si) representa las cifras de un número talque Sig n(si) es ciertoSuc x ≡ En base 10, x es de la forma 77n(π1)...π(sk) donde cada n(πi) representa las cifras de un número talque Cad n(πi) es cierto

Expresabilidad. RecursividadMediante la numeración de Gödel, es posible «traducir» los signos y reglas de una teoría formal T en números yoperaciones aritméticas. Es posible ir más allá, ya que T es una teoría aritmética y se pueden «recodificar» lasmencionadas operaciones mediante el lenguaje formal de T, al igual que se puede hacer con otras funciones yrelaciones aritméticas como por ejemplo:

La función «multiplicar por 2» está representada por la fórmula: y = [2] × xLa relación de orden x ≤ y, puede expresarse mediante: ∃z, z + x = yLa relación «x e y son primos entre sí» puede expresarse como: ∀z, ¬x = z × y ∧ ¬y = z × x

Cada una de estas relaciones es expresada por su fórmula correspondiente, en el sentido de que si dos números estánrelacionados, puede demostrarse la expresión formal correspondiente; y cuando no lo están, puede refutarse.[9] Porejemplo:

Para cada entero n, se tiene que si n es par puede probarse la expresión formal ∃x, [n] = [2] × x; y si es impar,puede refutarse dicha fórmula.Para cada par de enteros m y n, si se tiene m ≤ n puede demostrarse la fórmula ∃z, z + [m] = [n]; cuando m > n,puede refutarse dicha expresión.

Que las relaciones presentadas en la sección anterior —como Dem— sean expresables, implica que una teoría formalaritmética es lo suficientemente potente como para «hablar» de las características de una teoría formal arbitraria y, enparticular, de sí misma.Probar que todas estas relaciones y funciones son expresables es sencillo si son recursivas, es decir, si puedencalcularse o verificarse mediante un algoritmo, ya que puede demostrarse que toda relación recursiva es expresableen una teoría aritmética. Las teorías formales para las que esto es posible —asignar los números de Gödel de maneraque distinguir los signos, cadenas, sucesiones, fórmulas, consecuencias y axiomas, puede llevarse a cabo con unalgoritmo— son las llamadas teorías recursivas, y por ello esta característica se asume como hipótesis en losteoremas de incompletitud.

Teoremas de incompletitud de Gödel 96

DiagonalizaciónPara construir la sentencia autorreferente G ha de idearse una manera para que una fórmula hable de las propiedadesde su número de Gödel correspondiente. Esto ha de hacerse de manera indirecta, ya que dada una fórmula φ connúmero de Gödel n, otra fórmula que «hable» de φ mediante el numeral [n] en general tendrá un número de Gödelmayor que n, y por tanto no puede ser la propia φ. Esto se consigue mediante el llamado lema diagonal.

En una teoría aritmética recursiva, dada una fórmula φ(x) existe una sentencia ψ con número de Gödel n tal que puede demostrarse ψ ⇔φ([n]).

En definitiva, dada una propiedad cualquiera φ(x) existe una sentencia ψ que afirma «mi número de Gödel cumple lapropiedad φ».

Demostración del primer teoremaSea una teoría formal aritmética y recursiva T ω-consistente. Sea la fórmula ¬∃z, DEM(z, x), donde DEM es lafórmula que expresa la relación numérica Dem —relativa a la teoría formal T—. Por el lema de diagonalizaciónexiste una sentencia G con número de Gödel g, para la que se demuestra G ⇔ ¬∃z, DEM(z, [g]), es decir, que afirma«ningún número codifica una demostración (en T) de la fórmula representada por g», o de otro modo, «no soydemostrable (en T)». La negación de esta sentencia, ¬G, es equivalente a ∃z, DEM(z, [g]), o «mi negación esdemostrable (en T)».Supóngase entonces que G puede demostrarse. Entonces existe un número n que cumple Dem(n, g), y en T puedeprobarse entonces DEM([n], [g]), lo cual implica formalmente ¬G; y esto es imposible si T es consistente. Por tantono existe una demostración de G, y se cumple ¬Dem(n, g) para todos los números n, lo cual resulta en un númeroinfinito de teoremas formales ¬DEM([n], [g]) para cada numeral [n]. Como T es ω-consistente, no puede ocurrirentonces que ∃x, DEM(x, [g]) sea un teorema, por lo que ¬G es indemostrable, y T es indecidible.

Demostración del segundo teoremaLa demostración del segundo teorema de incompletitud requiere de un hecho técnico que Gödel originalmente noprobó. Sea una teoría T en las condiciones anteriores y sea la fórmula Consis T ≡ ¬∃z, DEM(z, [k]), donde k es elnúmero de Gödel de la sentencia 0 = 1. Consis T afirma que la teoría T es consistente (pues deja algo sin demostrar).La versión formal (de la primera parte) del primer teorema de incompletitud puede expresarse como Consis T ⇒¬∃y, DEM(y, [g]) y esto es equivalente precisamente a Consis T ⇒ G. De modo que, de poder probar formalmenteesta sentencia, Consis T sería indemostrable puesto que se tendría entonces una demostración de G, en contradiccióncon el primer teorema.El hecho técnico que se necesita es precisamente una prueba de que la demostración del primer teorema deincompletitud puede «traducirse» en una demostración formal de la sentencia Consis T ⇒ ¬∃y, DEM(y, [g]). Esto esposible en toda teoría aritmética recursiva, ya que verifican unas ciertas condiciones de demostrabilidad.

Teoremas de incompletitud de Gödel 97

Referencias[1] Véase la parte dedicada a Gödel en la introducción de Hofstadter, 1989.[2] Una introducción a nivel medio a las teorías formales se encuentra en Hofstadter, 1989, Parte I. Para una exposición avanzada, véase por

ejemplo Barwise, 1989, Part A.[3] Los axiomas de Peano son los axiomas más populares de la aritmética. Sin embargo el primer teorema de incompletitud también es válido

para versiones más débiles —con menos axiomas— como la aritmética de Robinson.[4] La existencia de estos objetos —un modelo para T'— está justificada por el teorema de completitud semática.[5][5] Véase Hofstadter, 1989, §XIV para una exposición de nivel intermedio sobre la aritmética no estándar.[6][6] Véase Boolos, 2007, §17.2.[7][7] Véase Boolos, 2007, §24.[8] Lucas, John R.. « Minds, Machines and Gödel (http:/ / users. ox. ac. uk/ ~jrlucas/ mmg. html)» (en inglés). Consultado el 15 de Septiembre de

2011.[9] De manera rigurosa, se dice que una relación R(n1, ..., nk) es expresable en una teoría formal aritmética si existe una fórmula φ(x1,..., xk) de

forma que si la relación R(n1, ..., nk) se cumple para unos ciertos números n1, ..., nk entonces puede demostrarse la fórmula φ([n1],..., [nk]); y sila relación no se cumple, entonces dicha fórmula puede refutarse. Véase Ivorra,, §6.3 o Boolos, Burgess y Jeffrey, 2007, §16 (donde sedenomina definability).

Bibliografía• Barwise, Jon (1989) (en inglés). Handbook of mathematical logic. Elsevier. ISBN 9780444863881.• Boolos, George; Burgess, John P.; Jeffrey, Richard C. (2007) (en inglés). Computability and logic. Cambridge

University Press. ISBN 9780521701464..• Domeisen, Norbert (1990). Peter Lang. ed (en alemán). Zentralblatt MATH Logik der Antinomien (http:/ / www.

emis. de/ cgi-bin/ zmen/ ZMATH/ en/ quick. html?first=1& maxdocs=3& type=html& an=0724. 03003&format=complete). ISBN 3-261-04214-1.

• Gödel, Kurt (1931). «Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme, I»(en alemán). Monatshefte für Mathematik und Physik 38:  pp. 173-198. doi: 10.1007/BF01700692 (http:/ / dx. doi. org/10. 1007/ BF01700692).

Traducido al castellano en:• (1981). Jesús Mosterín. ed. Obras completas. Alianza Editorial. ISBN 84-206-2286-9.• (2006). Sobre proposiciones formalmente indecidibles de los Principia Mathematica y sistemas afines. KRK

Ediciones. ISBN 978-84-96476-95-0.• Hofstadter, Douglas R. (1989). Gödel, Escher, Bach. Tusquets editores. ISBN 84-7223-459-2.• Hofstadter, Douglas R.; Nagel, Ernest; Newman, James Roy (2002) (en inglés). Gödel's Proof. NYU Press. ISBN

0-8147-5816-9.• Ivorra, Carlos, Lógica y teoría de conjuntos (http:/ / www. uv. es/ ivorra/ Libros/ Logica. pdf), consultado el

27-07-2011.• Martínez, Guillermo (2009). Gödel para todos. Seix Barral. ISBN 978-950-731-605-0.• Rosser, B. (1936). « Extensions of some theorems of Gödel and Church (http:/ / www. jstor. org/ stable/

2269028)». Journal of Symbolic Logic 1 (3):  pp. 87-91.• Smullyan, Raymond (1992) (en inglés). Gödel's Incompleteness Theorems. Oxford University Press. ISBN

0-19-504672-2.

Teoremas de incompletitud de Gödel 98

Enlaces externos•• Refutaciones a la interpretación de Penrose:

• Is Mathematical Insight Algorithmic? (http:/ / cs. nyu. edu/ cs/ faculty/ davism/ penrose. ps)• How Subtle is Gödel's Theorem (http:/ / cs. nyu. edu/ cs/ faculty/ davism/ penrose2. ps)• Why Gödel's Theorem Cannot Refute Computationalism (http:/ / citeseer. ist. psu. edu/ laforte98why. html)• Human and Machine Understanding of Mathematics (http:/ / citeseer. ist. psu. edu/ 106920. html)

• Ignacio Jané, La obra de Gödel en lógica matemática y teoría de conjuntos (http:/ / divulgamat. ehu. es/weborriak/ historia/ Gaceta/ historia93b. pdf) Una introducción sintética e histórica que respeta los conceptosoriginales, evitando malentendidos.

• Reseña en castellano (http:/ / redalyc. uaemex. mx/ redalyc/ pdf/ 294/ 29406405. pdf) de Torkel Frazen, Gödel'stheorem : an incomplete guide to its use and abuse. El libro de Franzen, de 2005, está siendo muy citado comoobra de interés para introducir al verdadero sentido de los teoremas de Gödel y prevenir frente a su aplicacióninjustificada en campos no matemáticos.

• Kārlis Podnieks: Around Goedel's Theorem, http:/ / www. ltn. lv/ ~podnieks/ gt. html• Hilbert's second problem (http:/ / aleph0. clarku. edu/ ~djoyce/ hilbert/ problems. html#prob2)

Numeración de GödelEn teoría de los números un número de Gödel es una función que asigna a cada símbolo y fórmula de un lenguajeformal un número único, denominado Número de Gödel (GN). El concepto fue utilizado por primera vez por KurtGödel para la demostración del teorema de Incompletitud de Gödel.La enumeración de un conjunto de funciones computables se denomina también enumeración de Gödel oenumeración efectiva. Una enumeración de Gödel se puede interpretar como un lenguaje de programación donde losnúmeros de Gödel están asignados a cada función computable igual que los programas que cálculos los valores parala función en este lenguaje de programación.

DefiniciónDado un conjunto enumerable S, una enumeración de Gödel es una función

donde f y la inversa de f son funciones computables.

Ejemplo

Paso 1Los números de Gödel se construyen con referencia a símbolos de cálculo proposicional y la aritmética formal. Cadasímbolo se asigna primero a un número natural, por tanto:.

Numeración de Gödel 99

Símbolos lógicos Números 1:12

¬ 1 ("no")

2 ("para todos")

3 ("si, entonces")

4 ("o")

5 ("y")

( 6

) 7

S 8 ("es el sucesor de")

0 9

= 10

. 11

+ 12

Símbolos proposicionales Números más grandes que 12 y divisibles por 3

P 15

Q 18

R 21

S 24

Variables individuales Números más grandes que 12 con resto 1 cuando se dividen por 3

v 13

x 16

y 19

Símbolos de predicado Números más grandes que 12 con resto 2 cuando se dividen por 3

E 14

F 17

G 20

Y así para todos los símbolos posibles. La sintaxis del cálculo proposicional asegura que no hay ambigüedad entre elsímbolo "P" y el símbolo "+" aunque ambos estén asignados al número 12.

Paso 2A cada enunciado aritmético se le asigna un número de Gödel único utilizando series de números primos. Se basabásicamente en el siguiente código: 1er primo carácter × 2º primo carácter × 3er primo carácter etc.Por ejemplo el enunciado x, P (x) se convierte en22 × 316 × 512 × 76 × 1116 × 137, porque {2, 3, 5, 7, 11, ...} es la serie de primos, y 2, 16, 12, 6, 16, 7 son loscódigos de los caracteres. Este es un número bastante grande, pero perfectamente determinado:14259844433335185664666562849653536301757812500.Es importante ver que, por el teorema fundamental de la aritmética, este número tan grande se puede descomponeren sus factores primos, y por tanto se puede convertir un número de Gódel en la secuencia de caracteres original.

Numeración de Gödel 100

Paso 3Finalmente, a las secuencias de enunciados se les asigna un número de Gödel, de manera que la secuenciaEnunciado 1 (GN1)Enunciado 2 (GN2)Enunciado 3 (GN3)(donde GN significa número de Gödel)tiene el número de Gödel 2GN1×3GN2×5GN3, que denominaremos GN4.

La demostración del teorema de incompletitud de Gödel se basa en la demostración de que, en aritmética formal,algunos conjuntos de enunciados prueban otros enunciados de forma lógica. Por ejemplo, se puede probar que launión de GN1, GN2 y GN3 (es decir GN4) prueban GN5. Como esta es una relación demostrable entre dos números,se le asigna su propio símbolo, por ejemplo R. Entonces se puede escribir R (v, x) para expresar que x demuestra v.En el caso anterior donde x y v son los números de Gödel GN4 y GN5, se podría escribir R(GN5, GN4).

Una demostración informalEl argumento central de la demostración hecha por Gödel se basa en que puede escribirse

x, ¬R (v, x)

que quiere decirninguna sentencia de tipo v se puede probar.

El número de Gödel para esta sentencia sería22 × 316 × 51 × 718 × 116 × 1313 × 1716 × 197

que se puede denominar GN6. Ahora, si se considera la sentenciax, ¬R(GN6,x),

que de hecho está diciendoninguna sentencia que afirme 'ninguna sentencia de tipo v se puede probar' puede probarse.

Que equivale aesta sentencia no se puede probar.

Si esta última sentencia se puede probar, entonces su sistema formal es inconsistente porque demuestra una sentenciaque ella misma afirma que no se puede demostrar (contradicción). Si la sentencia no se puede probar dentro delsistema formal, entonces lo que afirma la sentencia es cierto, y por tanto la sentencia es consistente, pero como elsistema contiene una afirmación que es semánticamente cierta pero que no se puede probar (sintácticamente),entonces el sistema es incompleto.

Referencias• Gödel, Kurt, "Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I",

Monatsheft für Math. und Physik 38, 1931, S.173-198.

Problema de la parada 101

Problema de la paradaEl problema de la parada o problema de la detención para Máquinas de Turing consiste en lo siguiente: dada unaMáquina de Turing y una palabra , determinar si terminará en un número finito de pasos cuando esejecutada usando como dato de entrada. Alan Turing, en su famoso artículo "On Computable Numbers, with anApplication to the Entscheidungsproblem" (1936), demostró que el problema de la parada de la Máquina de Turinges indecidible, en el sentido de que ninguna máquina de Turing lo puede resolver.

Relevancia en la prácticaAl ejecutar un programa, este puede terminar después de un número finito de pasos o puede nunca terminar. En lapráctica, este último caso se manifiesta como programas que se quedan "trabados" o que entran a un bucle infinito.Por esta razón sería de gran utilidad resolver la siguiente pregunta en la práctica:

Existe un programa P, tal que, dado un programa cualquiera q y unos datos de entrada x, muestre comosalida 1 si q con entrada x termina en un número finito de pasos o muestre como salida 0 si q con x entraa un bucle infinito.

Conocer si existe el programa P es, en términos resumidos, el problema de la parada.Sin embargo hay que hacer notar que la sabiduría popular acerca de este problema hace pensar que nunca es posibledemostrar que un programa termina. Esto es absolutamente falso, y procede de la negación errónea de un causal, y deotras falacias políticas intencionadas.Lo que se afirma es que no existe una manera automática computable de saber si todos los programas delmundo terminan. No se niega que exista la prueba para programas concretos. De hecho, la construcción depruebas para programas concretos es un paso obligatorio para demostrar su correctitud.El procedimiento para construir estas pruebas no es automático, sin embargo, existen heurísticas que facilitanencontrar las pruebas de los programas. El área de conocimiento que estudia la construcción sistemática de pruebasse denomina Análisis de Terminación.La evaluación o ejecución del programa con las entradas sin embargo no constituye una prueba de que siempretermine, sino de que en las circunstancias de la ejecución, terminó.

Irresolubilidad del problemaLa irresolubilidad del problema se puede mostrar de varias formas, pero en esencia todas equivalen a un argumentodiagonal de Cantor. A continuación se muestra el argumento en términos modernos de programación:Supongamos que este problema sí se puede resolver algoritmicamente; entonces hay un programa, que llamaremosTermina, que cada vez que se le suministra el código de un programa p y sus datos de entrada x, hace un númerofinito de operaciones y responde "True" cuando el programa termina o "False" cuando el programa nunca termina.En lenguaje Python:

def Termina(p, x):

#Supongamos que aquí se encuentra un código maravilloso que

soluciona el problema de la parada

#Esta función regresa True si p(x) termina o False en otro caso

Bajo la suposición de que existe este programa, se puede usar como subrutina de otro programa más grande, al que llamaremos "Diagonal" (en referencia a la diagonal de Cantor). Este programa recibirá como dato de entrada el código de un programa cualquiera w, y usará el programa Termina para decidir si el programa w termina cuando se le suministra ella misma como entrada (no hay nada de raro en esto, pues en la práctica hay programas como los

Problema de la parada 102

compiladores se pueden suministrarse a sí mismos como dato de entrada). A continuación, Diagonal hace loopuesto: Si w termina entonces Diagonal entra en un ciclo infinito y si w entra en un ciclo infinito entoncesDiagonal termina. En lenguaje Python:

def Diagonal(w):

if Termina(w, w):

while True: pass #Esta instrucción es un bucle infinito

Resumiendo, el programa Diagonal está diseñado para tener la siguiente propiedad (entiéndase la flecha como"siempre y cuando"):

Como w puede ser el código de cualquier programa, particularmente puede ser el del mismo Diagonal:

Diagonal("def Diagonal(w):\n if Termina(w, w):\n while True:

pass")

En este caso se tiene , y por lo tanto

Es decir que bajo la suposición de que existe el algoritmo Termina se llega a la paradójica conclusión de que hay unainstrucción que termina siempre y cuando no termine. Como esta conclusión es absurda, entonces no puede existir elalgoritmo Termina; es decir que es imposible resolver el problema de la parada algoritmicamente.

Demostración por construcción de máquinas de TuringEs más común encontrar en los libros de texto la demostración anterior en términos de máquinas de Turing comosigue:Supongamos que el problema de la parada tiene solución. Es decir, supongamos que existe una máquina de Turingque es capaz de determinar si otra máquina de Turing parará (terminará) con una entrada determinada. LlamemosTermina a esta máquina. Esta máquina recibiría como entrada la cadena , donde es la codificación de unamáquina de Turing y es la codificación de la cadena que se le alimenta a . La máquina terminaráen un estado de aceptación si para ante la entrada , y en otro caso terminará en un estado de rechazo, peronunca entrará en un ciclo infinito.

Es posible crear una máquina Copia que al recibir una cadena cualquiera termine en un estado de aceptación con en su cinta. Ahora crearemos una máquina Diagonal que recibe de entrada una cadena , que alegadamente

será la codificación de una máquina de Turing . Primero Diagonal utilizará la máquina Copia para duplicar la cadena , convirtiéndola en . A continuación, Diagonal pasará este resultado a través de Termina para decidir si la máquina representada por para ante la cadena y realiza lo opuesto: Si Termina acepta, entonces

Problema de la parada 103

Diagonal entra en un bucle infinito (que consiste de un solo estado al que se regresa una y otra vez) y en otro caso, siTermina rechaza entonces Diagonal termina en estado de aceptación.

Resumiendo, la máquina Diagonal está diseñada para tener la siguiente propiedad:Diagonal para ante la entrada la máquina codificada en no para ante la entrada .

Por último, tomaremos la codificación de la máquina Diagonal, y la aplicaremos como entrada a la propia máquinaDiagonal. Como es la codificación de Diagonal, de lo anterior se sigue que Diagonal para ante sí misma comoentrada si y solo si Diagonal no para ante sí misma como entrada. Esta conclusión es paradójica, pero todas lasmáquinas que hemos usado en la demostración, exceptuando Termina, son construibles; por lo tanto la clave de lademostración se encuentra, por reducción al absurdo, en la supuesta existencia de la máquina Termina. Al serimposible la existencia de tal máquina Termina, que resolvía el problema de la parada, el problema de la parada nopuede ser solucionado por ninguna máquina de Turing.

Referencias• Sipser, Michael [1] (2005). Introduction to the Theory of Computation (2 edición). Course Technology. ISBN

978-0534950972.• Kelley, Dean [2] (1995). Teoría de Autómatas y Lenguajes Formales. Prentice Hall. ISBN 0-13-497777-7.• George S. Boolos, John P. Burgess & Richard C. Jeffrey (2007). Computability and Logic. Cambridge University

Press. ISBN 978-0521701464.

Problema de la parada 104

Referencias[1] http:/ / www-math. mit. edu/ ~sipser/[2] http:/ / krypton. mnsu. edu/ ~kelled/

Lógica de primer ordenLa lógica de primer orden, también llamada lógica de predicados o cálculo de predicados, es un sistema formaldiseñado para estudiar la inferencia en los lenguajes de primer orden.[1] Los lenguajes de primer orden son, a su vez,lenguajes formales con cuantificadores que alcanzan sólo a variables de individuo, y con predicados y funcionescuyos argumentos son sólo constantes o variables de individuo.[2]

La lógica de primer orden tiene el poder expresivo suficiente para definir a prácticamente todas las matemáticas.

IntroducciónComo el desarrollo histórico y las aplicaciones de la lógica de primer orden están muy ligados a la matemática, en loque sigue se hará una introducción que contemple e ilustre esta relación, tomando ejemplos tanto de la matemáticacomo del lenguaje natural. Primero se introducen cada uno de los conceptos básicos del sistema, y luego se muestracómo utilizarlos para analizar argumentos.

Predicados

Un predicado es una expresión lingüística que puede conectarse con una o varias otras expresiones para formar unaoración.[3] Por ejemplo, en la oración «Marte es un planeta», la expresión «es un planeta» es un predicado que seconecta con la expresión «Marte» para formar una oración. Y en la oración «Júpiter es más grande que Marte», laexpresión «es más grande que» es un predicado que se conecta con dos expresiones, «Júpiter» y «Marte», para formaruna oración.Cuando un predicado se conecta con una expresión, se dice que expresa una propiedad (como la propiedad de ser unplaneta), y cuando se conecta con dos o más expresiones, se dice que expresa una relación (como la relación de sermás grande que). La lógica de primer orden no hace ningún supuesto, sin embargo, sobre si existen o no laspropiedades o las relaciones. Sólo se ocupa de estudiar el modo en que hablamos y razonamos con expresioneslingúisticas.En la lógica de primer orden, los predicados son tratados como funciones. Una función es, metafóricamentehablando, una máquina que recibe un conjunto de cosas, las procesa, y devuelve como resultado una única cosa. Alas cosas que entran a las funciones se las llama argumentos,[4] y a las cosas que salen, valores o imágenes.Considérese por ejemplo la siguiente función matemática:

f(x) = 2x

Esta función toma números como argumentos y devuelve más números como valores. Por ejemplo, si toma elnúmero 1, devuelve el número 2, y si toma el 5, devuelve el 10. En la lógica de primer orden, se propone tratar a lospredicados como funciones que no sólo toman números como argumentos, sino expresiones como «Marte»,«Mercurio» y otras que se verán más adelante. De este modo, la oración «Marte es un planeta» puede transcribirse,siguiendo la notación propia de las funciones, de la siguiente manera:

Planeta(Marte)O, más abreviadamente:

P(m)En la matemática existen además funciones que toman varios argumentos. Por ejemplo:

f(x,y) = x + y

Lógica de primer orden 105

Esta función, si toma los números 1 y 2, devuelve el número 3, y si toma el -5 y el -3, devuelve el -8. Siguiendo estaidea, la lógica de primer orden trata a los predicados que expresan relaciones, como funciones que toman dos o másargumentos. Por ejemplo, la oración «Caín mató a Abel» puede formalizarse así:

Mató(Caín,Abel)O abreviando:

M(c,a)Este procedimiento puede extenderse para tratar con predicados que expresan relaciones entre muchas entidades. Porejemplo, la oración «Ana está sentada entre Bruno y Carlos» puede formalizarse:

S(a,b,c)

Constantes de individuo

Una constante de individuo es una expresión lingüística que refiere a una entidad. Por ejemplo «Marte», «Júpiter»,«Caín» y «Abel» son constantes de individuo. También lo son las expresiones «1», «2», etc., que refieren a números.Una entidad no tiene que existir para que se pueda hablar acerca de ella, de modo que la lógica de primer ordentampoco hace supuestos acerca de la existencia o no de las entidades a las que refieren sus constantes de individuo.

Variables de individuo

Además de las constantes de individuo que hacen referencia a entidades determinadas, la lógica de primer ordencuenta con otras expresiones, las variables, cuya referencia no está determinada. Su función es similar a la de lasexpresiones del lenguaje natural como «él», «ella», «esto», «eso» y «aquello», cuyo referente varía con el contexto.Las variables generalmente se representan con letras minúsculas cerca del final del alfabeto latino, principalmente lax, y y z. Del mismo modo, en la matemática, la x en la función f(x) = 2x no representa ningún número en particular,sino que es algo así como un espacio vacío donde pueden insertarse distintos números. En conclusión, podemosrepresentar una expresión como «esto es antiguo» con la expresión:

Antiguo(x)O abreviadamente:

A(x)Es evidente, sin embargo, que hasta que no se determine a qué refiere la x, no es posible asignar un valor de verdad ala expresión «esto es antiguo», del mismo modo que hasta que no se determine un número para la x en la función f(x)= 2x, no será posible calcular ningún valor para la función.Por supuesto, al igual que con las constantes de individuo, las variables sirven también para formalizar relaciones.Por ejemplo, la oración «esto es más grande que aquello» se formaliza:

G(x,y)Y también pueden combinarse constantes de individuo con variables. Por ejemplo en la oración «ella está sentadaentre Bruno y Carlos»:

S(x,b,c)

Lógica de primer orden 106

Cuantificadores

Considérese ahora la siguiente expresión matemática:x > 3

Esta expresión no es ni verdadera ni falsa, y parece que no lo será hasta que no reemplacemos a la x por algúnnúmero cualquiera. Sin embargo, también es posible dar un valor de verdad a la expresión si se le antepone uncuantificador. Un cuantificador es una expresión que afirma que una condición se cumple para un cierto número deindividuos.[5] En la lógica clásica, los dos cuantificadores más estudiados son el cuantificador universal y elcuantificador existencial.[5] El primero afirma que una condición se cumple para todos los individuos de los que seestá hablando,[5] y el segundo que se cumple para al menos uno de los individuos.[5] Por ejemplo, la expresión "paratodo x" es un cuantificador universal, que antepuesto a "x < 3", produce:

Para todo x, x < 3Esta es una expresión con valor de verdad, en particular, una expresión falsa, pues existen muchos números (muchosx) que son mayores que tres. Anteponiendo en cambio la expresión "para al menos un x", un cuantificadorexistencial, se obtiene:

Para al menos un x, x < 3La cual resulta ser una expresión verdadera.Adviértase ahora, sin embargo, que el valor de verdad de las dos expresiones anteriores depende de qué números seesté hablando. Si cuando se afirma "para todo x, x < 3", se está hablando sólo de los números negativos, por ejemplo,entonces la afirmación es verdadera. Y si al afirmar "para al menos un x, x < 3" se está hablando solamente de losnúmeros 3, 4 y 5, entonces la afirmación es falsa. En lógica, a aquello de lo que se está hablando cuando se usa algúncuantificador, se lo llama el dominio de discurso.[6]

Esta maquinaria puede adaptarse fácilmente para formalizar oraciones con cuantificadores del lenguaje natural.Tómese por caso la afirmación "todos son amigables". Esta oración puede traducirse así:

Para todo x, x es amigable.Y una oración como "alguien está mintiendo" puede traducirse:

Para al menos un x, x esta mintiendo.También es frecuente traducir esta última oración así:

Existe al menos un x, tal que x está mintiendo.A continuación se formalizan ambas oraciones, introduciendo a la vez la notación especial para los cuantificadores:

Para todo x, x es amigable. ∀x A(x)

Existe al menos un x, tal que x está mintiendo. ∃x M(x)

Conectivas

La lógica de primer orden incorpora además las conectivas de la lógica proposicional. Combinando las conectivascon los predicados, constantes, variables y cuantificadores, es posible formalizar oraciones como las siguientes:

Lógica de primer orden 107

Oración Formalización

Sócrates es sabio y prudente. Ss ∧ Ps

Si Sócrates es sabio, entonces también es prudente. Ss → Ps

Nadie es sabio y además prudente. ¬∃x (Sx ∧ Px)

Todos los sabios son prudentes. ∀x (Sx → Px)

Argumentos

Considérese el siguiente argumento clásico:1.1. Todos los hombres son mortales.2.2. Sócrates es un hombre.3.3. Por lo tanto, Sócrates es mortal.La tarea de la lógica de primer orden consiste en determinar por qué los argumentos como éste resultan válidos. Paraeso, el primer paso es traducirlos a un lenguaje más preciso, que pueda ser analizado mediante métodos formales.Según lo visto más arriba, la formalización de este argumento es la siguiente:1. ∀x (Hx → Mx)2.2. Hs3. ∴ Ms

Sistema formalA continuación se define un lenguaje formal, Q, y luego se definen axiomas y reglas de inferencia sobre ese lenguajeque dan como resultado el sistema lógico SQ.

SintaxisEl alfabeto del lenguaje formal Q consta de los siguientes símbolos:

a   x   f   P   *   '   ¬   ∧   ∨   →   ↔   ∀   ∃   (   )A partir de estos símbolos, se definen las siguientes nociones:Un nombre (o constante de individuo) es una a seguida de una o más comillas. Por ejemplo, a', a'' y a'''''' sonnombres. Para facilitar la lectura, se suelen omitir las comillas y utilizar distintas letras cerca del comienzo delalfabeto latino, con o sin subíndices, para distinguir nombres distintos: a, b, c, d, e, a1, a3, c9, etc.Una variable (o variable de individuo) es una x seguida de una o más comillas. Por ejemplo, x', x'' y x'''''' sonvariables. Para facilitar la lectura, se suelen omitir las comillas y utilizar distintas letras cerca del final del alfabetolatino, con o sin subíndices, para distinguir variables distintas: x, y, z, x1, x3, z9, etc.Un functor es una f seguida de uno o más asteriscos, y luego de una o más comillas. Por ejemplo, f *', f **'''' yf ****'' son functores. El número de asteriscos indica la aridad del functor. Para facilitar la lectura, se suelen omitirlos asteriscos y las comillas y utilizar distintas letras del alfabeto latino cerca de la f, con o sin subíndices, paradistinguir functores distintos: f, g, h, f1, f3, h9, etc.Un predicado es una P seguida de uno o más asteriscos, y luego de una o más comillas. Por ejemplo, P *', P **'''' yP ****'' son predicados. El número de asteriscos indica la aridad del predicado. Para facilitar la lectura, se suelenomitir los asteriscos y las comillas y utilizar distintas letras en mayúscula a lo largo del alfabeto latino para distinguirpredicados distintos: P, A, B, C, S, T, etc.La noción de término se define recursivamente mediante las siguientes cláusulas:1.1. Todos los nombres son términos.

Lógica de primer orden 108

2.2. Todas las variables son términos.3. Si f es un functor de aridad n ≥ 1 y t1,...,tn son términos, entonces f(t1,...,tn) es un término.4.4. Nada más es un término.Según esta definición, las siguientes cadenas de caracteres son términos:

Cadena Simplificación     Posible interpretación

a' a Aristóteles

x''''' y

f *'''(a''') h(c) El hermano de Caín

f *''(f *''(f *''(a'))) f(f(f(b))) El padre del padre del padre de Beatriz

Y en cambio, las siguientes cadenas de caracteres no son términos:

Cadena Error

a Faltan comillas.

x*''' Sobra el asterisco.

f ' Faltan asteriscos y argumentos.

f ** Faltan comillas y argumentos.

f *'(f *') Falta el argumento del functor más anidado.

f *'(a',a'') El functor es de aridad 1 pero tiene dos argumentos.

La noción de fórmula bien formada de Q se define a través de las siguientes cláusulas:1. Si P es un predicado de aridad n ≥ 1 y t1,...,tn son términos, entonces P(t1,...,tn) es una fórmula bien formada.2.2. Si A es una fórmula bien formada, entonces ¬A también lo es.3. Si A y B son fórmulas bien formadas, entonces (A ∧ B), (A ∨ B), (A → B) y (A ↔ B) también lo son.4. Si A es una fórmula bien formada y x es una variable, entonces ∀x A y ∃x A son fórmulas bien formadas.5.5. Nada más es una fórmula bien formada.Según esta definición, las siguientes cadenas de caracteres son fórmulas bien formadas:

Cadena Simplificación     Posible interpretación

P *'(a') Pa Abel es pastor.

P **''''(a'',a''') Aae Abelardo ama a Eloísa.

¬P *'(f *'(a')) ¬P(h(a)) El hermano de Abel no es pastor.

(P *'''(a'') → ¬P *'''''(a'')) Pv → ¬Ev Si Venus es un planeta, entonces no es una estrella.

∀x'' P *'''(x'') ∀x Mx Todos son mentirosos.

∀x'' ∃x'''' P **'(x'',x'''') ∀x ∃y Axy Todos aman a alguien.

∃x'' ∀x'''' P **'(x'',x'''') ∃x ∀y Axy Alguien ama a todos.

Y en cambio, las siguientes cadenas de caracteres no son fórmulas bien formadas:

Lógica de primer orden 109

Cadena Error

P *' El predicado es de aridad 1 pero no tiene argumentos.

P ***'(a') El predicado es de aridad 3 pero tiene un sólo argumento.

P *'(a') → P *'(a''') Faltan los paréntesis externos.

(P *'(a')) Sobran los paréntesis externos.

∀a' P *'(a') El cuantificador está seguido de un nombre en vez de una variable.

Para ciertos predicados muy utilizados, la notación estándar puede tener la forma a R b en vez de R(a,b). Porejemplo, se escribe 2 > 1 en vez de >(2,1), y 4 = 4 en vez de =(4,4). Análogamente, si f es un functor de aridad 2, aveces se escribe a f b en vez de f(a,b). Por ejemplo, se escribe 1 + 2 en vez de +(1,2).

Observaciones

• El símbolo de identidad a veces se incluye entre los símbolos primitivos del alfabeto y se comportasintácticamente como un predicado binario. A una lógica de primer orden que incluye el símbolo de identidad sela llama, justamente, lógica de primer orden con identidad.

• Los nombres pueden ser definidos como functores de aridad 0, de modo que es posible omtir a la a de entre lossímbolos primitivos.

• En la definición anterior se requiere que los predicados tengan aridad mayor o igual que 1. Es posible permitirpredicados de aridad 0, considerándolos como variables proposicionales de la lógica proposicional.

• Es posible reducir el número de símbolos primitivos hasta quedarse con sólo nueve: x   f   P   *   '   ↓   ∀   (   )• Hay diferentes convenciones acerca de dónde poner los paréntesis. Por ejemplo, algunos escriben (∀x) en vez de

∀x. A veces se usan dos puntos (:) o un punto (.) en vez de paréntesis para desambiguar fórmulas. Una notacióninteresante pero poco usual es la notación polaca, donde se omiten todos los paréntesis y se escribe ∧, ∨, delantede los argumentos en vez de entre ellos. La notación polaca es compacta pero poco común por ser difícil para serleída por los humanos.

•• Una observación técnica es que si existe un símbolo de función de aridad 2 representando el par ordenado (osímbolo de predicado de aridad 2 representando la relación) no se necesitan funciones y predicados de aridadmayor que 2.

• Usualmente se considera que el conjunto de constantes, funciones y relaciones forman un lenguaje, mientras quelas variables, los operadores lógicos y cuantificadores se los considera pertenecientes a la lógica. Por ejemplo, ellenguaje de la teoría de grupos consiste de una constante (el elemento identidad), una función de aridad 1 (lainversa), una función de aridad 2 (el producto), y una relación de aridad 2 (la igualdad), omitida por los autoresque incluyen la igualdad en la lógica subyacente.

Substitución de variables libres

Las nociones de variable libre y variable ligada se introducen para evitar un posible error en el proceso desubstitución. Supongamos por un momento la fórmula . Intuitivamente, esta fórmula dice que para todox, x es menor o igual que y (es decir, que y es máximo). En esta fórmula, y es una variable libre, o sea que no estábajo el alcance de ningún cuantificador. Si substituimos y por cualquier otro término t, entonces la fórmula pasará adecir que t es máximo. Pero supongamos ahora que substituimos a y por x mismo (a fin de cuentas, x es un término).En ese caso, y pasa a estar ligada por un cuantificador universal, porque la nueva fórmula es: . Peroesta fórmula ya no dice de un término que es máximo, sino algo muy distinto. Para evitar este tipo de desplazamientode significado, convenimos que al substituir una variable libre por un término cualquiera, hay que evitar que lasvariables libres en el nuevo término queden ligadas por algún cuantificador. Es decir, que permanezcan libres.Dicho de una manera más general, si t es un término y es una fórmula que posiblemente contiene a x como una variable libre, entonces es el resultado de substituir todas las apariciones libres de x por t, suponiendo que

Lógica de primer orden 110

ninguna variable libre en t se vuelva ligada en este proceso. Si alguna variable libre de t se volviera ligada, entoncespara substituir t por x se necesita cambiar los nombres de las variables ligadas de por otros que no coincidan con lasvariables libres de t.

Identidad

Hay varias maneras diferentes de introducir la noción de identidad en la lógica de primer orden, pero todas conesencialmente las mismas consecuencias. Esta sección resume las principales:•• La manera más común de introducir a la identidad es incluyendo al símbolo entre los primitivos, y agregando

axiomas que definan el comportamiento del mismo. Estos son:

•• Otra manera es incluir al símbolo de identidad como una de las relaciones de la teoría y agregar los axiomas deidentidad a la teoría. En la práctica esta convención es casi indistinguible de la anterior, salvo en el caso inusualde las teorías sin noción de identidad. Los axiomas son los mismos. La única diferencia es que unos se llamanaxiomas lógicos y los otros axiomas de la teoría.

• En las teorías sin funciones y con un número finito de relaciones, es posible definir la identidad en términos de lasrelaciones. Esto se hace definiendo que dos términos a y b son iguales si y sólo si ninguna relación presentacambios reemplazando a por b en cualquier argumento. Por ejemplo, en teoría de conjuntos con una relación depertenencia (∈), definiríamos a = b como una abreviación para ∀x [(a ∈ x) ↔ (b ∈ x)] ∧ [(x ∈ a) ↔ (x ∈ b)]. Estadefinición de identidad automáticamente satisface los axiomas de identidad.

• En algunas teorías es posible dar definiciones ad hoc para la identidad. Por ejemplo, en una teoría de órdenesparciales con una relación de menor o igual (≤) podríamos definir a = b como una abreviación para (a ≤ b) ∧ (b ≤a).

Reglas de inferenciaLa lógica de primer orden tiene dos reglas de inferencia. La primera es el modus ponens, heredada de la lógicaproposicional. La segunda es la regla de Generalización universal, que es característica de la lógica de primer orden.La misma dice:

O en la notación del cálculo de secuentes:

Es decir: a partir de A es posible concluir que ∀x A.Nótese que la regla de generalización universal es análoga a la regla de Necesitación de la lógica modal.

Lógica de primer orden 111

AxiomasLos axiomas considerados aquí son los axiomas lógicos los cuales son parte del cálculo de predicados. Al formalizarteorías de primer orden particulares (como la aritmética de Peano) se agregan axiomas no-lógicos específicos, esdecir axiomas que no se consideran verdades de la lógica pero sí verdades de una teoría particular.Cuando el conjunto de axiomas es infinito, se requiere de un algoritmo que pueda decidir para una fórmula bienformada si es un axioma o no. Más aún, debería existir un algoritmo que pueda decidir si la aplicación de una reglade inferencia es correcta o no.Es importante notar que el cálculo de predicados puede ser axiomatizado de varias formas diferentes. No existe nadacanónico sobre los axiomas y reglas de inferencia aquí dadas, pero cualquier formalización produce los mismosteoremas de la lógica (y permite deducir los mismos teoremas de cualquier conjunto de axiomas no-lógicos).Los siguientes tres axiomas son heredados de la lógica proposicional y se incorporan a la lógica de primer orden.Sean A, B y C fórmulas bien formadas de Q. Luego, los siguientes son axiomas lógicos:

Ax1: A → (B → A)Ax2: (A → (B → C)) → ((A → B) → (A → C))Ax3: (¬A → ¬B) → (B → A)

Los dos axiomas siguientes son característicos de la lógica de primer orden. Sean A y B fórmulas bien formadas deQ con como máximo una variable libre, x. Sea t un término cerrado y A(x/t) el resultado de reemplazar toda apariciónde x en A por t. Luego, los siguientes son axiomas lógicos:

Ax4: ∀x A → A(x/t)Ax5: ∀x (A → B) → (∀x A → ∀x B)

Intuitivamente, el cuarto axioma dice que lo que vale para todos vale para cualquiera. Por ejemplo, un caso particulardel axioma podría ser: «Si todos son mortales, entonces Abel es mortal»; o también: «Si todos son mortales, entoncesel padre de Mateo es mortal» El quinto axioma es análogo al axioma K de la lógica modal, y un caso particular delmismo podría ser: «Si todos los humanos son mortales, entonces, si todos son humanos, todos son mortales.»

SemánticaUna interpretación es un par <D,I>, donde D es un conjunto no vacío llamado el dominio de discurso e I es unafunción llamada la función de interpretación definida como sigue:1. Si a es un nombre, entonces I le asigna un elemento del dominio.2. Si f es un functor de aridad n, entonces I le asigna una función de n argumentos que toma elementos del dominio

y devuelve elementos del dominio.3. Si P es un predicado de aridad n, entonces I le asigna un conjunto de n-tuplas construidas a partir del dominio.Luego es posible definir la noción de verdad para una interpretación (para las oraciones de Q):[7]

1. P(t1,...,tn) es verdadera para la interpretación M si y sólo si la n-tupla formada por las interpretaciones de t1,...,tnes un elemento de la interpretación de P.

2.2. ¬A es verdadera para la interpretación M si y sólo si A es falsa bajo esa interpretación.3. (A ∧ B) es verdadera para la interpretación M si y sólo si A es verdadera y B es verdadera bajo esa interpretación.4. (A ∨ B) es verdadera para la interpretación M si y sólo si A es verdadera o B es verdadera bajo esa interpretación.5. (A → B) es verdadera para la interpretación M si y sólo si A es falsa o B es verdadera bajo esa interpretación.6. (A ↔ B) es verdadera para la interpretación M si y sólo si A y B son ambas verdaderas o ambas falsas bajo esa

interpretación.Para dar las definiciones de verdad para fórmulas con la forma ∀x A o ∃x A, primero son necesarias algunas definiciones preliminares: Sea A(x/a) el resultado de reemplazar toda aparición de x en A por un nombre a (que no haya sido utilizado en la fórmula). Además, si M y M' son interpretaciones y a un nombre, entonces M' es una

Lógica de primer orden 112

a-variante de M si y sólo si M' es idéntica a M o difiere sólo en el elemento del dominio que le asigna al nombre a.[8]

1. ∀x A es verdadera para M si y sólo si A(x/a) es verdadera para toda a-variante de M.2. ∃x A es verdadera para M si y sólo si A(x/a) es verdadera para al menos una a-variante de M.Una fórmula es falsa bajo una interpretación si y sólo si no es verdadera bajo esa interpretación.A partir de esto pueden definirse varias otras nociones semánticas:• Una fórmula es una verdad lógica si y sólo si es verdadera para toda interpretación.• Una fórmula es una contradicción si y sólo si es falsa para toda interpretación.• Una fórmula es consistente si y sólo si existe al menos una interpretación que la haga verdadera.• Una fórmula A es una consecuencia semántica de un conjunto de fórmulas si y sólo si no hay ninguna

interpretación que haga verdaderas a todas las fórmulas en y falsa a A. Cuando A es una consecuenciasemántica de en un lenguaje Q, se escribe:

• Una fórmula A es lógicamente válida si y sólo si es una consecuencia semántica del conjunto vacío. Cuando A esuna fórmula lógicamente válida de un lenguaje Q, se escribe:

MetalógicaLa lógica de primer orden es uno de los sistemas lógicos con propiedades metalógicas mejor conocidas. Acontinuación se introducen algunas de las más importantes.

CompletitudEl teorema de completitud de Gödel, demostrado por Kurt Gödel en 1929, establece que existen sistemas de primerorden en los que todas las fórmulas lógicamente válidas son demostrables. Esto quiere decir que dado un lenguaje deprimer orden Q, es posible seleccionar algunas fórmulas como axiomas, y algunas reglas de inferencia, de modo talque todas las fórmulas lógicamente válidas (verdaderas bajo cualquier interpretación) sean demostrables a partir delos axiomas y las reglas de inferencia. Un ejemplo de axiomas y reglas de inferencia que permiten demostrarcompletitud son los que se dieron más arriba en este artículo.

DecidibilidadUn sistema es decidible cuando existe al menos un método efectivo (un algoritmo) para decidir si una fórmulacualquiera del lenguaje del sistema es lógicamente válida o no. Por ejemplo, en la lógica proposicional, la evaluaciónde las fórmulas mediante tablas de verdad es un método efectivo para decidir si una fórmula cualquiera eslógicamente válida (una tautología). En este sentido, la lógica de primer orden es indecidible, siempre y cuandotenga al menos un predicado de aridad 2 o más (distinto de la identidad). Este resultado fue alcanzado de maneraindependiente por Alonzo Church en 1936 y por Alan Turing en 1937, dando así una respuesta negativa alEntscheidungsproblem planteado por David Hilbert en 1928. Por otra parte, la lógica de primer orden monádica (cono sin identidad) es decidible, como lo demostró Leopold Löwenheim en 1915.

El teorema de Löwenheim-SkolemEl teorema de Löwenheim-Skolem establece que si una teoría de primer orden numerable tiene un modelo infinito,entonces para cualquier número cardinal K, la teoría tiene un modelo de cardinalidad K.En este contexto, una teoría de primer orden es simplemente un conjunto de fórmulas en un lenguaje de primer orden. Una teoría es numerable si sus fórmulas pueden ser puestas en correspondencia biunívoca con algún subconjunto (finito o infinito) de los números naturales. Y una teoría tiene un modelo infinto si tiene al menos una interpretación con un dominio infinito que hace verdaderas a todas las fórmulas de la teoría. Lo que el teorema de Löwenheim-Skolem afirma, entonces, es que si una teoría tiene una interpretación con un dominio infinito que hace verdaderas a todas las fórmulas de la teoría, entonces también tiene interpretaciones con dominios de cualquier

Lógica de primer orden 113

cardinalidad que hacen verdaderas a todas las fórmulas de la teoría.Esto significa que las lógicas de primer orden son incapaces de controlar la cardinalidad de sus modelos infinitos: siuna teoría tiene un modelo infinito, entonces también tiene modelos infinitos de todas las cardinalidades. Unaconsecuencia de esto es que por ejemplo, la aritmética de Peano, que es una teoría de primer orden, tendrá comomodelo no sólo al conjunto de los números naturales (que sería lo deseable), sino también al conjunto de los númerosreales e infinitos otros conjuntos de mayor cardinalidad.

El teorema de compacidadEl teorema de compacidad afirma que un conjunto de fórmulas de primer orden tiene un modelo si y sólo si todosubconjunto finito de ese conjunto tiene un modelo. Esto implica que si una fórmula es una consecuencia lógica deun conjunto infinito de axiomas, entonces es una consecuencia lógica de algún subconjunto finito de ellos.El teorema fue demostrado por primera vez por Kurt Gödel como una consecuencia del teorema de completitud, perocon el tiempo se han encontrado varias demostraciones adicionales. El teorema es una herramienta central en teoríade modelos, ya que provee un método fundamental para construir modelos.

El teorema de LindströmEl teorema de Lindström establece que la lógica de primer orden es el sistema lógico más fuerte que cumple con elteorema de compacidad y el teorema descendente de Löwenheim-Skolem. Esto significa que el cumplimiento deesos dos teoremas caracteriza a la lógica de primer orden. Fue demostrado por Per Lindström, quien también definióla clase de los sistemas lógicos abstractos, permitiendo así la comparación entre sistemas.

HistoriaDónde ubicar los orígenes de la lógica de primer orden depende de lo que se entienda por lógica de primer orden. Sise entiende cualquier sistema lógico en torno a la cuantificación sobre individuos, entonces la lógica de primer ordenes tan antigua como la lógica misma, y sus orígenes se remontan al Órganon de Aristóteles. Aristóteles realizó unagran cantidad de observaciones y contribuciones acerca del comportamiento de los cuantificadores «todos»,«algunos», «ningún», etc. Construyó, por ejemplo, el famoso cuadro de oposición de los juicios, y ofreció unainfluyente clasificación para los distintos juicios con cuantificadores.Sin embargo, si por lógica de primer orden se entiende un sistema lógico similar al expuesto en este artículo,entonces los orígenes de la lógica de primer orden deben buscarse recién en el siglo XIX, en la obra de GottlobFrege.[9] En 1879, Frege publicó su Conceptografía (Begriffsschrift), donde presentó el primer sistema de lógica depredicados tal como lo entendemos hoy (aunque con una notación muy diferente a la actual).[9] Luego lo refinaría enun trabajo de 1893 (y reeditado en 1903) titulado Los fundamentos de la aritmética (Grundgesetze der Arithmetik).[9]

Sin embargo, la notación de Frege era difícil de entender,[10] y sus revolucionarias contribuciones permanecierondesconocidas por varios años.[11]

Entre 1910 y 1913, Bertrand Russell y Alfred North Whitehead publicaron Principia Mathematica, una monumentalobra directamente influida por los trabajos de Frege.[12] Con ella la lógica de predicados en general, y la lógica deprimer orden en particular, cobraron una forma más familiar y alcanzaron una mayor audiencia.[12]

Luego de Principia Mathematica comenzó una fértil época de resultados metalógicos para la lógica de primer orden(y otras). En 1915, Leopold Löwenheim demostró la consistencia, completitud semántica y decidibilidad de la lógicade primer orden monádica. En 1928, David Hilbert y Wilhelm Ackermann demostraron la consistencia de la lógicade primer orden. En 1929, Kurt Gödel demostró la completitud semántica de la lógica de primer orden. Y en 1936,Alonzo Church y Alan Turing demostraron, de manera independiente, la indecibilidad de la lógica de primer orden(no monádica).

Lógica de primer orden 114

En 1933, Alfred Tarski abrió otro capítulo en la historia de la lógica de primer orden (y de la lógica en general), conla publicación de sus definiciones de verdad para lenguajes formales. Las mismas permitieron el surgimiento de lateoría de modelos. En su trabajo, Tarski ofreció una definición de verdad para el lenguaje de la lógica de primerorden (entre otros) que todavía se utiliza. Dicha definición permitió refinar las demostraciones de consistencia ycompletitud semántica para la lógica de primer orden.En 1934-1935, Gerhard Gentzen publicó Investigaciones sobre la inferencia lógica (Untersuchungen über daslogische Schliessen), donde introdujo una alternativa a la construcción axiomática de los sistemas lógicos(incluyendo la lógica de primer orden), conocida como la deducción natural.[13] Gentzen pronto desarrollaría ladeducción natural hasta llegar al cálculo de secuentes, y con la demostración del teorema de corte-eliminación(cut-elimination theorem), proveyó una nueva aproximación a la teoría de la demostración.[13]

Notas y referencias[1] Simon Blackburn, ed., « first-order logic (http:/ / www. oxfordreference. com/ views/ ENTRY. html?subview=Main& entry=t98. e1263)»,

The Oxford Dictionary of Philosophy, Oxford University Press, , consultado el 10 de septiembre de 2009.[2] Simon Blackburn, ed., « first-order language (http:/ / www. oxfordreference. com/ views/ ENTRY. html?subview=Main& entry=t98.

e1262)», The Oxford Dictionary of Philosophy, Oxford University Press, , consultado el 10 de septiembre de 2009.[3] Simon Blackburn, ed., « predicate (http:/ / www. oxfordreference. com/ views/ ENTRY. html?subview=Main& entry=t98. e2476)», The

Oxford Dictionary of Philosophy, Oxford University Press, , consultado el 10 de septiembre de 2009.[4] No deben confundirse con los argumentos que estudia la lógica.[5] Simon Blackburn, ed., « quantifier (http:/ / www. oxfordreference. com/ views/ ENTRY. html?subview=Main& entry=t98. e2602)», The

Oxford Dictionary of Philosophy, Oxford University Press, , consultado el 10 de septiembre del 2009.[6] Kirwan, Christopher, « domain (http:/ / www. oxfordreference. com/ views/ ENTRY. html?subview=Main& entry=t116. e664)», The Oxford

Companion to Philosophy, Oxford University Press, , consultado el 10 de septiembre del 2009.[7] Esta definición de verdad sólo sirve para las fórmulas bien formadas cerradas (oraciones) de Q. Es posible dar una definición para todas las

fórmulas bien formadas, pero dicha definición involucra muchas complicaciones que no convienen a este artículo. Para la definición másgeneral, véase Hunter, Geoffrey (1971). «Sección 39». Metalogic: An Introduction to the Metatheory of Standard First-Order Logic.University of California Press.

[8] Esta estrategia está tomada de Mates, Benson (1972). Elementary logic. Nueva York: Oxford University Press.[9] Zalta, Edward N., « Gottlob Frege (http:/ / plato. stanford. edu/ archives/ sum2009/ entries/ frege/ )», en Edward N. Zalta (en inglés), Stanford

Encyclopedia of Philosophy (Summer 2009 Edition), .[10] Klement, Kevin C., « Gottlob Frege (http:/ / www. iep. utm. edu/ frege/ )» (en inglés), Internet Encyclopedia of Philosophy, , consultado el

10 de septiembre de 2010, «[Begriffsschrift] was not well-reviewed by Frege’s contemporaries, who apparently found its two-dimensionallogical notation difficult to comprehend [...].».

[11] Klement, Kevin C., « Gottlob Frege (http:/ / www. iep. utm. edu/ frege/ )» (en inglés), Internet Encyclopedia of Philosophy, , consultado el10 de septiembre de 2010, «At the time of his death, Frege’s own works were still not very widely known.».

[12] Irvine, A. D., « Principia Mathematica (http:/ / plato. stanford. edu/ archives/ sum2010/ entries/ principia-mathematica/ )», en Edward N.Zalta (en inglés), Stanford Encyclopedia of Philosophy (Summer 2010 Edition), .

[13] Véase la sección «Natural deduction and sequent calculus» en von Plato, Jan, « The Development of Proof Theory (http:/ / plato. stanford.edu/ archives/ fall2008/ entries/ proof-theory-development/ )», en Edward N. Zalta (en inglés), Stanford Encyclopedia of Philosophy (Fall2008 Edition), .

Aritmética no estándar 115

Aritmética no estándarEn lógica matemática, un modelo no estándar de la aritmética es un modelo para la aritmética de Peano (de primerorden) que contiene números no estándar. El modelo estándar de la aritmética es el compuesto por los númerosnaturales {0,1,2,...}, una sucesión infinita y numerable ordenada linealmente. Un modelo no estándar contieneelementos adicionales fuera de esta sucesión. La existencia de modelos no estándar para la aritmética fue demostradopor Thoralf Skolem en 1934.

Existencia

Teorema de compacidadEl teorema de compacidad establece que una teoría axiomática posee un modelo si y sólo si cada subcolección finitade sus axiomas posee un modelo a su vez. Partiendo de la aritmética de Peano (o una teoría que la contenga), puedeañadirse entonces una nueva constante μ y una serie infinita de axiomas dada por:

donde Nat μ es la fórmula que afirma que μ es un número natural. El modelo en el que μ se interpreta como n+1satisface todos los axiomas de la serie hasta μ≠n, y esto basta para demostrar que todo subconjunto finito de estosaxiomas tiene un modelo (suponiendo que la aritmética de Peano es consistente).Por lo tanto, por el teorema de compacidad, dicha teoría aritmética modificada posee un modelo y es consistente, yeste modelo es también un modelo de la aritmética de Peano; en el cual sin embargo existe un elemento distinto de 0,de 1, de 2,etc.

Teorema de incompletitudTambién mediante el teorema de incompletitud puede demostrarse la existencia de modelos no estándar. El teoremade incompletitud afirma que existe una sentencia G que no puede ser probada ni refutada en la aritmética de Peano.Por el teorema de completitud semática, existe algún modelo en el cual G es falsa. Sin embargo, en el modeloestándar de la aritmética G es verdadera, luego cualquier modelo en el que sea falsa ha de ser no estándar.

EstructuraPuede demostrarse que en cualquier modelo no estándar numerable, la estructura del orden de los números essiempre la misma: una sucesión infinita inicial -asimilable a los números estándar- seguida de un conjunto decadenas de números no estándar, cada una de ellas sin mínimo ni máximo, donde el conjunto de estas cadenas a suvez no tiene cotas inferior ni superior y es denso. En otras palabras:

El orden de un modelo no estándar de la aritmética es isomorfo al de ω+ζ·η, donde ω es el primer ordinal infinito, ζ representa el orden delos números enteros y η el de los números racionales.

Sin embargo, en el caso de las operaciones de suma y multiplicación no existe una representación sencilla. Puedeprobarse que en ningún modelo numerable no estándar de la aritmética dichas operaciones son computables.

Aritmética no estándar 116

Referencias• Boolos, George; Burgess, John; Jeffrey, Richard (2002). Computability and Logic. Cambridge University Press.

ISBN 978-0-521-00758-0.• Ivorra, Carlos, Lógica y teoría de conjuntos [1], consultado el 4-1-2011.• Este artículo fue creado a partir de la traducción del artículo Non-standard model of arithmetic de la Wikipedia

en inglés, bajo la licencia Creative Commons Atribución Compartir Igual 3.0 Unported y la licencia dedocumentación libre de GNU.

Referencias[1] http:/ / www. uv. es/ ivorra/ Libros/ Logica. pdf

Teorema de compacidadEn lógica matemática, el teorema de compacidad establece que un conjunto (posiblemente infinito) de fórmulasbien formadas de la lógica de primer orden tiene un modelo si todos sus subconjuntos finitos tienen un modelo. Esdecir, para todo conjunto de fórmulas de un lenguaje L, si todo subconjunto finito de es satisfacible, entonces

es satisfacible.

Enunciado del teoremaSi es un conjunto de enunciados finitamente satisfacible, entonces tiene un modelo de cardinal menor o igualque .Una formulación alternativa es: los distintos lenguajes lógicos permiten relaciones de consecuencia lógica entreconjuntos infinitos de oraciones. Una relación de consecuencia lógica es compacta justo cuando es unaconsecuencia lógica de un conjunto de enunciados , sólo si es una consecuencia lógica de un subconjuntofinito de :Si entonces hay un subconjunto finito tal que La relación de consecuencia lógica para lenguajes de primer orden es compacta.El teorema de compacidad para el cálculo proposicional es un resultado del teorema de Tychonoff (el cual dice queel producto de espacios compactos es compacto) aplicado a espacios de Stone compactos; de ahí el nombre delteorema. Juega un papel importante en la demostración del Teorema de Löwenheim-Skolem ascendente.Hay una generalización de compacidad para lenguajes de orden más alto que los lenguajes de primer orden.

Teorema de Tychonoff 117

Teorema de TychonoffEn topología, el teorema de Tychonoff establece que el producto de cualquier colección de espacios topológicoscompactos es compacto.El teorema se nombró así por Andrey Nikolayevich Tychonoff, quien lo probó por primera vez en 1930 parapotencias del intervalo unitario cerrado y lo generalizó en 1935 resaltando que la prueba era la misma que para elcaso especial. La prueba más reciente que se publicó está contenida en un artículo de 1937 de Eduard Čech.Varios textos identifican el teorema de Tychonoff como el resultado más importante en topología general [Willard,p. 120]; otros también incluyen el teorema de Urysohn.

DefiniciónEl teorema depende crucialmente de las definiciones precisas de compacidad y de la topología producto; de hecho, elartículo de Tychonoff de 1935 define la topología producto por primera vez.De hecho, la definición de Heine-Borel de compacidad —que cada cubierta de un espacio por conjuntos abiertosadmite una subcubierta finita— es relativamente reciente. Más popular en los siglos XIX y principios del XX fue elcriterio de Bolzano-Weierstrass de que cada sucesión admite una subsucesión convergente, ahora llamadocompacidad secuencial. Estas condiciones son equivalentes para espacios metrizables, pero ninguna implica la otrasobre la clase de todos los espacios topológicos.Es casi trivial probar que el producto de dos espacios compactos secuenciales compacto secuencialmente —uno pasaa una subsucesión para el primer componente y entonces a una subsucesión para el segundo componente. Unargumento más elaborado de diagonalización establece la compacidad secuencial de un producto contable deespacios compactos secuenciales. Sin embargo, el producto de un número no contable de copias del intervalounitario cerrado falla en ser compacto secuencialmente.Esta es una falla crítica: si X es un espacio completamente regular de Hausdorff, existe un embebimiento naturaldesde X hacia [0,1]. La compacidad de [0,1]C(X,[0,1]) muestra que cada espacio regular completamente de Hausdorffse embebe en un espacio espacio compacto de Hausdorff (o puede ser "compactificado".) Esta construcción no esotra que la compactificación de Stone–Čech. Inversamente, todos los subespacios de espacios compactos deHausdorff son regulares completamente de Hausdorff, así que esto caracteriza los espacios regulares completamentede Hausdorff como aquellos que pueden ser compactificados. Tales espacios son llamados ahora espacios deTychonoff.

AplicacionesEl teorema de Tychonoff también se usa en la prueba del teorema de Banach-Alaoglu y en el teorema deArzelá-Ascoli. Como una regla inquebrantable, cualquier clase de construcción que toma como entrada un objetogeneral (del tipo algebraico o topológico-algebraico) y sale un espacio compacto es posible que use a Tychonoff: esdecir, el espacio de Gelfand, el espacio de Stone, el espectro de Berkovich.

Pruebas del teorema de Tychonoff1) En la prueba de Tychonoff de 1930 se usó el concepto de punto de acumulación.2) El teorema es un corolario del teorema de subbase de Alexander.Pruebas más modernas han sido motivadas por las siguientes consideraciones: la aproximación a la compacidad pormedio de la convergencia de subsucesiones nos lleva a una prueba simple y transparente en el caso de conjuntos deíndices contables. Sin embargo, la aproximación a la convergencia en un espacio topológico usando sucesiones essuficiente cuando el espacio satisface el primer axioma de numerabilidad (como lo hacen los espacios metrizables),

Teorema de Tychonoff 118

pero generalmente no de otra forma. Pero el producto de varios espacios metrizables no contables, cada cual almenos con dos puntos, falla al ser primero contable. Así que es natural esparar que una noción de convergencia enespacios arbitrarios nos lleve a un criterio de compacidad generalizando compacidades secuenciales en espaciosmetrizables que sea fácil de de aplicar para deducir la compacidad de productos. Este ha resultado ser el caso.3) La teoría de convergencia por medio de filtros, debida a Henri Cartan y desarrollada por Bourbaki en 1937, llevaal siguiente criterio: asumiendo el lema de ultrafiltro, un espacio es compacto si y solo si cada ultrafiltro sobre elespacio converge. Con esto en mente, la prueba es sencilla: la (el filtro generado por) imagen de un ultrafiltro sobreel espacio producto bajo cualquier mapa de proyección en el espacio factor, el cual converge, hacia al menos una x_i.Uno muestra entonces que el ultrafiltro original converge hacia x= (x_i).Munkres da en su libro de texto una versión de la prueba de Cartan-Bourbaki que no usa explícitamente lenguaje defiltros.4) Similarmente, la teoría de Moore-Smith de la convergencia por medio de redes, como suplemento de la noción deKelley de una red universal, lleva al criterio de que un espacio es compacto si y solo si cada red universal sobre elespacio converge.5) Una prueba usando redes pero no redes universales fue dada en 1992 por Paul Chernoff.

El teorema de Tychonoff y los axiomas de elecciónTodas las pruebas de arriba usan el axioma de elección (AE) en alguna forma. Por ejemplo, la segunda prueba diceque cada filtro está contenido en un ultrafiltro (es decir, filtro maximal), y esto se ve al invocar el lema de Zorn. Estelema también se usa para probar el teorema de Kelley, de que cada red tiene una subred universal. De hecho estosusos de AE son esenciales: en 1950 Kelley probó que el teorema de Tychonoff implica el axioma de elección. Noteque una formulación de AE es que el producto cartesiano de una familia no vacía de conjuntos es no vacía; pero yaque el conjunto vacío es ciertamente compacto, la prueba no puede proceder en esa línea directa. De esta forma elteorema de Tychonoff une varios teoremas básicos siendo equivalente a AE.Por otra parte, que cada filtro está contenido en un ultrafiltro no implica AE. No es difícil ver que esto es equivalenteal teorema Booleano del primo ideal, un punto intermedio entre los axiomas de Zermelo-Fraenkel de la teoría deconjuntos y la teoría de Zermelo-Fraenkel aumentada por el axioma de elección (ZFE). Un primer vistazo a lasegunda prueba de Tychnoff puede sugerir que la prueba no usa mas que el teorema Booleano, en contradicción conlo de arriba. Sin embargo, los espacios en los cuales cada filtro convergente tiene un límite único son precisamentelos espacios de Hausdorff. En general debemos elegir, para cada elemento del conjunto de índices, un elemento delconjunto no vacío de límites de la base proyectada de ultrafiltros, y por supuesto se usa AE. También se muestra quela compacidad del producto de espacios compactos de Hausdorff puede probarse usando el teorema Boleano, y elinverso también se cumple. Estudiando la fuerza del teorema de Tychonoff para varias clases restringidas deespacios es un área activa en la topología de conjuntos.El análogo del teorema de Tychonoff en topología sin puntos no requiere ninguna forma del axioma de elección.

Teorema de Tychonoff 119

Referencias• Chernoff, Paul N, A simple proof of Tychonoff's theorem via nets, American Mathematical Monthly 99, 932–934,

1992.• Johnstone, Peter T., Stone spaces, Cambridge studies in advanced mathematics 3, Cambridge University Press,

1982.• Johnstone, Peter T., Tychonoff's theorem without the axiom of choice, Fundamenta Mathematica 113, 21–35,

1981.• Kelley, John L., Convergence in topology, Duke Mathematics Journal 17, 277–283, 1950.• Kelley, John L., The Tychonoff product theorem implies the axiom of choice, Fundamenta Mathematica 37,

75–76, 1950.• Munkres, James, Topology, 2nd edition, Prentice Hall, 2000.• Tychonoff, Andrey N., Über die topologische Erweiterung von Räumen. Mathematische Annalen 102, 544–561,

1930.• Willard, Stephen, General Topology, Dover Publications, 2004.

Andrey Nikolayevich Tychonoff

Andrey Tychonoff

Nacimiento 30 de octubre de 1906Gagarin (Rusia), Imperio Ruso

Fallecimiento 8 de noviembre de 1993Moscú, Rusia

Nacionalidad

Campo matemáticas

Instituciones Universidad Estatal de Moscú

Alma máter Universidad Estatal de Moscú

Supervisor doctoral Pavel Alexandrov

Estudiantesdestacados

Alexander Samarsky

Conocido por contribuciones importantes a la topología, el análisis funcional, la física matemática, ill-posed problems; los espacios deTychonoff, el teorema de Tychonoff, la regularización de Tychonoff.

Andrey Nikolayevich Tychonoff (en ruso: Андре́й Никола́евич Ти́хонов; 30 de octubre de 1906, Gagarin (Rusia)– 8 de noviembre de 1993, Moscú) fue un matemático soviético y ruso conocido por sus contribuciones en topología,análisis funcional, física matemática y ill-posed problems.

Andrey Nikolayevich Tychonoff 120

BiografíaEstudió en la Universidad Estatal de Moscú donde recibió su doctorado en 1927 bajo la dirección de PávelAleksándrov. En 1933 obtuvo plaza de profesor en la Universidad Estatal de Moscú. Fue hecho miembrocorrespondiente de la Academia de Ciencias de la URSS en enero de 1939 y académico de pleno derecho en 1966.

Trabajo de investigaciónTrabajó en varios campos. Realizó contribuciones importantes en topología, análisis funcional, física matemática yill-posed problems. El método de la regularización de Tikhonov, uno de los métodos más usados para resolverproblemas inverso recibe su nombre. Es conocido principalmente por su trabajo en topología, incluyendo el Teoremade metrización que probó en 1926 y el teorema de Tychonoff. En su honor, los espacios topológicos completamenteregulares se llaman espacios de Tychonoff.En física matemática, probó el teorema fundamental de unicidad de la ecuación del calor[1] y estudió las ecuacionesintegrales de Volterra.Fundó la teoría del análisis asintótico de ecuaciones diferenciales con pequeños parámetros en la derivadaprincipal.[2]

Trabajo como gestorTychonoff lideró la fundación de la Faculty of Computational Mathematics and Cybernetics en Universidad Estatalde Moscú y fue su primer decano entre 1970 y 1990.

Placa en honor de Tikhonov en la Universidad Estatal de Moscú, enel edificio donde está situada la Facultad de cibernética y

matemáticas computacionales

Premios

Tychonoff recibió numerosos premios, incluido elPremio Lenin (1966). Fue declarado Héroe del TrabajoSocialista (1954, 1986).

Publicaciones

• A.G. Sveshnikov, A.N. Tikhonov, The Theory ofFunctions of a Complex Variable, Mir Publishers,English translation, 1978.

• A.N. Tikhonov, V.Y. Arsenin, Solutions of Ill-PosedProblems, Winston, New York, 1977. ISBN0-470-99124-0.

• A.N. Tikhonov, A.V. Goncharsky, Ill-posedProblems in the Natural Sciences, OxfordUniversity Press, Oxford, 1987. ISBN 0-8285-3739-9.

• A.N. Tikhonov, A.A. Samarskii, Equations of Mathematical Physics, Dover Publications, 1990. ISBN0-486-66422-8.

• A.N. Tikhonov, A.V. Goncharsky, V.V. Stepanov, A.G. Yagoda, Numerical Methods for the Solution of Ill-PosedProblems, Kluwer, Dordrecht, 1995. ISBN 0-7923-3583-X.

Andrey Nikolayevich Tychonoff 121

Referencias[1] A. Tychonoff (1935). « Théorèmes d'unicité pour l'équation de la chaleur (http:/ / mi. mathnet. ru/ eng/ msb6410)». Mathematical Sbornik 42

(2):  pp. 199–216. .[2] A. N. Tikhonov (1952). « Systems of Differential Equations Containing Small Parameters in the Derivatives (http:/ / mi. mathnet. ru/ eng/

msb5548)». Mathematical Sbornik 31(73):3:  pp. 575–586. .

Enlaces externos• O'Connor, John J.; Robertson, Edmund F., « Biografía de Andrey Nikolayevich Tychonoff (http:/ / www-history.

mcs. st-andrews. ac. uk/ Biographies/ Tikhonov. html)» (en inglés), MacTutor History of Mathematics archive,Universidad de Saint Andrews.

Ecuación integral de VolterraEn matemáticas, las ecuaciones integrales de Volterra son un tipo de ecuaciones integrales especiales. Estándivididas en dos grupos: de primer y segundo tipo.Una ecuación de Volterra lineal de primer tipo es:

Una ecuación de Volterra lineal de segundo tipo es:

En teoría de operaciones, y en la teoría de Fredholm, las ecuaciones correspondientes son denominadas operadoresde Volterra.Una ecuación integral de Volterra lineal es una ecuación de convoluciones si:

La función en la integral es a menudo llamada kernel. Tales ecuaciones pueden ser analizadas y resueltas por losmétodos de la transformada de Laplace.Las ecuaciones integrales de Volterra fueron presentadas por Vito Volterra y luego estudiadas por Traian Lalescu ensu tesis de 1908, Sur les équations de Volterra, escritas bajo la dirección de Émile Picard. En 1911, Lalescu escribióel primer libro de ecuaciones integrales de la historia.Las ecuaciones integrales de Volterra encuentran aplicación en demografía, el estudio de los materialesviscoelásticos y en matemáticas de seguros a través de la ecuación de renovación.

Transformada de Laplace 122

Transformada de LaplaceLa transformada de Laplace de una función f(t) definida (en ecuaciones diferenciales, o en análisis matemático oen análisis funcional) para todos los números positivos t ≥ 0, es la función F(s), definida por:

siempre y cuando la integral esté definida. Cuando f(t) no es una función, sino una distribución con una singularidaden 0, la definición es

Cuando se habla de la transformada de Laplace, generalmente se refiere a la versión unilateral. También existe latransformada de Laplace bilateral, que se define como sigue:

La transformada de Laplace F(s) típicamente existe para todos los números reales s > a, donde a es una constanteque depende del comportamiento de crecimiento de f(t).

es llamado el operador de la transformada de Laplace.

Perspectiva históricaLa transformada de Laplace recibe su nombre en honor del matemático francés Pierre-Simon Laplace, que lapresentó dentro de su teoría de la probabilidad. En 1744, Leonhard Euler había investigado un conjunto de integralesde la forma:

— como soluciones de ecuaciones diferenciales, pero no profundizó en ellas y pronto abandonó su investigación.Joseph Louis Lagrange, admirador de Euler, también investigó ese tipo de integrales, y las ligó a la teoría de laprobabilidad en un trabajo sobre funciones de densidad de probabilidad de la forma:

— que algunos historiadores interpretan como auténticas transformadas de Laplace.Este tipo de integrales atrajeron la atención de Laplace cuando, en 1782, y siguiendo la idea de Euler, trató deemplear estas integrales como soluciones de ecuaciones diferenciales. Parece ser que en 1785 dio un paso más allá, yreenfocó el problema para en vez de usar las integrales como soluciones, aplicarlas a las ecuaciones dando lugar a lastransformadas de Laplace tal y como hoy en día se entienden. Usó una integral de la forma:

— análoga a la transformada de Mellin, con la que transformó una ecuación diferencial en una ecuación algebraicade la que buscó su solución. Planteó alguna de las principales propiedades de su transformada, y de alguna formareconoció que el método de Joseph Fourier para resolver por medio de series de Fourier la ecuación de difusiónpodría relacionarse con su transformada integral para un espacio finito con soluciones periódicas.Pese al logro, las transformadas de Laplace pronto cayeron en un relativo olvido, al haber sido presentadas en elcampo de la probabilidad –ajeno a su moderna aplicación en la física y la ingeniería–, y ser tratadas sobre todo comoobjetos matemáticos meramente teóricos.

Transformada de Laplace 123

La moderna aplicación de las transformadas de Laplace y toda su teoría subyaciente surge en realidad en la segundamitad del siglo XIX. Al tratar de resolver ecuaciones diferenciales relacionadas con la teoría de vibraciones, elingeniero inglés Oliver Heaviside (1850-1925) descubrió que los operadores diferenciales podían tratarseanalíticamente como variables algebraicas. De acuerdo con el "cálculo operacional", si se tiene una ecuacióndiferencial de la forma:

— donde D es el operador diferencial, esto es, , entonces la solución general a dicha ecuación es de laforma:

.

Heaviside observó que si se trataba al operador D como una variable algebraica, era posible alcanzar igualmente lasolución de toda ecuación pareja a la de arriba. En efecto, según la solución general, se cumple que:

Entonces, si se considera una ecuación diferencial de segundo orden como la siguiente:

— ésta puede reescribirse en para resaltar el operador D como:

Heaviside propuso despejar y y tratar a D algebraicamente, en cuyo caso se tendría que:

Sustituyendo las fracciones en D por la expresión integral de las mismas arriba presentada, se llega a la solución dela ecuación diferencial:

Heaviside publicó sus resultados, cuya utilidad a la hora de resolver ecuaciones de la física y la ingeniería hizo quepronto se extendieran. Sin embargo, el trabajo de Heaviside, formal y poco riguroso, atrajo las críticas de algunosmatemáticos puristas que los rechazaron argumentando que los resultados de Heaviside no podían surgir de talforma. No obstante, el éxito del método hizo que pronto fuera adoptado por ingenieros y físicos de todo el mundo, demanera que al final atrajo la atención de cierto número de matemáticos tratando de justificar el método de manerarigurosa. Tras varias décadas de intentos, se descubrió que la Transformada descubierta por Laplace hacía un siglono sólo ofrecía un fundamento teórico al método de cálculo operacional de Heaviside, sino que además ofrecía unaalternativa mucho más sistemática a tales métodos.Hacia principios del siglo XX, la transformada de Laplace se convirtió en una herramienta común de la teoría devibraciones y de la teoría de circuitos, dos de los campos donde ha sido aplicada con más éxito. En general, latransformada es adecuada para resolver sistemas de ecuaciones diferenciales lineales con condiciones iniciales en elorigen. Una de sus ventajas más significativas radica en que la integración y derivación se convierten enmultiplicación y división. Esto transforma las ecuaciones diferenciales e integrales en ecuaciones polinómicas,mucho más fáciles de resolver.También se aplica en EDP y ecuaciones diferenciales en diferencias.

Transformada de Laplace 124

Propiedades

Linealidad

Derivación

=

=

Integración

Dualidad

Desplazamiento de la frecuencia

Desplazamiento temporal

Nota: es la función escalón unitario.

Desplazamiento potencia n-ésima

Convolución

Transformada de Laplace de una función con periodo p

Condiciones de convergencia

(que crece más rápido que ) no pueden ser obtenidas por Laplace, ya que , es unafunción de orden exponencial de ángulos.

Transformada de Laplace 125

Teorema del valor inicial

Sea una función derivable a trozos y que Entonces :

es el conjunto de funciones continuas a trozos con orden exponencial.

Teorema del valor final

Sea una función derivable a trozos tal que .Entonces :

es el conjunto de funciones continuas a trozos con orden exponencial.

Tabla de las transformadas de Laplace más comunesLa siguiente tabla provee la mayoría de las transformaciones de Laplace para funciones de una sola variable.Debido a que la transformada de Laplace es un operador lineal, la transformada de Laplace de una suma es la sumade la transformada de Laplace de cada término.

Aquí está una lista de las transformadas más comunes. En ella denota a la llamada función de Heaviside o funciónescalón, que vale 1 cuando su argumento es positivo y 0 cuando su argumento es negativo. Cuando su argumentovale 0 se le suele asignar el valor 1/2, aunque esto no tiene relevancia práctica.

ID Función Dominio en el tiempo Dominio en la frecuencia Región de laconvergencia

para sistemas causales

1 retaso ideal

1a impulso unitario

2 enésima potencia retrasada ycon

desplazamiento en lafrecuencia

2a n-ésima potencia

2a.1 q-ésima potencia

2a.2 escalón unitario

2b escalón unitario con retraso

2c Rampa

2d potencia n-ésima con cambiode frecuencia

2d.1 amortiguación exponencial

3 convergencia exponencial

Transformada de Laplace 126

3b exponencial doble

4 seno

5 coseno

5b Seno con fase

6 seno hiperbólico

7 coseno hiperbólico

8 onda senoidal conamortiguamiento exponencial

9 onda cosenoidal conamortiguamiento exponencial

10 raíz n-ésima

11 logaritmo natural

12 Función de Besselde primer tipo,

de orden n

13 Función de Bessel modificadade primer tipo,

de orden n

14 Función de Besselde segundo tipo,

de orden 0

15 Función de Bessel modificadade segundo tipo,

de orden 0

16 Función de error

Notas explicativas:

• representa la función escalónunitario.

• representa la Delta de Dirac.• representa la función gamma.• es la constante de Euler-Mascheroni.

• , un número real, típicamente representa tiempo, aunque puede representar cualquier variableindependiente.

• es la frecuencia angular compleja.• , , , y son números reales.• es un número entero.

sistema causal es un sistema donde la respuesta al impulso h(t) es cero para todo tiempo t anterior a t = 0. En general, el ROC para sistemas causalesno es el mismo que el ROC para sistemas anticausales. Véase también causalidad.

Transformada de Laplace 127

Relación con otras transformadasLa transformada de Laplace está estrechamente relacionada con la Transformada de Fourier y la Transformada Z(véase por ejemplo: Relación de la transformada Z con la transformada de Laplace).

Bibliografía de consulta• Spiegel, Murray R. : Transformadas de Laplace (1991) Mc Graw Hill / Interamericana de México, México D.F.-

Enlaces externos• C. Fernández, Transformada de Laplace y Ecuaciones de Volterra, Licenciatura en Educación Matemática y

Computación, USACH, 2006. [1]

• C. Gabriel Alberto Ventura García, Demostración matemática de la Transformada de Laplace,IngenieríaMecánica Eléctrica, FIME XALAPA, 2010. [2]

• La transformada de Laplace [3] Richard Baraniuk• Ejercicios y problemas resuelto de la transformada de Laplace [4]

• Transformada de Laplace y sus aplicaciones a las ecuaciones diferenciales [5] José Salvador Cánovas Peña

Referencias[1] http:/ / netlizama. usach. cl/ tesis%20final%202006%2007%2026%20version%20para%20pdf. pdf[2] http:/ / www. ilustrados. com/ documentos/ notas-sobre-transformada-04032010. pdf[3] http:/ / cnx. org/ content/ m12978/ latest/[4] http:/ / www. wikimatematica. org/ index. php?title=La_Transformada_de_Laplace[5] http:/ / www. dmae. upct. es/ ~jose/ varcomp/ ctrans. pdf

Teorema de completitud de GödelEl teorema de completitud de Gödel es un importante teorema de la lógica matemática, que fue demostrado porprimera vez por Kurt Gödel en 1929 y que en su forma más conocida establece lo siguiente:

En una lógica de primer orden, toda fórmula que es válida en un sentido lógico es demostrable.

Kurt Gödel

La palabra "demostrable" significa que existe una deducción formal de la fórmula. La deducción consiste en una listafinita de pasos en los que cada paso o bien invoca a un axioma o es obtenido a partir de pasos previos mediante unabásica regla de inferencia. A partir de dicha deducción, es posible verificar si cada uno de los pasos es correctomediante un algoritmo (por ejemplo mediante una computadora, o a mano).Una fórmula es lógicamente válida si es verdadera en todo modelo para el lenguaje utilizado en la fórmula. Paraexpresar de manera formal el teorema de completitud de Gödel, se debe definir el significado de la palabra modeloen este contexto. Esta es una definición básica en la teoría de modelos.

Teorema de completitud de Gödel 128

DemostracionesPara una explicación de la demostración original de Gödel del teorema, ver Demostración original del teorema decompletitud de Gödel.En los libros de lógica modernos, el teorema de completitud de Gödel es por lo general demostrado mediante lademostración de Henkin, aunque a veces también se utiliza la demostración de Herbrand, en lugar de lademostración original de Gödel.

Bibliografía•• Kurt Gödel, "Über die Vollständigkeit des Logikkalküls", tesis doctoral, University Of Vienna, 1929. Esta tesis es

la fuente original de la demostración del teorema de completitud.•• Kurt Gödel, "Die Vollständigkeit der Axiome des logischen Funktionen-kalküls", Monatshefte für Mathematik

und Physik 37 (1930), 349-360. Este artículo contiene el mismo material que la tesis doctoral en una formaabreviada. Las demostraciones son más cortas, las explicaciones más suscintas, y se ha omitido la extensaintroducción.

Enlaces externos• Vilnis Detlovs and Karlis Podnieks, "Introduction to mathematical logic", http:/ / www. ltn. lv/ ~podnieks/

Demostración original del teorema decompletitud de GödelEn 1930 Gödel demostró la completitud de la lógica cuantificacional de primer orden. Literalmente el teoremade completitud de Gödel establece: "Para toda fórmula A de la lógica cuantificacional de primer orden, si A eslógicamente verdadera, entonces A es deducible". Dicho formalmente: "Si ╞ A, entonces ├ A". Esto quiere decirque el sistema formal de la lógica cuantificacional será completo si todas las fórmulas que representan verdadeslógicas son formalmente deducibles en el sistema.La prueba del teorema de completitud se reduce a consignar las siguientes premisas1. A es lógicamente verdadera: A ╞ A.2.2. Si A es lógicamente verdadera, entonces ¬A es insatisfacible.3.3. Si ¬A es insatisfacible, entonces ¬A es inconsistente.4. Si ¬A es inconsistente, entonces da lugar a contradicción: ¬A ├ B y ¬A ├ ¬B.5. Si ¬A ├ B y ¬A ├ ¬B, entonces ├ A.La justificación de estas premisas es la siguiente1) Es la hipótesis del teorema de completitud;2) Se sigue de la definición del concepto de fórmula lógicamente verdadera: su negación ha de ser insatisfacible;3) Es la contraposición del teorema de Henkin;4) Es un mero análisis de la definición de inconsistencia, y finalmente5) Se basa en el teorema de deducción, que permite pasar de ¬A ├ B y ¬A ├ ¬B a ├ ¬A ^ B y ├ ¬A ^ ¬B,respectivamente, y en Modus Ponens, que permite, con ayuda de estas dos últimas fórmulas, eliminar losantecedentes en la ley de reducción al absurdo (├ (¬A ^ B) ® ((¬A ^ ¬B) ^ ¬¬A); de ├ ¬¬A se pasa a ├ amediante una aplicación de MP a la ley de doble negación ├ ¬¬A ^ A.

Demostración original del teorema de completitud de Gödel 129

Aceptadas estas premisas, se les aplica reiteradamente la regla MP, empezando por 2) y 1), siguiendo con 3) y elconsecuente de 2), y así sucesivamente, hasta liberar el consecuente de 5): ├ A, que es justamente la tesis delteorema de Gödel, el cual queda, por tanto, demostrado.

Referencias• Über die Vollständigkeit des Logikkalküls. Doctoral dissertation. University Of Vienna.. 1929. Primera

demostración del teorema de completitud.• Gödel, K (1930). «Die Vollständigkeit der Axiome des logischen Funktionenkalküls» (en German). Monatshefte

für Mathematik 37:  pp. 349–360. doi: 10.1007/BF01696781 (http:/ / dx. doi. org/ 10. 1007/ BF01696781). JFM 56.0046.04 (http:/ / www. zentralblatt-math. org/ zmath/ en/ search/ ?q=an:56. 0046. 04& format=complete). Elmismo material que en la disertación, pero con demostraciones más breves, explicaciones más suscintas, yomitiendo la extensa introducción.

Jerarquía de Chomsky

Noam Chomsky.

En lingüística la jerarquía de Chomsky es una clasificaciónjerárquica de distintos tipos de gramáticas formales que generanlenguajes formales. Esta jerarquía fue descrita por Noam Chomsky en1956.

La jerarquía

La Jerarquía de Chomsky consta de cuatro niveles:• Gramáticas de tipo 0 (sin restricciones), que incluye a todas las

gramáticas formales. Estas gramáticas generan todos los lenguajescapaces de ser reconocidos por una máquina de Turing. Loslenguajes son conocidos como lenguajes recursivamenteenumerables. Nótese que esta categoría es diferente de la de loslenguajes recursivos, cuya decisión puede ser realizada por unamáquina de Turing que se detenga.

• Gramáticas de tipo 1 (gramáticas sensibles al contexto) generan loslenguajes sensibles al contexto. Estas gramáticas tienen reglas de laforma con un no terminal y , y cadenas de terminales y no terminales. Las cadenas y pueden ser vacías, pero no puede serlo. La regla

está permitida si no aparece en la parte derecha de ninguna regla. Los lenguajes descritos por estasgramáticas son exactamente todos aquellos lenguajes reconocidos por una máquina de Turing determinista cuyacinta de memoria está acotada por un cierto número entero de veces sobre la longitud de entrada, tambiénconocidas como autómatas linealmente acotados.

• Gramáticas de tipo 2 (gramáticas libres del contexto) generan los lenguajes independientes del contexto. Lasreglas son de la forma con un no terminal y una cadena de terminales y no terminales. Estoslenguajes son aquellos que pueden ser reconocidos por un autómata con pila.

• Gramáticas de tipo 3 (gramáticas regulares) generan los lenguajes regulares. Estas gramáticas se restringen a aquellas reglas que tienen en la parte izquierda un no terminal, y en la parte derecha un solo terminal, posiblemente seguido de un no terminal. La regla también está permitida si no aparece en la parte derecha de ninguna regla. Estos lenguajes son aquellos que pueden ser aceptados por un autómata finito. También

Jerarquía de Chomsky 130

esta familia de lenguajes pueden ser obtenidas por medio de expresiones regulares.Nótese que el conjunto de gramáticas correspondiente a los lenguajes recursivos no es un miembro de la jerarquía.Cada lenguaje regular es a su vez libre del contexto, asimismo un lenguaje libre del contexto es también dependientedel contexto, éste es recursivo y a su vez, recursivamente enumerable. Las inclusiones son, sin embargo, propias, esdecir, existen en cada nivel lenguajes que no están en niveles anteriores.

Tipo Lenguaje Autómata Normas de producción de gramáticas

0 recursivamente enumerable (LRE) Máquina de Turing (MT) Sin restricciones

1 dependiente del contexto (LSC) Autómata linealmente acotado αAβ → αγβ

2 independiente del contexto (LLC) Autómata con pila A → γ

3 regular (RL) Autómata finito A → aBA → a

Lenguajes Recursivamente Enumerables (de tipo 0)Las gramáticas que generan estos lenguajes pueden tener reglas compresoras.Las reglas de producción son de la siguiente forma:

Lenguajes Dependientes del Contexto (sensibles al contexto, de tipo 1)No existen reglas compresoras, salvo, opcionalmente, la que deriva el axioma a la palabra vacía.Existen reglas en las que un símbolo no terminal puede derivar a formas sentenciales distintas, según los símbolosque aparezcan a su alrededor.Las reglas de producción son de la siguiente forma:

Lenguajes Independientes del Contexto (Libres de contexto, de tipo 2)La mayoría de los lenguajes de programación entran en ésta categoría en cuanto su forma sintáctica, aunque enrealidad los lenguajes de programación son dependientes del contexto, se reconocen a través de lenguajes de tipo 2porque su reconocimiento es de O(n) mientras que los de tipo 1 tienen un orden de reconocimiento O(n^3) en el peorcaso. Por este motivo se ejecuta un análisis semántico para reconocer si el programa es correcto.Las reglas de producción son de la siguiente manera:

Jerarquía de Chomsky 131

Lenguajes Regulares (de tipo 3)Son los lenguajes más simples dentro la Jerarquía de Chomsky. Se suelen expresar mediante expresiones regulares.Existen 2 tipos: lineales por la derecha y lineales por la izquierda. Las reglas de producción son de la siguienteforma:Lineales por la derecha:

Lineales por la izquierda:

Referencias

General•• Joaquín Aranda, Natividad Duro, José Luis Fernández, José Jiménez, Fermando Morilla, "Fundamentos de

Lógica Matemática y Computación", Sanz y Torres, 2006, ISBN 84-96094-74-X.

Tiempo polinomialEn computación, cuando el tiempo de ejecución de un algoritmo (mediante el cual se obtiene una solución alproblema) es menor que un cierto valor calculado a partir del número de variables implicadas (generalmentevariables de entrada) usando una fórmula polinómica, se dice que dicho problema se puede resolver en un tiempopolinómico.Por ejemplo, si determinar el camino óptimo que debe recorrer un cartero que pasa por N casas necesita menos de50N2+N segundos, entonces el problema es resoluble en un "tiempo polinómico".De esa manera, tiempos de 2n2+5n, o 4n6+7n4-2n2 son polinómicos; pero 2n no lo es.Dentro de los tiempos polinómicos, podemos distinguir los logarítmicos (log(n)), los lineales (n), los cuadráticos(n2), cúbicos (n3), etc.

Clases de complejidadEn teoría de la complejidad, la clase de complejidad de los problemas de decisión que pueden ser resueltos en tiempopolinómico calculado a partir de la entrada por una máquina de Turing determinista es llamada P. Cuando se trata deuna máquina de Turing no-determinista, la clase es llamada NP. Una de las preguntas abiertas más importantes en laactualidad es descubrir si estas clases son diferentes o no. El Clay Mathematics Institute ofrece un millón de dólaresa quien sea capaz de responder a esa pregunta.

Tiempo polinomial 132

Diagrama de clases de complejidad. Si P = NP, P contendría las zonas NP yNP-completo.

Los problemas NP-completos puedenser descritos como los problemas enNP que tienen menos posibilidades deestar en P (Ver NP-completo para unadefinición precisa). Actualmente losinvestigadores piensan que las clasescumplen con el diagrama mostrado porlo que P y NP-completo tendríanintersección vacía.

La importancia de la pregunta P = NPradica en que de encontrarse unalgoritmo en P para un problemaNP-completo, todos los problemasNP-completos (y por ende, todos losproblemas de NP) tendrían soluciones en tiempo polinómico.

PolinomioEn matemáticas, un polinomio (del griego, «poli»-muchos y «νόμος»- división, y el latín «binomius»)[1][2][3] es unaexpresión constituida por un conjunto finito de variables (no determinadas o desconocidas) y constantes (númerosfijos llamados coeficientes), utilizando únicamente las operaciones aritméticas de suma, resta y multiplicación, asícomo exponentes enteros positivos. En otras palabras, es una combinación lineal de productos de potencias enterasde una o de varias indeterminadas.Es frecuente el término polinomial, como adjetivo, para designar cantidades que se pueden expresar comopolinomios de algún parámetro, como por ejemplo en tiempo polinomial.Los polinomios son objetos muy utilizados en matemáticas y en ciencia. En la práctica, son utilizados en cálculo yanálisis matemático para aproximar cualquier función derivable; las ecuaciones polinómicas y las funcionespolinómicas tienen aplicaciones en una gran variedad de problemas, desde la matemática elemental hasta áreas comola física, química, economía y las ciencias sociales.En áreas de las matemáticas aplicadas, los polinomios son utilizados para construir los anillos de polinomios, unconcepto central en álgebra abstracta y geometría algebraica.

Definición algebraica

Polinomios de una variablePara a0, …, an constantes en algún anillo A (en particular podemos tomar un cuerpo, como o , en cuyo casolos coeficientes del polinomio serán números) con an distinto de cero y , entonces un polinomio, , degrado n en la variable x es un objeto de la forma

El polinomio se puede escribir más concisamente usando sumatorios como

Las constantes a0, …, an se llaman los coeficientes del polinomio. A a0 se le llama el coeficiente constante (o término independiente) y a an, el coeficiente principal. Cuando el coeficiente principal es 1, al polinomio se le llama

Polinomio 133

mónico o normado.

Polinomios de varias variablesLos polinomios de varias variables, a diferencia de los de una variable, tienen en total más de una variable. Porejemplo los monomios:

En detalle el último de ellos es un monomio de tres variables (ya que en él aparecen las tres letras x, y y z),el coeficiente es 4, y los exponentes son 1, 2 y 1 de x, y y z respectivamente.

Grado de un polinomioSe define el grado de un monomio como el mayor exponente de su variable. El grado de un polinomio es el delmonomio de mayor grado.Ejemplos

P(x) = 2, polinomio de grado cero (el polinomio solo consta del término independiente).P(x) = 3x + 2, polinomio de grado uno.P(x) = 3x² + 2x², polinomio de grado dos.P(x) = 2x2+ 3x + 2, polinomio de grado dos.

Convencionalmente se define el grado del polinomio nulo como . En particular los números son polinomios degrado cero.

Operaciones con polinomiosLos polinomios se pueden sumar y restar agrupando los términos y simplificando los monomios semejantes. Paramultiplicar polinomios se multiplica cada término de un polinomio por cada uno de los términos del otro polinomioy luego se simplifican los monomios semejantes.Ejemplo

Sean los polinomios: y , entonces el producto es:

Para poder realizar eficazmente la operación se tiene que adquirir los datos necesarios de mayor a menor. Unafórmula analítica que expresa el producto de dos polinomios es la siguiente:

Aplicando esta fórmula al ejemplo anterior se tiene:

Puede comprobarse que para polinomios no nulos se satisface la siguiente relación entre el grado de los polinomios

y y el polinomio producto :(*)

Puesto que el producto de cualquier polinomio por el polinomio nulo es el propio polinomio nulo, se defineconvencionalmente que (junto con la operación ) por lo que la expresión (*)puede extenderse también al caso de que alguno de los polinomios sea nulos.

Polinomio 134

Funciones polinómicasUna función polinómica es una función matemática expresada mediante un polinomio. Dado un polinomio P[x] sepuede definir una función polinómica asociada a él dado substituyendo la variable x por un elemento del anillo:

La funciones polinómicas reales son funciones suaves, es decir, son infinitamente diferenciables (tienen derivadas detodos los órdenes). Debido a su estructura simple, las funciones polinómicas son muy sencillos de evaluarnuméricamente, y se usan ampliamente en análisis numérico para interpolación polinómica o para integrarnuméricamente funciones más complejas. Una manera muy eficiente para evaluar polinomios es la utilización de laregla de Horner.En álgebra lineal el polinomio característico de una matriz cuadrada codifica muchas propiedades importantes de lamatriz. En teoría de los grafos el polinomio cromático de un grafo codifica las distintas maneras de colorear losvértices del grafo usando x colores.Con el desarrollo de la computadora, los polinomios han sido remplazados por funciones spline en muchas áreas delanálisis numérico. Las splines se definen a partir de polinomios y tienen mayor flexibilidad que los polinomiosordinarios cuando definen funciones simples y suaves. Éstas son usadas en la interpolación spline y en gráficos porcomputadora.

Ejemplos de funciones polinómicasNote que las gráficas representan a las funciones polinomiales y no a los polinomios en sí, pues un polinomio soloes la suma de varios monomios.

Polinomio de grado 2:f(x) = x2 - x - 2= (x+1)(x-2).

Polinomio de grado 3:f(x) = x3/5 + 4x2/5 - 7x/5 - 2=

 1/5 (x+5)(x+1)(x-2).

Polinomio 135

Polinomio de grado 4:f(x) = 1/14 (x+4)(x+1)(x-1)(x-3) + 0.5.

Polinomio de grado 5:f(x) = 1/20 (x+4)(x+2)(x+1)(x-1)(x-3) + 2.

La función

es un ejemplo de función polinómica de cuarto grado, con coeficiente principal 13 y una constante de 3.

Factorización de polinomiosEn un anillo conmutativo una condición necesaria para que un monomio sea un factor de un polinomio de grado n> 1, es que el término independiente del polinomio sea divisible por la raíz del monomio:

necesariamente divide a En caso de que el polinomio no tenga término independiente se sacará la incógnita como factor común y ya estáfactorizado. También se puede factorizar usando las igualdades notables.Un polinomio factoriza dependiendo del anillo sobre el cual se considere la factorización, por ejemplo el polinomio

no factoriza sobre pero sí factoriza sobre :

Por otra parte no factoriza ni sobre , ni tampoco sobre aunque factoriza sobre :

Un cuerpo en el que todo polinomio no constante factoriza en monomios es un cuerpo algebraicamente cerrado.

Polinomio 136

Historia

Volumen de una pirámide truncada.

La resolución de ecuaciones algebraicas, o la determinación de las raíces depolinomios, está entre los problemas más antiguos de la matemática. Sinembargo, la elegante y práctica notación que utilizamos actualmente sedesarrolló a partir del siglo XV.En el problema 14º del papiro de Moscú (ca. 1890 a. C.) se pide calcular elvolumen de un tronco de pirámide cuadrangular. El escriba expone los pasos:eleva al cuadrado 2 y 4, multiplica 2 por 4, suma los anteriores resultados ymultiplícalo por un tercio de 6 (h); finaliza diciendo: «ves, es 56, lo hascalculado correctamente». En notación algebraica actual sería: V = h (t² + b² +tb) / 3, un polinomio de cuatro variables (V, h, t, b) que, conociendo tres,permite obtener la cuarta variable.

Algunos polinomios, como f(x) = x² + 1, no tienen ninguna raíz que sea número real. Sin embargo, si el conjunto delas raíces posibles se extiende a los números complejos, todo polinomio (no constante) tiene una raíz: ese es elenunciado del teorema fundamental del álgebra.Hay una diferencia entre la aproximación de raíces y el descubrimiento de fórmulas concretas para ellas. Se conocenfórmulas de polinomios de hasta cuarto grado desde el siglo XVI (ver ecuación cuadrática, Gerolamo Cardano,Niccolo Fontana Tartaglia). Pero, las fórmulas para polinomios de quinto grado fueron irresolubles para losinvestigadores durante mucho tiempo. En 1824, Niels Henrik Abel demostró que no puede haber fórmulas generalespara los polinomios de quinto grado o mayores (ver el teorema de Abel-Ruffini). Este resultado marcó el comienzode la teoría de Galois que se ocupa del estudio detallado de las relaciones existentes entre las raíces de lospolinomios.La máquina diferencial de Charles Babbage fue diseñada para crear automáticamente tablas de valores de funcioneslogarítmicas y diferenciales, evaluando aproximaciones polinómicas en muchos puntos, usando el método de lasdiferencias de Newton.

Referencias[1] « polinomio (http:/ / lema. rae. es/ drae/ ?val=polinomio)», Diccionario de la lengua española (vigésima segunda edición), Real Academia

Española, 2001, .[2] (CNTRL), etimología. (http:/ / www. cnrtl. fr/ etymologie/ binôme)[3] «Etymology of "polynomial"» Compact Oxford English Dictionary

Enlaces externos• Wikimedia Commons alberga contenido multimedia sobre PolinomioCommons.• Wikcionario tiene definiciones para polinomio.Wikcionario• Polinomios, en descartes.cnice.mec.es (http:/ / descartes. cnice. mec. es/ materiales_didacticos/ Polinomios/

polinomios1. htm)• Calculadora polinómica (http:/ / thales. cica. es. / rd/ Recursos/ rd99/ ed99-0453-02/ ed99-0453-02. html)

Anillo de polinomios 137

Anillo de polinomiosSea un anillo y cualquier conjunto. El conjunto de todos los objetos

(1) ,

en donde , y cada -tupla de números naturales esdiferente para diferente valor de , se dice anillo de polinomios con indeterminadas en sobre .

IntroducciónLos polinomios más conocidos son los que tienen coeficientes enteros. Por ejemplo, tomando como el anillo y , un elemento de es un polinomio en dos variables. Como por ejemplo:

(2) .Notar que, si bien el conjunto de indeterminadas puede ser un conjunto infinito, cada polinomio contiene unnúmero finito de términos.

Si , entonces se puede escribir en lugar de . Así, es un anillo depolinomios en una sola indeterminada .Puede notarse fácilmente que a cada elemento de le corresponde un polinomio (monomio, de hecho) en

expresado como:

,donde , es decir, desde el punto de vista algebraico, , por lo que es unsubanillo de .

Propiedades fundamentalesHechos de interés sobre anillos de polinomios tienen que ver con las propiedades del mismo a partir del anillo en elque tienen sus coeficientes. Por ejemplo, cuando es un dominio íntegro, también lo es, y las unidades de

son las mismas que las de . Por el contrario nunca será un cuerpo, no importando que lo sea ono, pues aunque las unidades de sean las mismas que las de , es tan sólo un subanillo de . Sinembargo, el anillo es un dominio integro si lo es, luego, dado el caso, se puede construir el cuerpo decocientes de (i.e. el cuerpo de fracciones de polinomios), que se denota comúnmente por .Los coeficientes de los polinomios de un anillo pueden tomarse no solo como los elementos de . En lapractica podemos hacer agrupaciones del tipo

y éstas también deben hacerse en un anillo de polinomios . Para ello se separan los elementos de en dosconjuntos disjuntos, digamos y , luego el anillo de polinomios tiene coeficientes en el anillo depolinomios e indeterminadas en .Si es un anillo y , claramente es un subanillo de .Sea un anillo unitario. Todo polinomio no nulo de cuyo coeficiente director sea una unidad puede dividireuclídeamente a cualquier otro polinomio de y el grado del resto es estrictamente menor que el grado de deldivisor. Es decir, si y son polinomios de no nulos, con el coeficiente director de una unidad de ,entonces existen polinomios y de tales que

con

Anillo de polinomios 138

Así, para que la división de polinomios sea siempre posible en un anillo de polinomios , debe de ser uncuerpo (i.e. todo elemento de A debe ser una unidad), y si así sucede será un dominio euclídeo. Un hecho muyimportante es que un anillo de polinomios es un dominio de ideales principales (DIP) si y sólo si es uncuerpo. Puesto que todos los dominios euclídeos son DIPs, tenemos que no es un dominio euclídeo si contiene más de un elemento, pues , y nunca es un cuerpo y por tantotampoco un DIP.

Definición formal

Los monomios purosLa definición formal de los anillos de polinomios parte de la definición de los monomios puros (sin coeficientes enun anillo; en muchos contextos, la palabra monomio corresponde a este significado, utilizándose entonces la palabratérmino para designar el producto de un coeficiente del anillo y un monomio). Notar que si es un conjunto y, porejemplo, , un monomio a partir de puede ser

(3) .En el monomio anterior, cada uno de los elementos tiene un exponente natural. Por tanto, podemosconsiderar a cada monomio con indeterminadas en como una aplicación (aquí y en el resto delartículo consideramos que incluye al cero). El monomio (3) sería entendido entonces como la aplicación dadapor , , y donde se anula para todos los demás elementos (si estos existen) de

. Observar que un monomio puro es el producto de un número finito de indeterminadas. Aunque sea infinito,podemos obtener un monomio haciendo que sea nulo para todas aquellas indeterminadas que no queremosque aparezcan en el monomio. Por ejemplo, si , el monomio

(4) ,se corresponde con la aplicación dada por , y .En vista de las consideraciones anteriores, la definición de un conjunto de monomios ha de ser la siguiente:

Sea un conjunto. El conjunto de los monomios con indeterminadas en , representado por , es el conjunto de todas las aplicacionestales que el conjunto es finito.

Si , se definen las aplicaciones y , donde , mediante

y

para todo .Estas aplicaciones están bien definidas, y claramente y y . Vemos pues que si sonaplicaciones de , se interpreta como el producto de los monomios representados por y , y si esun número natural, se interpreta como la potencia -sima del monomio representado por .Nótese que el monomio de que toma constantemente el valor 0 es tal que

y

para todo . Así, este monomio se representa por el mismo símbolo 0.Obsérvese que el elemento se interpreta en , claramente, como la aplicación que vale 1 en y 0 encualquier otro caso. En estos términos cualquier monomio de puede escribirse como

(5) ,donde son los elementos de para los cuales la aplicación no se anula (por definición, estoselementos son siempre un número finito). Claramente, cada término

Anillo de polinomios 139

(6)

de (5) representa el factor en el monomio representado por . Es decir, (5) se entiende como el monomio

(7)

Polinomios con coeficientes en un anilloPara dar paso a la definición de un anillo de polinomios, observemos que un polinomio, como (2), es una suma finitade monomios multiplicados por coeficientes en un anillo (en el caso de (2) los coeficientes son enteros). Así, porejemplo, es suficiente asociar el polinomio (2) con una aplicación , donde , tal que

toma el valor del coeficiente correspondiente cuando se evalúa en un monomio . En vista de estotenemos:

Sean un conjunto, un anillo y el conjunto de monomios de la definición 1. El anillo de polinomios con indeterminadas en sobre es el conjunto de todas las aplicaciones tales que el conjunto es finito.

Podemos considerar ahora los monomios con coeficientes en el anillo como casos especiales de polinomios. Sies unitario, entonces podemos considerar al polinomio que vale 1 en y 0 en cualquier otro caso como el

monomio mismo. Para ver que, en realidad, tanto como son, desde el punto de vista algebraico, unsubconjunto de y que efectivamente es un anillo que contiene a como un subanillo, es necesariodefinir las operaciones de anillo sobre .

Operaciones sobre

Definiciones

La adición sobre claramente ha de definirse así:

Sean polinomios de . Se define como la aplicación dada por

(8)

para todo monomio . Es claro que .

Esta definición se interpreta como la reducción de los términos semejantes (i.e. los coeficientes de un mismomonomio ) de y .Cuando multiplicamos polinomios, acostumbramos sumar los términos semejantes que surjan en el producto paraobtener un polinomio lo más reducido posible. En vista de esto, tenemos la definición de la multiplicación en :

Sean polinomios de . Se define como la aplicación dada por

(9)

para todo monomio . El miembro derecho de (9) es la suma de todos los productos tales que . Laaplicación es claramente un polinomio de .

Anillo de polinomios 140

Propiedades de anillo

Respecto de las operaciones de adición y multiplicación, según han sido definidas, el conjunto cumple conque:

es un anillo Si es un anillo y es un conjunto entonces es un anillo.

Tesis de Church-TuringEn Teoría de la computabilidad, la tesis de Church-Turing formula hipotéticamente la equivalencia entre losconceptos de función computable y máquina de Turing, que expresado en lenguaje corriente vendría a ser "todoalgoritmo es equivalente a una máquina de Turing". No es un teorema matemático, es una afirmación formalmenteindemostrable, una hipótesis que, no obstante, tiene una aceptación prácticamente universal.

IntroducciónEn los años 30 del siglo XX, uno de los problemas más estudiados por los matemáticos era el Entscheidungsproblempropuesto por David Hilbert: dada una proposición en un sistema formal, ¿existe un algoritmo tal que pueda decidirsi la proposición es cierta (y por tanto es un teorema del sistema) o por el contrario es falsa? En 1936 Alonzo Churchy Alan Turing probaron, de forma independiente, la imposibilidad de la existencia de tal algoritmo, usando el cálculolambda en el caso de Church y la máquina de Turing en el caso de Turing. Posteriormente el concepto inicial dedicha "máquina" (que no tiene existencia física, realmente es una descripción formal) fue ampliada de diversosmodos:•• Máquinas de Turing con más de una cinta•• Máquinas de Turing con cintas n-dimensionales•• Máquinas de Turing con un número limitado de estados y símbolos.•• Máquinas de Turing probabilistas•• Máquinas de Turing no deterministasLos lenguajes formales que son aceptados por una máquina de Turing son todos aquellos que pueden ser generadospor una gramática formal. Por otro lado, las funciones que pueden ser computadas con el cálculo Lambda de Churchson exactamente aquellas que pueden ser computadas con una máquina de Turing. Estos tres formalismos, lasmáquinas de Turing, los lenguajes formales y el cálculo Lambda han sido desarrollados de forma independiente y sinembargo se ha probado que son equivalentes; esta notable coincidencia parece indicar que la tesis de Church-Turinges cierta, siendo la noción de algoritmo o procedimiento efectivo de cómputo equivalente a la noción de cómputo enuna máquina de Turing.Entre los lenguajes formales que son aceptados por una máquina de Turing podemos citar:•• Autómatas finitos con dos pilas•• Autómatas finitos con dos contadores.•• La gramática formal•• El sistema Post• El cálculo Lambda.•• Funciones recursivas parciales.• Autómatas celulares: Como el juego de la vida de Conway o el autómata celular con una dimensión, dos estados,

tres celdas por vecino y la regla 110.•• computadoras cuánticas

Tesis de Church-Turing 141

Donde los tres últimos ejemplos utilizan una Definición ligeramente distinta de aceptación de lenguaje pues aceptanuna cadena si existe tan solo un cómputo que la acepta o la mayoría la acepta y entonces es equivalente a máquina deTuring.

¿Por qué es una tesis?Aunque se asume como cierta, la tesis de Church-Turing no puede ser probada ya que no se poseen de los mediosnecesarios, por eso es una tesis. Ello debido a que “procedimiento efectivo” y “algoritmo” no son conceptos dentro deninguna teoría matemática y no son definibles fácilmente. La evidencia de su verdad es abundante pero no definitiva.Precisamente la tesis de Church establece que la definición de algoritmo o procedimiento efectivo es una máquina deTuring.Se ha acordado que un procedimiento efectivo o algoritmo consiste en un número finito y preciso de pasos descritoen un número finito de símbolos que podría ser también ejecutado por un ser humano. En general, la ejecución de unalgoritmo no requiere de mayor inteligencia que la necesaria para entender y seguir las instrucciones (incluso sóloseguir).Ejemplos de métodos efectivos o algoritmos abundan, por ejemplo la suma, resta, multiplicación o división sonalgoritmos de operaciones aritméticas. El algoritmo de Euclides para obtener el máximo común divisor de dosnúmeros naturales es otro ejemplo. Sin embargo, nada de esto ha sido una definición formal pues no es claro quésignifica “instrucción precisa” o cuál es el tipo de inteligencia necesaria para seguir las instrucciones. Por esta mismarazón, la idea abstracta de una máquina que funciona como parámetro para decidir cuándo algo es un algoritmo oprocedimiento efectivo es de gran valor, esto es una máquina de Turing.

Éxito de la tesisDe hecho, la tesis de Church-Turing ha sido tan exitosa que la mayoría la supone verdadera. Los términos derivadosde ella, como método efectivo y computable son comúnmente utilizados, cuando en realidad computable se refiere aTuring-computable, en el salto entre uno y otro se encuentra la tesis de Church, y entre muchos otros conceptos ytérminos comúnmente utilizados en la teoría de la computabilidad o funciones recursivas.

DetractoresEs claro que es más "fácil" probar la falsedad de la tesis que la verdad de la misma. Basta con exponer un métodoefectivo o algoritmo que no sea Turing-computable.Aunque exponer un algoritmo que no sea Turing-computable no es tan fácil, pero, es más "fácil" que probar laverdad de la tesis, ya que parece imposible negar que sea verdadera a pesar de que eso es una posibilidad lógica.Existe una tesis relativizada de Church-Turing que depende de los grados de Turing definidos por máquinas deTuring con oráculos. Los oráculos son medios formales que suponen que se le facilita cierta información a lamáquina de Turing para resolver algún problema, esto define una jerarquía que se ha estudiado tanto en la teoría dela Computabilidad como en la Teoría de la Complejidad.

Tesis de Church-Turing 142

ImplicacionesLa tesis de Church-Turing tiene además profundas implicaciones. Cuando la tesis es aplicada a la física tienediversos significados: que el universo es una máquina de Turing y por lo tanto no es posible construir físicamenteuna máquina con mayor poder computacional o que compute funciones no recursivas (la capacidad de cómputo quepuede contener el universo está acoplado al tipo de universo en el que vivimos). A esto se le ha llamado tesis deChurch-Turing fuerte.Una posible interpretación valida es que el universo no es una máquina de Turing, es decir, las leyes del universo noson computables pero esto no afecta la posibilidad de crear una máquina más poderosa que una máquina de Turing(universo desacoplado al poder computacional de los dispositivos que contiene).Otra posibilidad es que el universo sea una hipercomputadora y entonces sea posible la construcción de máquinasmás poderosas que las máquinas de Turing. Para ello posiblemente bastaría con que el universo fuera continuo ehiciera uso de esa continuidad (otra pregunta es qué tan densa es su continuidad).usando como entrada los resultadosde dicha súper computadora:El universo o la naturaleza.

Bibliografía y Referencias• Stanford Encyclopedia of Philosophy [1]

• Turing, Alan, On computable numbers, with an application to the Entscheidungsproblem, Proceedings of theLondon Mathematical Society, Series 2, 42 (1936), pp 230-265.

• Church, A. 1932. A set of Postulates for the Foundation of Logic. Annals of Mathematics, second series, 33,346-366.• 1936a. An Unsolvable Problem of Elementary Number Theory. American Journal of Mathematics, 58,

345-363.• 1936b. A Note on the Entscheidungsproblem. Journal of Symbolic Logic, 1, 40-41.• 1937a. Review of Turing 1936. Journal of Symbolic Logic, 2, 42-43.• 1937b. Review of Post 1936. Journal of Symbolic Logic, 2, 43.• 1941. The Calculi of Lambda-Conversion. Princeton: Princeton University Press.

• Kleene, S.C. 1935. A Theory of Positive Integers in Formal Logic, American Journal of Mathematics, 57,153-173, 219-244.• 1936. Lambda-Definability and Recursiveness. Duke Mathematical Journal, 2, 340-353.• 1952. Introduction to Metamathematics. Amsterdam: North-Holland.• 1967. Mathematical Logic. New York: Wiley.

• Gödel, K., 1934, On Undecidable Propositions of Formal Mathematical Systems, lecture notes taken by Kleeneand Rosser at the Institute for Advanced Study, reprinted in Davis, M. (ed.) 1965, The Undecidable, New York:Raven.

Referencias[1] http:/ / plato. stanford. edu/ entries/ church-turing/

Función computable 143

Función computableLas funciones computables son el objeto básico de estudio de la teoría de la computabilidad y son, específicamente,las funciones que pueden ser calculadas por una máquina de Turing.

IntroducciónLas funciones computables son una formalización de la noción intuitiva de algoritmo y según la Tesis deChurch-Turing son exactamente las funciones que pueden ser calculadas con una máquina de cálculo. La noción dela computabilidad de una función puede ser relativizada a un conjunto arbitrario de números naturales A, oequivalentemente a una función arbitraria f de los naturales a los naturales, por medio de máquinas de Turingextendidas con un oráculo por A o f. Tales funciones pueden ser llamadas A-computable o f-computablerespectivamente. Antes de la definición precisa de una función computable los matemáticos usaban el términoinformal efectivamente computable.Las funciones computables son usadas para discutir computabilidad sin referirse a ningún modelo de computaciónconcreto, como el de la máquina de Turing o el de la máquina de registros. Los axiomas de Blum pueden ser usadospara definir una teoría de complejidad computacional abstracta sobre el conjunto de funciones computables.Según la Tesis de Church-Turing, la clase de funciones computables es equivalente a la clase de funciones definidaspor funciones recursivas, cálculo lambda, o algoritmos de Markov [1].Alternativamente se pueden definir como los algoritmos que pueden ser calculados por una máquina de Turing, unamáquina de Post, o una máquina de registros.En teoría de la complejidad computacional, el problema de determinar la complejidad de una función computable esconocido como un problema de funciones.

DefiniciónUna función parcial

se llama parcialmente computable si el gráfico de es un conjunto recursivamente enumerable. El conjunto defunciones parcialmente computables con un parámetro es normalmente escrito o si el número deparámetros puede deducirse del contexto.Una función total

se llama computable si el gráfico de es un conjunto recursivo. El conjunto de funciones totalmente computablescon un parámetro normalmente se escribe o .Una función computable se llama predicado computable si es una función con valor booleano, es decir:

Función computable 144

ComentariosA veces, por razones de claridad, se escribe una función computable como

Se puede fácilmente codificar g en una nueva función

usando una función de pares.

Ejemplos• Función constante f : Nk→ N, f(n1,...nk) := n• Adición f : N2→ N, f(n1,n2) := n1 + n2•• Máximo común divisor• Identidad de Bézout, una ecuación diofántica lineal.

Propiedades• El conjunto de las funciones computables es numerable.• Si f y g son funciones computables entonces f + g, f.g y fog son funciones computables.•• Las funciones computables son definibles aritméticamente.

• Una función con valor booleano f es un predicado computable si y sólo si el lenguaje es recursivo.

Referencias[1] http:/ / en. wikipedia. org/ wiki/ Markov_algorithm

Recursión primitiva 145

Recursión primitivaEn Teoría de la computabilidad, la recursión primitiva permite definir una clase de funciones que forman unimportante paso en la formalización de la noción de computabilidad. Se definen usando como principalesoperaciones la recursión y composición de funciones y forman un subconjunto estricto de las funciones recursivas,que son precisamente las funciones computables. Las funciones recursivas se definen agregándole a la recursiónprimitiva el operador de búsqueda no acotada que permite definir funciones parciales.Muchas de las funciones normalmente estudiadas en teoría de los números, y las aproximaciones a las funciones devalor real utilizan la recursión primitiva. Como ejemplo de ellas se tiene la suma, la división, el factorial, el enésimoprimo, etc. De hecho, no es fácil definir una función que sea recursiva pero que no se pueda definir con recursiónprimitiva.

DefiniciónLa variable o argumento de una función recursiva primitiva es un número natural o una n-upla de números naturales(i1, i2,..., in), mientras que el resultado o valor de la función es un número natural. Una función recursiva primitiva esn-aria si toma como argumento o variable n-uplas de números naturales. El conjunto de las funciones primitivasrecursivas se define según las siguientes reglas:1. Para todo k >= 0, la función cero k-aria definida como zerok(n1, n2, ..., nk) = 0, para todo número natural n1, n2,

..., nk, es primitiva recursiva.2. La función sucesor S, de aridad 1, que produce el siguiente entero según los axiomas de Peano, es primitiva

recursiva.3. Las funciones de proyección Pi

n, de aridad n que producen como resultado su argumento de la posición i sonprimitivas recursivas.

4. Composición: Dadas f, una función primitiva recursiva de aridad k, y g1,...,gk, funciones primitivas recursivas dearidad n, la composición de f con g1,...,gk, es decir, la función h(x1,...,xn) = f(g1(x1,...,xn),...,gk(x1,...,xn)), esprimitiva recursiva.

5. Recursión primitiva: Dadas f, una función primitiva recursiva de aridad k, y g, una función primitiva recursiva dearidad k+2, la función h de aridad k+1 definida como h(0,x1,...,xk) = f(x1,...,xk) y h(S(n), x1,...,xk) = g(h(n, x1,...,xk),n, x1,...,xk), es primitiva recursiva.

Se puede notar que las funciones de proyección permiten contrarrestar la rigidez impuesta por la paridad de lasfunciones en la definición anterior, dado que en la composición se puede pasar cualquier subconjunto de losargumentos.Una función es primitiva recursiva si es la función constante cero, la función sucesor, una proyección o si se define apartir de funciones primitivas recursivas utilizando únicamente composición y recursión primitiva.

Recursión primitiva 146

Ejemplo

Suma de enterosIntuitivamente, se esperaría que la suma se comportase de la forma siguiente:

suma(0,x)=x

suma(n+1,x)=suma(n, x)+1llevada esta función al esquema de las funciones primitivas queda así:

suma(0,x)=P1¹(x)suma(S(n), x)=S(P1³(suma(n, x), n, x))

(donde P1³ es la función que recibe tres argumentos y devuelve el primero de ellos)Se puede ver que P1¹ es la función identidad; se incluye su llamada para conformarse estrictamente al esquema de larecursión primitiva (función f del esquema). La composición de S con P1³, en el segundo caso también correspondeal esquema dado anteriormente (función g del esquema).

LimitacionesSi bien la recursión primitiva parece poder expresar cualquier operación, en realidad sólo cubre un subconjuntoestricto de las funciones computables. Esto se verifica con una variante del argumento de diagonalización de Cantor.La prueba se puede esquematizar como sigue:Las funciones primitivas recursivas pueden ser ordenadas estrictamente asignándole a cada una de ellas un número.Este número es único para cada definición de función, si bien dos definiciones equivalentes de la misma funciónpodrían tener diferente número asociado. El número asociado a cada función es calculable en el sentido de que puedeser definido mediante un mecanismo de cómputo como una función recursiva o una máquina de Turing.Se construye ahora una matriz donde las filas son las funciones primitivas recursivas de un solo argumento en ordensegún el número asociado y las columnas son los naturales. El valor de cada casilla es el resultado de la función deesa fila para el valor entero de esa columna.Se define ahora la función g(x) = S(n) donde n es el valor de la casilla de la fila y columna x. Cualquiera sea el valorde x, el valor de g(x) será distinto al de la función de la fila x al menos para el entero x. Por la construcción anterior,la función es computable, pero no recursiva primitiva, dado que es diferente a toda función primitiva para al menosun argumento entero. En conclusión, deben existir funciones computables que no son primitivas recursivas.Este mismo argumento se puede utilizar para cualquier conjunto de funciones totales computables, por lo quecualquier enumeración (que pueda llevarse a cabo mediante un mecanismo de cómputo) de funciones computablestotales es necesariamente incompleta. En cambio, las funciones parciales computables sí pueden ser enumeradas deforma completa, por ejemplo enumerando el «programa» de su correspondiente máquina de Turing.Un ejemplo notable de función recursiva que no es primitiva recursiva es la función de Ackermann.

Referencias• Harry R. Lewis, Christos H. Papadimitriou, Elements of the theory of computation, Prentice-Hall, ISBN

0-13-262478-8

Cálculo lambda 147

Cálculo lambdaEl cálculo lambda es un sistema formal diseñado para investigar la definición de función, la noción de aplicación defunciones y la recursión. Fue introducido por Alonzo Church y Stephen Kleene en la década de 1930; Church usó elcálculo lambda en 1936 para resolver el Entscheidungsproblem. Puede ser usado para definir de manera limpia yprecisa qué es una "función computable". El interrogante de si dos expresiones del cálculo lambda son equivalentesno puede ser resuelto por un algoritmo general. Esta fue la primera pregunta, incluso antes que el problema de laparada, para el cual la indecidibilidad fue probada. El cálculo lambda tiene una gran influencia sobre los lenguajesfuncionales, como Lisp, ML y Haskell.Se puede considerar al cálculo lambda como el más pequeño lenguaje universal de programación. Consiste en unaregla de transformación simple (sustitución de variables) y un esquema simple para definir funciones.El cálculo lambda es universal porque cualquier función computable puede ser expresada y evaluada a través de él.Por lo tanto, es equivalente a las máquinas de Turing. Sin embargo, el cálculo lambda no hace énfasis en el uso dereglas de transformación y no considera las máquinas reales que pueden implementarlo. Se trata de una propuestamás cercana al software que al hardware.Este artículo se enfocará sobre el cálculo lambda sin tipos, como fue diseñado originalmente por Church. Desdeentonces, algunos cálculo lambda tipados fueron creados.

HistoriaOriginalmente, Church había tratado de construir un sistema formal completo para modelizar la matemática; perocuando este se volvió susceptible a la paradoja de Russell, separó del sistema al cálculo lambda y lo usó para estudiarla computabilidad, culminando en la respuesta negativa al problema de la parada.

Introducción informalConsidérese las siguientes dos funciones. Por un lado, la función identidad I(x) = x, que toma un único argumento, x,e inmediatamente devuelve x. Por otro lado, la función suma S(x,y) = x + y, que toma dos argumentos, x e y, ydevuelve la suma de ambos: x + y. Usando estas dos funciones como ejemplo, es posible hacer algunasobservaciones útiles acerca de varias ideas fundamentales del cálculo lambda.La primera observación es que las funciones no necesitan ser explícitamente nombradas. Esto es, la función S(x,y) =x + y puede ser reescrita como una función anónima: x,y → x + y (que se lee: «el par de x e y se mapea a x + y»). Delmismo modo, I(x) = x puede ser reescrita de forma anónima como x → x, que se lee: «el argumento x se mapea a símismo».La segunda observación es que el nombre que se asigne a los argumentos de la función es generalmente irrelevante.Esto es, x → x e y → y expresan la misma función: la función identidad. Del mismo modo, x,y → x + y y u,v → u +v expresan la misma función: la función suma.Una tercera observación es que toda función que requiere dos argumentos, como por ejemplo la función suma, puedeser reescrita como una función que acepta un único argumento, pero que devuelve otra función, la cual a su vezacepta un único argumento. Por ejemplo, x,y → x + y puede ser reescrita como x → (y → x + y). Esta transformaciónse conoce como currificación, y puede generalizarse para funciones que aceptan cualquier número de argumentos.Esta puede parecer oscuro, pero se entiende mejor mediante un ejemplo. Considérese la función suma no currificada:

x,y → x + y

Al tomar a los números 2 y 3 como argumentos, se obtiene:2 + 3

Lo cual es igual a 5. Considérese ahora la versión currificada de la función:

Cálculo lambda 148

x → (y → x + y)

Si se toma al número 2 como argumento, se obtiene la función:y → 2 + y

Y tomando luego al número 3 como argumento, se obtiene:2 + 3

Lo cual es igual a 5. De modo que la versión currificada devuelve el mismo resultado que la versión no currificada.En el cálculo lambda, todas las expresiones representan funciones anónimas de un sólo argumento.Una cuarta observación es que una función puede aceptar como argumento a otra función, siempre y cuando estaotra función tenga ella misma un sólo argumento. Por ejemplo, la función identidad puede aceptar como argumento ala función suma (currificada). Es decir, se toma a la función x → (y → x + y) y se la pone como argumento en z → z.El resultado será obviamente x → (z → x + z), (igual a la x → (y → x + y)) pues la función identidad siempredevuelve lo mismo que se le da.En el cálculo lambda, las funciones están definidas por expresiones lambda, que dicen qué se hace con su argumento.Por ejemplo, la función "sumar 2",  f(x) = x + 2  se expresa en cálculo lambda así:  λ x. x + 2  (o,equivalentemente,  λ y. y + 2 ya que el nombre de su argumento no es importante). Y el número f(3) seríaescrito como  (λ x. x + 2) 3. La aplicación de funciones es asociativa a izquierda:  f x y = (f x) y. Considerando la función que aplica una función al número 3: λ f. f 3. , podemos pasarle "sumar 2", quedandoasí:  (λ f. f 3) (λ x. x + 2).Las tres expresiones:

(λ f. f 3)(λ x. x + 2)   ,    (λ x. x + 2) 3    y    3 + 2   son equivalentes.No todas las expresiones lambda pueden ser reducidas a un "valor" definido. Considérese la siguiente:

(λ x. x x) (λ x. x x)ó

(λ x. x x x) (λ x. x x x)tratar de reducir estas expresiones sólo lleva a encontrase con la misma expresión o algo más complejo.  (λ x. xx)  es conocido como ω combinador;  ((λ x. x x) (λ x. x x))  se conoce como Ω,  ((λ x. x xx) (λ x. x x x))  como Ω2, etc.

Definición formal

SintaxisEn el cálculo lambda, una expresión o término se define recursivamente a través de las siguientes reglas deformación:1. Toda variable es un término: x, y, z, u, v, w, x

1, x

2, y

9,...

2. Si t es un término y x es una variable, entonces (λx.t) es un término (llamado una abstracción lambda).3. Si t y s son términos, entonces (ts) es un término (llamado una aplicación lambda).4.4. Nada más es un término.Según estas reglas de formación, las siguientes cadenas de caracteres son términos:

x

(xy)

(((xz)y)x)

(λx.x)

Cálculo lambda 149

((λx.x)y)

(λz.(λx.y))

((x(λz.z))z)

Por convención se suelen omitir los paréntesis externos, ya que no cumplen ninguna función de desambiguación. Porejemplo se escribe (λz.z)z en vez de ((λz.z)z), y se escribe x(y(zx)) en vez de (x(y(zx))). Ademásse suele adoptar la convención de que la aplicación de funciones es asociativa hacia la izquierda. Esto quiere decir,por ejemplo, que xyzz debe entenderse como (((xy)z)z), y que (λz.z)yzx debe entenderse como((((λz.z)y)z)x).Las primeras dos reglas generan funciones, mientras que la última describe la aplicación de una función a unargumento. Una abstracción lambda λx.t representa una función anónima que toma un único argumento, y se diceque el signo λ liga la variable x en el término t. En cambio, una aplicación lambda ts representa la aplicación deun argumento s a una función t. Por ejemplo, λx.x representa la función identidad x → x, y (λx.x)yrepresenta la función identidad aplicada a y. Luego, λx.y representa la función constante x → y, que develve ysin importar qué argumento se le dé.Las expresiones lambda no son muy interesantes por sí mismas. Lo que las hace interesantes son las muchasnociones de equivalencia y reducción que pueden ser definidas sobre ellas.

Variables libres y ligadasLas apariciones (ocurrencias) de variables en una expresión son de tres tipos:1.1. Ocurrencias de ligadura (binders)2.2. Ocurrencias ligadas (bound occurrences)3.3. Ocurrencias libres (free occurrences)Las variables de ligadura son aquellas que están entre el λ y el punto. Por ejemplo, siendo E una expresión lambda:(λ x y z. E) Las ligaduras son x,y y z.La ligadura de ocurrencias de una variable está definido recursivamente sobre la estructura de las expresioneslambda, de esta manera:1. En expresiones de la forma  V,  donde V es una variable, V es una ocurrencia libre.2. En expresiones de la forma  λ V. E,  las ocurrencias son libres en E salvo aquellas de V. En este caso las V

en E se dicen ligadas por el λ antes V.3. En expresiones de la forma  (E E′),  las ocurrencias libres son aquellas ocurrencias de E y E′.Expresiones lambda tales como  λ x. (x y)  no definen funciones porque las ocurrencias de y están libres. Sila expresión no tiene variables libres, se dice que es cerrada.Como se permite la repetición del identificador de variables, cada binding tiene una zona de alcance asociada (scopede ahora en adelante) Un ejemplo típico es:  (λx.x(λx.x))x, donde el scope del binding más a la derecha afectasólo a la x que tiene ahí, la situación del otro binding es análoga, pero no incluye el scope de la primera. Por últimola x más a la derecha está libre. Por lo tanto, esa expresión puede reexpresarse así  (λy.y(λz.z))x

α-conversiónLa regla de alfa-conversión fue pensada para expresar la idea siguiente: los nombres de las variables ligadas no sonimportantes. Por ejemplo  λx.x  y  λy.y  son la misma función. Sin embargo, esta regla no es tan simple comoparece a primera vista. Hay algunas restricciones que hay que cumplir antes de cambiar el nombre de una variablepor otra. Por ejemplo, si reemplazamos x por y en λx.λy.x, obtenemos λy.λy.y, que claramente, no es la mismafunción. Este fenómemo se conoce como captura de variables.La regla de alfa-conversión establece que si V y W son variables, E es una expresión lambda, y

Cálculo lambda 150

E[V := W]

representa la expresión E con todas las ocurrencias libres de V en E reemplazadas con W, entoncesλ V. E  ==  λ W. E[V := W]

si W no está libre en E y W no está ligada a un λ donde se haya reemplazado a V. Esta regla nos dice, por ejemplo,que  λ x. (λ x. x) x  es equivalente a  λ y. (λ x. x) y.En un ejemplo de otro tipo, se ve quefor (int i = 0; i < max; i++) { proc (i); }

es equivalente afor (int j = 0; j < max; j++) { proc (j); }

β-reducciónLa regla de beta reducción expresa la idea de la aplicación funcional. Enuncia que

((λ V. E) E′)  ==  E[V := E′]si todas las ocurrencias de E′ están libres en E[V := E′].Una expresión de la forma ((λ V. E) E′) es llamada un beta redex. Una lambda expresión que no admiteninguna beta reducción se dice que está en su forma normal. No toda expresión lambda tiene forma normal, pero siexiste, es única. Más aún, existe un algoritmo para computar la formal normal: la reducción de orden normal. Laejecución de este algoritmo termina si y sólo si la expresión lambda tiene forma normal. El teorema deChurch-Rosser nos dice que dos expresiones reducen a una misma si y sólo si son equivalentes (salvo por el nombrede sus variables ligadas)

η-conversiónEs la tercer regla, esta conversión, que podría ser añadida a las dos anteriores para formar una nueva relación deequivalencia. La eta conversión expresa la idea de extensionalidad, que en este contexto implica que dos funcionesson la misma si y solo si dan el mismo resultado para cualquier argumento. La eta conversión convierte entre  λx. f x  y  f  siempre que x no aparezca sola en f. Esto puede ser entendido como equivalente a la extensionalidadasí:Si f y g son extensionalmente equivalentes, es decir, si  f a== g a  para cualquier expresión lambda aentonces, en particular tomando a como una variable x que no aparece sola en f ni en g, tenemos que  f x == g x  y por tanto  λ x. f x ==  λ x. g x,  y así por eta conversión  f  == g.  Entonces, si aceptamos laeta conversión como válida, resulta que la extensionalidad es válida.Inversamente, si aceptamos la extensionalidad como válida entonces, dado que por beta reducción de todo ytenemos que  (λ x. f x) y ==  f y,  resulta que  λ x. f x   ==  f;  es decir, descubrimos que la etaconversión es válida.

Cálculo lambda 151

Cálculos aritmeticos con lambdaHay varias formas posibles de definir los números naturales en el cálculo lambda, pero el más común son losnúmeros de Church, que pueden definirse como sigue:

0 := λ f x. x1 := λ f x. f x2 := λ f x. f (f x)3 := λ f x. f (f (f x))

y así sucesivamente. Instintivamente el número n en el cálculo lambda es una función que toma a otra función fcomo argumento y devuelve la n-ava composición de f. Así que, un número de Church es una función de alto nivel-- toma una única función f como parámetro y otra función de parámetro único.(Véase que en el cálculo original lambda de Church era obligatorio que el parámetro formal de la expresión lambdaapareciera al menos una vez en el cuerpo de la función, lo que hace imposible definir el 0.) Dada esta definición delos números de Church, se puede establecer una función de sucesión que dado un número n devuelve n + 1:

SUCC := λ n f x. f ((n f) x)La suma se define así:

PLUS := λ m n f x. n f (m f x)PLUS puede entenderse como una función que toma dos números naturales como parámetros devolviendo otro;puede verificarse que

PLUS 2 3    and    5son expresiones lambda equivalentes. La Multiplicación se expresa como

MULT := λ m n. m (PLUS n) 0,la idea es que multiplicar m y n es lo mismo que sumar m veces a n. De otra manera:

MULT := λ m n f. m (n f)La función Predecesor  PRED n = n - 1  de un entero positivo n es más compleja:

PRED := λ n f x. n (λ g h. h (g f)) (λ u. x) (λ u. u) o alternativamente

PRED := λ n. n (λ g k. (g 1) (λ u. PLUS (g k) 1) k) (λ v. 0) 0Véase que el truco consiste en que (g 1) (λ u. PLUS (g k) 1) k que devuelve k si el valor de g(1) escero o g(k) + 1 en cualquier otro caso.

Lógica y predicadosPara poder llegar a una definición de booleanos en cálculo lambda, se comienza con su especificación: TRUE,FALSE y ifthenelse deben ser λ-expresiones en forma normal, tal que para todo par de λ-expresiones P y Q

(ifthenelse FALSE P Q) →β Q(ifthenelse TRUE P Q) →β P

Cualquier par de expresiones que cumplan esto sirve. La solución más simple resulta de fijar ifthenelse comoλb.λx.λy. b x y, dejando que todo el trabajo de aplicar los booleanos recaiga sobre TRUE y FALSE, entonces:

(ifthenelse TRUE) →β (λx.λy.x)(ifthenelse FALSE) →β (λx.λy.y)

Quedando:TRUE := λ x y. x

Cálculo lambda 152

FALSE := λ x y. yLos booleanos (como era de esperarse) también son funciones. Es fácil ver que es posible cambiar la λ-expresiónifthenelse para que aplique los parámetros en orden inverso, cambiando la forma de TRUE y FALSE. Por eso, seadapta, por convención, de esta manera. (conocida como booleanos de Church) Nótese que FALSE es equivalente alnúmero de Church cero.Luego, con estas dos definiciones podemos definir algunos operadores lógicos:

AND := λ p q. p q FALSEOR := λ p q. p TRUE qNOT := λ p. p FALSE TRUE

Ahora podemos reducir, por ejemplo:AND TRUE FALSE

≡ (λ p q. p q FALSE) TRUE FALSE →β TRUE FALSE FALSE

≡ (λ x y. x) FALSE FALSE →β FALSEy vemos que AND TRUE FALSE es equivalente a FALSE.Un predicado es una función que devuelve un valor booleano. El predicado más simple es ISZERO el cual nosdevuelve TRUE si el número de Church argumento es 0 o FALSE en otro caso.

ISZERO := λ n. n (λ x. FALSE) TRUE

Por supuesto, esta definición nos sirve sólo para los números naturales definidos previamente.

ParesUn par (2-tupla) puede ser definido en términos de TRUE y FALSE.

CONS := λf.λs. λb. b f sCAR := λp. p TRUE

CDR := λp. p FALSE

NIL := λx.TRUE

NULL := λp. p (λx y.FALSE)

Una estructura de datos del tipo lista enlazada puede ser definida, tanto como NIL para la lista vacía, o como elCONS de un elemento y de la lista más pequeña.

RecursiónRecursión es la definición de una función usando la función que se está definiendo. El cálculo lambda no permiteesto. Sin embargo, esta noción es un poco confusa. Considere por ejemplo la definición de la función factorialf(n) definida recursivamente por:

f(n) = 1, if n = 0; and n·f(n-1), if n>0.En el cálculo lambda, no es posible definir funciones que se incluyan a si mismas. Para sortear esta dificultad, secomienza por definir una función, denominada aquí como g, que toma a una función f como argumento y devuelveotra función que toma n como argumento:

g := λ f n. (1, if n = 0; and n·f(n-1), if n>0).La función que devuelve g es o bien la constante 1, o n veces la aplicación de la función f a n-1. Usando elpredicado ISZERO, y las definiciones booleanas y algebraicas anteriores, la función g puede ser definida en elcálculo lambda.

Cálculo lambda 153

Sin embargo, g todavía no es recursiva en si misma; para usar g para crear la función factorial recursiva, la funciónpasada a g como f debe tener unas propiedades específicas. A saber, la función pasada como f debe expandirse ala funcióng llamada con un argumento -- y que el argumento debe ser la función que ha sido pasado como f denuevo.En otras palabras, f debe expandir a g(f). Esta llamada a g expandirá a la siguiente a la función factorial ycalculará otro nivel de recursión. En la expansión la función f aparecerá nuevamente, y nuevamente expandirá ag(f) y continuara la recursión. Este tipo de función, donde f = g(f), es llamada un fixed-point de g, y resultaque puede ser implementado en el cálculo lambda usando lo que es conocido como el paradoxical operator orfixed-point operator y es representado como Y -- el Y combinator:

Y = λ g. (λ x. g (x x)) (λ x. g (x x))En el cálculo lambda, Y g es un punto dijo de g, debido a que expande a g (Y g). Ahora, para completar nuestrallamada recursiva a la función factorial, simplemente llamaría  g (Y g) n,  donde n es el número del cualqueremos calcular el factorial.Dado, por ejemplo n = 5, esta se expandirá como:

(λ n.(1, si n = 0; y n·((Y g)(n-1)), si n>0)) 5

1, si 5 = 0; y 5·(g(Y g)(5-1)), si 5>0

5·(g(Y g) 4)

5·(λ n. (1, si n = 0; y n·((Y g)(n-1)), si n>0) 4)

5·(1, si 4 = 0; y 4·(g(Y g)(4-1)), si 4>0)

5·(4·(g(Y g) 3))

5·(4·(λ n. (1, si n = 0; y n·((Y g)(n-1)), si n>0) 3))

5·(4·(1, if 3 = 0; y 3·(g(Y g)(3-1)), si 3>0))

5·(4·(3·(g(Y g) 2)))

...

Y así, se va evaluando la estructura del algoritmo de forma recursiva. Cada función recursiva definida puede ser vistacomo un punto fijo de otra función adecuada, y por lo tanto, utilizando Y, cada función recursiva definida puedeexpresarse como una expresión lambda. En particular, ahora podemos definir limpiamente la resta, la multiplicacióny la comparación de predicado de los números naturales de forma recursiva.

Funciones computables y el cálculo lambdaUna función F: N → N de números naturales es una función computable si y sólo si existe una expresión lambdaf tal que para todo par de x, y in N,  F(x) = y  si y sólo si  f x == y,  donde x e y son numerales de Churchcorrespondientes a x e y, respectivamente. Esta sólo es una de tantas maneras de definir computabilidad; véase tesisde Church-Turing para una discusión, otras aproximaciones y sus equivalencias.

Indecisión de equivalenciaNo hay un algoritmo que tome dos expresiones lambda y produzca TRUE o FALSE dependiendo de si las dosexpresiones son o no equivalentes. Este fue históricamente el primer problema para el cual la irresolubilidad pudoser probada. Por supuesto, de manera previa para hacer esto, la noción de algoritmo tuvo que ser definida de formaclara; Church la definió usando funciones recursivas, la cual se sabe que es equivalente a todas las otras definicionesrazonables de esta noción.La primera prueba de Church reduce el problema de determinar si una expresión lambda dada tiene una forma normal. Una forma normal es una expresión equivalente irreductible. Entonces se asume que este predicado es

Cálculo lambda 154

computable y que puede ser expresado de aquí en adelante en notación de cálculo lambda. Basándose en un trabajoprevio de Kleene y construyendo una numeración de Gödel para expresiones lambda, Church construyó unaexpresión lambda e que seguía la prueba del teorema de incompletitud de Gödel. Si e se aplica a su propio númeroGödel, se produce una contradicción.

Cálculo lambda y los lenguajes de programaciónComo lo menciona Peter Landin en su libro clásico Correspondencia entre ALGOL 60 y el cálculo lambda deChurch [1], la mayoría de los lenguajes de programación tienen sus raíces en el cálculo lambda, lo que provee losmecanismos básicos para las abstracciones de procedimiento y abstracciones de aplicaciones (subprogramas).La implementación del cálculo lambda en una computadora involucra tratar a las "funciones" como objetos deprimera clase, lo que aumenta la complejidad de su implementación. Un problema particularmente difícil es laimplementación de funciones de orden superior, conocido como el problema de Funarg.Las contrapartes más prominentes del cálculo lambda en programación son los lenguajes de programación funcional,que esencialmente implmenta el cálculo aumentado con algunas constantes y tipos de dato.Los lenguajes funcionales no son los únicos que soportan las funciones como objetos de primera clase. Muchoslenguajes de programación imperativa, como Pascal (lenguaje de programación), hace tiempo que permiten pasarsubprogramas como argumentos a otros subprogramas. En C (lenguaje de programación) y su derivado C++ elresultado equivalente se obtiene pasando punteros al código de las funciones (subprogramas). Estos mecanismosestán limitados a subprogramas escritos explícitamente en el código, y no soportan directamente funciones de altonivel. Some imperative object-oriented languages have notations that represent functions of any order; suchmechanisms are available in C++, Smalltalk and more recently in Eiffel ("agents") and C# ("delegates"). As anexample, the Eiffel "inline agent" expression

agent (x: REAL): REAL do Result := x * x end

denotes an object corresponding to the lambda expression λ x. x*x (with call by value). It can be treated like anyother expression, e.g. assigned to a variable or passed around to routines. If the value of square is the above agentexpression, then the result of applying square to a value a (β-reduction) is expressed as square.item ([a]), where theargument is passed as a tuple.Un ejemplo en Python usa la forma lambda [2] de funciones:

func = lambda x: x * x

Lo anterior crea una función anónima llamada func que puede ser pasada como parámetros a otras funciones, seralmacenada en variables, etc. Python can also treat any other function created with the standard def [3] statement asfirst-class objects.Lo mismo se aplica para la siguiente expresión en Smalltalk:

[ :x | x * x ]

This is first-class object (block closure), which can be stored in variables, passed as arguments, etc.Un ejemplo similar en C++ (usando la biblioteca Boost.Lambda):

for_each(v.begin(), v.end(), cout << _1 * _1 << endl;);

Here the standard library function for_each iterates over all members of the vector (or list) v, and prints the squareof each element. The _1 notation is Boost.Lambda's convention for representing the placeholder element, representedas x elsewhere.

Cálculo lambda 155

A simple c# delegate taking a variable and returning the square. This function variable can then be passed to othermethods (or function delegates)

//Declare a delegate signature

delegate double MathDelegate (double i);

//Create an delegate instance

MathDelegate f = delegate (double i) { return Math.Pow (i, 2); };

//Passing 'f' function variable to another method, executing,

// and returning the result of the function

double Execute (MathDelegate func)

{

return func(100);

}

Concurrencia y paralelismoLa propiedad Church-Rosser del cálculo lambda significa que la evaluación (reducción-β) puede ser llevada a caboen "cualquier orden", incluso al mismo tiempo (de hecho, el cálculo lambda es de transpariencia referencial).Aunque esto significa que el cálculo lambda puede crear un modelo de diversas estrategias de evaluación nodeterministas, no ofrece ninguna noción acerca de la computación paralela, ni expresa ningún lenguaje deprogramación simultáneo (o concurrente). Procesadores de cálculo tales como el CSP, CSS, el Cálculo-π y elCálculo ambiente han sido diseñados para tales propósitos.A pesar de que el cálculo lambda no determinista es capaz de expresar cualquier "función" parcial recursiva, no escapaz de expresar cualquier "computación". Por ejemplo, no es capaz de expresar no-determinismos infinitos (comocualquier expresión lamba no determinista que termine; terminará en un número finito de expresiones). Sin embargo,hay programas concurrentes que garantizan la interrupción de ese término en un número infinito de estados [Clinger1981, Hewitt 2006].

Referencias• Abelson, Harold & Gerald Jay Sussman. Structure and Interpretation of Computer Programs. The MIT Press.

ISBN 0-262-51087-1.• Barendregt, Henk, The lambda calculus, its syntax and semantics [4], North-Holland (1984), is the comprehensive

reference on the (untyped) lambda calculus; see also the paper Introduction to Lambda Calculus [5].• Barendregt, Henk, The Type Free Lambda Calculus pp1091-1132 of Handbook of Mathematical Logic,

North-Holland (1977) ISBN 0-7204-2285-X• Church, Alonzo, An unsolvable problem of elementary number theory, American Journal of Mathematics, 58

(1936), pp. 345–363. This paper contains the proof that the equivalence of lambda expressions is in general notdecidable.

• Clinger, William, Foundations of Actor Semantics. MIT Mathematics Doctoral Dissertation, June 1981.• Punit, Gupta, Amit & Ashutosh Agte, Untyped lambda-calculus, alpha-, beta- and eta- reductions and recursion• Henz, Martin, The Lambda Calculus. Formally correct development of the Lambda calculus.• Hewitt, Carl, What is Commitment? Physical, Organizational, and Social [6] COIN@AAMAS. April 27, 2006.• Kleene, Stephen, A theory of positive integers in formal logic, American Journal of Mathematics, 57 (1935), pp.

153–173 and 219–244. Contains the lambda calculus definitions of several familiar functions.• Landin, Peter, A Correspondence Between ALGOL 60 and Church's Lambda-Notation, Communications of the

ACM, vol. 8, no. 2 (1965), pages 89-101. Available from the ACM site [1]. A classic paper highlighting theimportance of lambda-calculus as a basis for programming languages.

Cálculo lambda 156

• Larson, Jim, An Introduction to Lambda Calculus and Scheme [7]. A gentle introduction for programmers.Some parts of this article are based on material from FOLDOC, used with permission.

Enlaces externos• L. Allison, Algunos ejemplos ejecutables de cálculo-λ [8] (en inglés)• Chris Barker, Lambda tutorial [9] Some executable (Javascript) Ejemplos simples, con anotaciones. (en inglés)• Georg P. Loczewski, The Lambda Calculus and A++ [10]

• Raúl Rojas, A Tutorial Introduction to the Lambda Calculus [11] -(PDF)• David C. Keenan, To Dissect a Mockingbird: A Graphical Notation for the Lambda Calculus with Animated

Reduction [12]

• Bret Victor, Alligator Eggs: A Puzzle Game Based on Lambda Calculus [13]

• Miguel Angel Jimenez Santana, Lambda Calculus Graphical Interpreter [14]

Referencias[1] http:/ / portal. acm. org/ citation. cfm?id=363749& coll=portal& dl=ACM[2] http:/ / docs. python. org/ ref/ lambdas. html#lambda[3] http:/ / docs. python. org/ ref/ function. html[4] http:/ / www. elsevier. com/ wps/ find/ bookdescription. cws_home/ 501727/ description#description[5] http:/ / citeseer. ist. psu. edu/ barendregt94introduction. html[6] http:/ / www. pcs. usp. br/ ~coin-aamas06/ 10_commitment-43_16pages. pdf[7] http:/ / www. jetcafe. org/ ~jim/ lambda. html[8] http:/ / www. csse. monash. edu. au/ ~lloyd/ tildeFP/ Lambda/ Examples/[9] http:/ / homepages. nyu. edu/ ~cb125/ Lambda/[10] http:/ / www. lambda-bound. com/ book/ lambdacalc/ lcalconl. html[11] http:/ / www. inf. fu-berlin. de/ lehre/ WS03/ alpi/ lambda. pdf[12] http:/ / users. bigpond. net. au/ d. keenan/ Lambda/[13] http:/ / worrydream. com/ AlligatorEggs/[14] http:/ / www. masoftware. es/ descargas/ herramientas. html

Máquina de Post 157

Máquina de PostEn Teoría de la computación y Teoría de la recursión, una máquina de Post, bautizada así en honor de Emil LeonPost, es una autómata determinista con una cola. No hay cinta de lectura separada.Al principio del cómputo, la cadena de entrada x es cargada en la cola. La cadena de entrada es seguida por unsímbolo especial de fin de entrada. Al iniciarse el cómputo, la cola sólo contiene la configuración de entrada. Elprimer símbolo de x está al principio de la cola y el símbolo de final de entrada está luego del último carácter. Unamáquina de transición de Post depende del símbolo al frente de la cola y del estado. Cada transición borrará elsímbolo al principio de la cola. Una transición tiene dos componentes: el próximo estado y una cadena que se insertaal final de la cola. La cadena puede ser vacía.

Referencias•• V.A.Uspensky, "A Post Machine" (in Russian), Moscow, "Nauka", 1979.

Enlace externo• Simulación de Máquinas de Post [1] Deterministas y no determinista (software libre).

Referencias[1] http:/ / semillon. wpi. edu/ ~aofa/ AofA/ msg00021. html

Teoría de la computabilidad

VEB Robotron Elektronik Dresden.

La Teoría de la computabilidad es la parte de la computación queestudia los problemas de decisión que pueden ser resueltos con unalgoritmo o equivalentemente con una máquina de Turing. La teoría dela computabilidad se interesa a cuatro preguntas:

•• ¿Qué problemas puede resolver una máquina de Turing?•• ¿Qué otros formalismos equivalen a las máquinas de Turing?•• ¿Qué problemas requieren máquinas más poderosas?•• ¿Qué problemas requieren máquinas menos poderosas?La teoría de la complejidad computacional clasifica las funcionescomputables según el uso que hacen de diversos recursos en diversostipos de máquina.

AntecedentesEl origen de los modelos abstractos de computación se encuadra en los años '30 (antes de que existieran losordenadores modernos), para el trabajo de los lógicos Alonzo Church, Kurt Gödel, Stephen Kleene, Emil Leon Post,y Alan Turing. Estos trabajos iniciales han tenido una profunda influencia, tanto en el desarrollo teórico como enabundantes aspectos de la práctica de la computación; previendo incluso la existencia de ordenadores de propósitogeneral, la posibilidad de interpretar programas, la dualidad entre software y hardware, y la representación delenguajes por estructuras formales basados en reglas de producción.El punto inicial de estos primeros trabajos fueron las cuestiones fundamentales que David Hilbert formuló en 1900,durante el transcurso de un congreso internacional.

Teoría de la computabilidad 158

Lo que Hilbert pretendía era crear un sistema matemático formal completo y consistente en el cual, todas lasaseveraciones fueran planteadas con precisión. Su intención era encontrar un algoritmo que determinara la verdad ofalsedad de cualquier proposición en el sistema formal. Al problema en cuestión se le denominóEntscheidungsproblem. En caso de que Hilbert hubiese cumplido su objetivo, cualquier problema bien definido seresolvería simplemente al ejecutar dicho algoritmo.Pero fueron otros los que mediante una serie de investigaciones mostraron que esto no era posible. En contra de estaidea K. Gödel sacó a la luz su conocido Primer Teorema de Incompletitud. Este viene a expresar que todo sistema deprimer orden consistente que contenga los teoremas de la aritmética y cuyo conjunto de axiomas sea recursivo no escompleto. Gödel construyó una fórmula que es satisfactoria pero que no puede ser probada en el sistema. Comoconsecuencia, no es posible encontrar el sistema formal deseado por Hilbert en el marco de la lógica de primerorden, a no ser que se tome un conjunto no recursivo de axiomas.Una posterior versión, que resulta más general, del teorema de incompletitud de Gödel, indica que ningún sistemadeductivo que contenga los teoremas de la aritmética, y con los axiomas recursivamente enumerables puede serconsistente y completo a la vez. Esto hace pensar, a nivel intuitivo, que no va a ser posible definir un sistema formal.

¿Qué problemas puede resolver una máquina de Turing?No todos los problemas pueden ser resueltos. Un problema indecidible es uno que no puede ser resuelto con unalgoritmo aún si se dispone de espacio y tiempo ilimitado. Actualmente se conocen muchos problemas indecidibles,como por ejemplo:• El Entscheidungsproblem (problema de decisión en alemán) que se define como: Dada una frase del cálculo de

predicados de primer orden, decidir si ella es un teorema. Church y Turing demostraron independientemente queeste problema es indecidible (ver Tesis de Church-Turing).

• El Problema de la parada, que se define así: Dado un programa y su entrada, decidir si ese programa terminarápara esa entrada o si correrá indefinidamente. Turing demostró que se trata de un problema indecidible.

• Un número computable es un número real que puede ser aproximado por un algoritmo con un nivel de exactitudarbitrario. Turing demostró que casi todos los números no son computables. Por ejemplo, la Constante de Chaitinno es computable aunque sí que está bien definido.

¿Qué otros formalismos equivalen a las máquinas de Turing?Los lenguajes formales que son aceptados por una máquina de Turing son exactamente aquellos que pueden sergenerados por una gramática formal. El cálculo Lambda es una forma de definir funciones. Las funciones quepueden ser computadas con el cálculo Lambda son exactamente aquellas que pueden ser computadas con unamáquina de Turing. Estos tres formalismos, las máquinas de Turing, los lenguajes formales y el cálculo Lambda sonformalismos muy disímiles y fueron desarrollados por diferentes personas. Sin embargo, todos ellos son equivalentesy tienen el mismo poder de expresión. Generalmente se toma esta notable coincidencia como evidencia de que latesis de Church-Turing es cierta, que la afirmación de que la noción intuitiva de algoritmo o procedimiento efectivode cómputo corresponde a la noción de cómputo en una máquina de Turing.Los computadores electrónicos, basados en la arquitectura de von Neumann así como las máquinas cuánticastendrían exactamente el mismo poder de expresión que el de una máquina de Turing si dispusieran de recursosilimitados de tiempo y espacio. Como consecuencia, los lenguajes de programación tienen a lo sumo el mismo poderde expresión que el de los programas para una máquina de Turing y en la práctica no todos lo alcanzan. Loslenguajes con poder de expresión equivalente al de una máquina de Turing se denominan Turing completos.Entre los formalismos equivalentes a una máquina de Turing están:•• Máquinas de Turing con varias cintas• Máquinas de Turing con cintas bidimensionales, Turmite (o una infinidad de cintas lineales)

Teoría de la computabilidad 159

•• Máquinas de Turing con número limitado de estados y símbolos para la cinta•• Máquinas de Turing con solo dos estados• Autómatas finitos con dos pilas•• Autómatas finitos con dos contadores•• Gramáticas formales•• Máquina de Post•• Cálculo Lambda•• Funciones recursivas parciales• Casi todos los lenguajes de programación modernos si dispusieran de memoria ilimitada•• Autómatas celulares• El Juego de la vida de John Conway•• Máquinas de Turing no determinísticas•• Máquinas de Turing probabilísticas•• Computador cuánticoLos últimos tres ejemplos utilizan una definición ligeramente diferente de aceptación de un lenguaje. Ellas aceptanuna palabra si cualquiera, cómputo acepta (en el caso de no determinismo), o la mayoría de los cómputos aceptan(para las versiones probabilística y cuántica). Con estas definiciones, estas máquinas tienen el mismo poder deexpresión que una máquina de Turing.

¿Qué problemas requieren máquinas más poderosas?Se considera que algunas máquinas tienen mayor poder que las máquinas de Turing. Por ejemplo, una máquinaoráculo que utiliza una caja negra que puede calcular una función particular que no es calculable con una máquina deTuring. La fuerza de cómputo de una máquina oráculo viene descrita por su grado de Turing. La teoría de cómputosreales estudia máquinas con precisión absoluta en los números reales. Dentro de esta teoría, es posible demostrarafirmaciones interesantes, tales como «el complemento de un conjunto de Mandelbrot es solo parcialmentedecidible».

Teoría de la complejidad computacional 160

Teoría de la complejidad computacionalLa teoría de la complejidad computacional es la rama de la teoría de la computación que estudia, de manerateórica, la complejidad inherente a la resolución de un problema computable. Los recursos comúnmente estudiadosson el tiempo (mediante una aproximación al número y tipo de pasos de ejecución de un algoritmo para resolver unproblema) y el espacio (mediante una aproximación a la cantidad de memoria utilizada para resolver un problema).Se pueden estudiar igualmente otros parámetros, tales como el número de procesadores necesarios para resolver elproblema en paralelo. La teoría de la complejidad difiere de la teoría de la computabilidad en que ésta se ocupa de lafactibilidad de expresar problemas como algoritmos efectivos sin tomar en cuenta los recursos necesarios para ello.Los problemas que tienen una solución con orden de complejidad lineal son los problemas que se resuelven en untiempo que se relaciona linealmente con su tamaño.Hoy en día las computadoras resuelven problemas mediante algoritmos que tienen como máximo una complejidad ocoste computacional polinómico, es decir, la relación entre el tamaño del problema y su tiempo de ejecución espolinómica. Éstos son problemas agrupados en la clase P. Los problemas que no pueden ser resueltos por nuestrascomputadoras (las cuales son Máquinas Determinísticas), que en general poseen costes factorial o combinatorio peroque podrían ser procesados por una máquina no-determinista, están agrupados en la clase NP. Estos problemas notienen una solución práctica, es decir, una máquina determinística (como una computadora actual) no puederesolverlos en un tiempo razonable.

Presentación

Un problema dado puede verse como unconjunto de preguntas relacionadas, donde cadapregunta se representa por una cadena decaracteres de tamaño finito. Por ejemplo, elproblema factorización entera se describe como:Dado un entero escrito en notación binaria,retornar todos los factores primos de ese número.Una pregunta sobre un entero específico se llamauna instancia. por ejemplo, "Encontrar losfactores primos del número 15" es una instanciadel problema factorización entera.

La complejidad temporal de un problema es elnúmero de pasos que toma resolver una instancia de un problema, a partir del tamaño de la entrada utilizando elalgoritmo más eficiente a disposición. Intuitivamente, si se toma una instancia con entrada de longitud n que puederesolverse en n² pasos, se dice que ese problema tiene una complejidad en tiempo de n². Por supuesto, el númeroexacto de pasos depende de la máquina en la que se implementa, del lenguaje utilizado y de otros factores. Para notener que hablar del costo exacto de un cálculo se utiliza la notación O. Cuando un problema tiene costo en tiempoO(n²) en una configuración de computador y lenguaje dado, este costo será el mismo en todos los computadores, demanera que esta notación generaliza la noción de coste independientemente del equipo utilizado.

Teoría de la complejidad computacional 161

Ejemplos• Extraer cualquier elemento de un vector. La indexación en un vector o array lleva el mismo tiempo sea cual fuere

el índice que se quiera buscar, por tanto es una operación de complejidad constante O(1).• Buscar en un diccionario tiene complejidad logarítmica. Se puede iniciar la búsqueda de una palabra por la mitad

del diccionario. Inmediatamente se sabe si se ha encontrado la palabra o, en el caso contrario, en cuál de las dosmitades hay que repetir el proceso (es un proceso recursivo) hasta llegar al resultado. En cada (sub)búsqueda elproblema (las páginas en las que la palabra puede estar) se ha reducido a la mitad, lo que se corresponde con lafunción logarítmica. Este procedimiento de búsqueda (conocido como búsqueda binaria) en una estructuraordenada tiene complejidad logarítmica O(log2 n).

• El proceso más común para ordenar un conjunto de elementos tiene complejidad cuadrática. El procedimientoconsiste en crear una colección vacía de elementos. A ella se añade, en orden, el menor elemento del conjuntooriginal que aún no haya sido elegido, lo que implica hacer un recorrido completo del conjunto original (O(n),siendo n el número de elementos del conjunto). Este recorrido sobre el conjunto original se realiza hasta que todossus elementos están en la secuencia de resultado. Se puede ver que hay que hacer n selecciones (se ordena todo elconjunto) cada una con un coste n de ejecución: el procedimiento es de orden cuadrático O(n²). Hay que aclararque hay diversos algoritmos de ordenación con mejores resultados.

Problemas de decisiónLa mayor parte de los problemas en teoría de la complejidad tienen que ver con los problemas de decisión, quecorresponden a poder dar una respuesta positiva o negativa a un problema dado. Por ejemplo, el problemaES-PRIMO se puede describir como: Dado un entero, responder si ese número es primo o no. Un problema dedecisión es equivalente a un lenguaje formal, que es un conjunto de palabras de longitud finita en un lenguaje dado.Para un problema de decisión dado, el lenguaje equivalente es el conjunto de entradas para el cual la respuesta espositiva.Los problemas de decisión son importantes porque casi todo problema puede ser transformado en un problema dedecisión. Por ejemplo el problema CONTIENE-FACTORES descrito como: Dados dos enteros n y k, decidir si ntiene algún factor menor que k. Si se puede resolver CONTIENE-FACTORES con una cierta cantidad de recursos, susolución se puede utilizar para resolver FACTORIZAR con los mismos recursos, realizando una búsqueda binariasobre k hasta encontrar el más pequeño factor de n, luego se divide ese factor y se repite el proceso hasta encontrartodos los factores.En teoría de la complejidad, generalmente se distingue entre soluciones positivas o negativas. Por ejemplo, elconjunto P se define como el conjunto de los problemas en donde las respuestas positivas pueden ser verificadasmuy rápidamente (es decir, en tiempo polinómico). El conjunto Co-P es el conjunto de problemas donde lasrespuestas negativas pueden ser verificadas rápidamente. El prefijo "Co" abrevia "complemento". El complementode un problema es aquel en donde las respuestas positivas y negativas están intercambiadas, como entreES-COMPUESTO y ES-PRIMO.Un resultado importante en teoría de la complejidad es el hecho de que independientemente de la dificultad de unproblema (es decir de cuántos recursos de espacio y tiempo necesita), siempre habrá problemas más difíciles. Esto lodetermina en el caso de los costes en tiempo el teorema de la jerarquía temporal. De éste se deriva también unteorema similar con respecto al espacio.

Teoría de la complejidad computacional 162

Clases de complejidadLos problemas de decisión se clasifican en conjuntos de complejidad comparable llamados clases de complejidad.La clase de complejidad P es el conjunto de los problemas de decisión que pueden ser resueltos en una máquinadeterminista en tiempo polinómico, lo que corresponde intuitivamente a problemas que pueden ser resueltos aún enel peor de sus casos.La clase de complejidad NP es el conjunto de los problemas de decisión que pueden ser resueltos por una máquinano determinista en tiempo polinómico. Esta clase contiene muchos problemas que se desean resolver en la práctica,incluyendo el problema de satisfacibilidad booleana y el problema del viajante, un camino Hamiltoniano pararecorrer todos los vértices una sola vez. Todos los problemas de esta clase tienen la propiedad de que su soluciónpuede ser verificada efectivamente.

La pregunta P=NPEl saber si las clases P y NP son iguales es el más importante problema abierto en Computación teórica. Incluso hayun premio de un millón de dólares para quien lo resuelva.Preguntas como ésta motivan la introducción de los conceptos de hard (difícil) y completo. Un conjunto X deproblemas es hard con respecto a un conjunto de problemas Y ( 'Y' pertenecientes a NP) si X>Y o X=Y, es decir Yse puede escribir como un conjunto de soluciones de los problemas X. En palabras simples, Y es "más sencillo" queX. El término sencillo se define precisamente en cada caso. El conjunto hard más importante es NP-hard. El conjuntoX es completo para Y si es hard para Y y es también un subconjunto de Y (caso X=Y). El conjunto completo másimportante es NP-completo. En otras palabras, los problemas del conjunto NP-completo tienen la característica deque, si se llega a encontrar una solución en tiempo P para algún miembro del conjunto (cualquiera de los problemasde NP-completo), entonces de hecho existe una solución en tiempo P para todos los problemas de NP-completo.

Problemas incompletos en NPOtra pregunta abierta relacionada con el problema P = NP es si existen problemas que estén en NP, pero no en P, queno sean NP-Completos. En otras palabras, problemas que tengan que ser resueltos en tiempo polinomialno-determinista, pero que no puedan ser reducidos a tiempo polinomial desde otros problemas con tiempopolinomial no-determinista. Uno de tales problemas que se sabe que es NP pero no se sabe si es NP-completo, es elproblema de isomorfismo de grafos, un algoritmo que decide si dos grafos son isomorfos (por ejemplo: compartenlas mismas propiedades). Se ha demostrado que si P ≠ NP entonces dicho algoritmo existe.

IntratabilidadLos problemas que pueden ser resueltos en teoría, pero no en práctica, se llaman intratables. Qué se puede y qué noen la práctica es un tema debatible, pero en general sólo los problemas que tienen soluciones de tiempospolinomiales son solubles para más que unos cuantos valores. Entre los problemas intratables se incluyen los deEXPTIME-completo. Si NP no es igual a P, entonces todos los problemas de NP-completo son también intratables.Para ver por qué las soluciones de tiempo exponencial no son útiles en la práctica, se puede considerar un problemaque requiera 2n operaciones para su resolución (n es el tamaño de la fuente de información). Para una fuente deinformación relativamente pequeña, n=100, y asumiendo que una computadora puede llevar a cabo 1010 (10 giga)operaciones por segundo, una solución llevaría cerca de 4*1012 años para completarse, mucho más tiempo que laactual edad del universo.

Teorema de la jerarquía temporal 163

Teorema de la jerarquía temporalEn la teoría de complejidad computacional, los teoremas de jerarquía temporal son declaraciones importantessobre cómputo de tiempo acotado en máquinas de Turing. Informalmente, estos teoremas dicen que con más tiempo,una máquina de Turing puede resolver más problemas. Por ejemplo, hay problemas que pueden ser solucionados entiempo O(n2) pero no en O(n).El teorema de la jerarquía temporal para máquinas de Turing deterministas fue probado por Richard Stearns y JurisHartmanis.[1] Como consecuencia, para cada cada clase de complejidad acotada temporalmente, hay otra clase decomplejidad estrictamente mayor, tal que la jerarquía de acotación temporal para clases de complejidad converja porcompleto. Más concretamente, el teorema de jerarquía temporal para máquinas de Turing deterministas dice que para

toda función computable , : .

El teorema de jerarquía temporal para máquinas de Turing no deterministas fue probado por Stephen Cook.[2] Elteorema de la jerarquía temporal para máquinas de Turing no deterministas dice que si g(n) es una funcióncomputable, y f(n+1) = o(g(n)), entonces

.Los teoremas análogos para espacio son los teoremas de jerarquía espacial. Para el caso de clases de complejidadprobabilística acotada en el tiempo no hay teoremas similares, salvo que la clase tenga también aviso.[3]

IntroducciónAmbos teoremas usan la noción de una función computable. Una función es computable si existe unamáquina de Turing determinista tal que por cada , si la máquina empieza con una entrada de n unos, separará precisamente tras pasos. Todo polinomio con coeficientes de integración no negativos es computable,así como las funciones exponenciales tales como .

Idea de la pruebaNecesitamos probar que alguna clase temporal TIME(g(n)) es estrictamente mayor que otra clase temporalTIME(f(n)). Hacemos esto construyendo una máquina tal que no se pueda dar en IME(f(n)) mediante eldiagonalización. Entonces mostramos que la máquina pertenece a TIME(g(n)), mediante modelado numérico.

Teorema de la jerarquia temporal determinista

Declaración

El teorema declara que: Sea una función computable, entonces existe un problema de decisión el cual nopuede ser resuelto en el peor caso de tiempo determinista pero que puede ser resuelto el el peor caso detiempo determinista . En otras palabras, la clase de complejidad DTIME es un subconjunto estrictode DTIME . Obsérvese que es al menos n, pues funciones más pequeñas no serían computables.

Se puede generalizar que si es computable, entonces es contenida en

. Por ejemplo, hay problemas con solución en tiempo n2 pero no en tiempo n, pues n está en

.

Teorema de la jerarquía temporal 164

Prueba

Teorema de la jerarquía temporal

Fecha de publicación March 2009

Incluimos aquí una prueba de que DTIME(f(n)) es un subconjunto estricto de DTIME(f(2n + 1)3) puesto que es mássencillo. Véase el final de esta sección para encontrar información sobre cómo extender la prueba a f(n)2.Para probarlo, primero definimos el siguiente lenguaje:

Siendo M una máquina de Turing determinista, y x su entrada (el contenido inicial de su cinta). [M] denota unaentrada que codifica la máquina de Turing M. Sea m del tamaño de la tupla ([M], x).Sabemos que podemos determinar la pertenencia de Hf mediante una máquina de turing determinista que primerocalcula f(|x|), y luego escribe una fila de 0s de esa longitud, y que luego usa esa fila de 0s como "reloj" o "contador"para simular M con ese límite de pasos. En cada paso, la máquina simulada necesita mirar a través de la definición deM para decidir cuál será la siguiente acción a tomar. Es seguro decir que eso conlleva como mucho f(m)3

operaciones, por lo que

El resto de la prueba mostrará que

por lo que si sustituimos 2n + 1 for m, tendremos el resultado deseado. Asumamos que Hf es en esa clase decomplejidad temporal, e intentemos llegar a una contradicción.Si Hf está en esta clase de complejidad temporal, significa que podemos construir alguna máquina K la cual, dadauna descripción de máquina [M] y una entrada x, decide si la tupla ([M], x) está en Hf dentro de

.Por consiguiente podremos usar esa K para construir otra máquina, N, la cual tome una descripción de máquina [M]y ejecutes K en la tupla ([M], [M]), y acepte sólo si K rechaza, y rechace si K acepta. Si ahora n es la longitud de laentrada para N, entonces m (la longitud de la entrada para K) es el doble de n más algún símbolo delimitador, por loque m = 2n + 1. Por lo tanto, el tiempo de ejecución de N

Si alimentamos ahora [N] como entrada en la misma N (siendo n la longitud de [N]) y preguntamos si N acepta supropia descripción como entrada, obtenemos:• Si N acepta [N] (la cual sabemos que al menos hace f(n) operaciones), significa que K rechaza ([N], [N]), por lo

que ([N], [N]) no pertenece a Hf, por lo que N no acepta [N] en f(n) pasos. ¡Contradicción!• Si N rechaza [N] (la cual sabemos que al menos hace f(n) operaciones), significa que K acepta ([N], [N]), por lo

que ([N], [N]) pertenece a Hf, por lo que N acepta [N] en f(n) pasos. ¡Contradicción!Por tanto concluímos que la máquina K no existe, de lo cual

Teorema de la jerarquía temporal 165

ExtensiónEl lector se puede haber percatado de que la prueba es sencilla puesto que hemos elegido una simulación de unamáquina de Turing sencilla, para lo cual podemos estar seguros de que

Se ha mostrado[4] que un modelo de simulación más eficiente existe el cual establece que

pero como ese modelo de simulación se ve bastante involucarado, no se incluye aquí.

Teorema de la jerarquía temporal no deterministaSi g(n) es una función computable, y f(n+1) = o(g(n)), existe un problema de decisión el cual no puede sersolucionado en tiempo no determinista f(n) pero sí en tiempo no determinista g(n). En otras palabras, la clase decomplejidad NTIME(f(n)) es un subconjunto estricto de NTIME(g(n)).

ConsecuenciasLos teoremas de jerarquía temporal garantizan que la versión determinista y la no determinista de la jerarquíaexponencial son jerarquías genuinas: en otras palabras P ⊂ EXPTIME ⊂ 2-EXPTIME ⊂ ..., y NP ⊂ NEXPTIME ⊂2-EXPTIME ⊂ ... Por ejemplo, P ⊂ EXPTIME desde

.El teorema también garantiza que hay problemas en P que requieren exponentes arbitrariamente largos para serresueltos; en otras palabras, P no converge a DTIME(nk) para ninguja k constante. Por ejemplo, hay problemassolucionables en tiempo O(n5000) pero no en O(n4999). Este es un argumento contra la tesis de Cobham, laconvención de que P es una clase práctica de algoritmos. Si esa convergecia ocurriese, podríamos deducir que P ≠PSPACE, puesto que un teorema conocido estable ce que DTIME(f(n)) está estrictamente contenido enDSPACE(f(n)).Sin embargo, los teoremas de jerarquía temporal no proporcionan medios para relacionar la complejidad deterministay la no determinista, y tampoco la complejidad espacial y temporal, por lo que no iluminan sobre las grandescuestiones pendientes de la teoría de la complejidad computacional: Si P y NP, NP y PSPACE, PSPACE yEXPTIME, o EXPTIME y NEXPTIME son iguales o no.

Referencias[1] «On the computational complexity of algorithms». Transactions of the American Mathematical Society 117:  pp. 285–306. 1 de mayo de

1965. doi: 10.2307/1994208 (http:/ / dx. doi. org/ 10. 2307/ 1994208). ISSN 00029947 (http:/ / worldcat. org/ issn/ 00029947).[2] Stephen Cook (1972). A hierarchy for nondeterministic time complexity (http:/ / portal. acm. org/ citation. cfm?id=804913). Proceedings of

the fourth annual ACM symposium on Theory of computing, pp. 187–192.[3] Fortnow, L. (2004). Hierarchy Theorems for Probabilistic Polynomial Time.  pp. 316. doi: 10.1109/FOCS.2004.33 (http:/ / dx. doi. org/ 10.

1109/ FOCS. 2004. 33).[4] Luca Trevisan, Notes on Hierarchy Theorems (http:/ / www. cs. berkeley. edu/ ~luca/ cs172/ noteh. pdf), U.C. Berkeley

• Michael Sipser (1997). Introduction to the Theory of Computation. PWS Publishing. ISBN 0-534-94728-X. Páginas310–313 de la sección 9.1: Hierarchy theorems.

• Christos Papadimitriou (1993). Computational Complexity (1a edición). Addison Wesley. ISBN 0-201-53082-1.Sección 7.2: The Hierarchy Theorem, pp. 143–146.

Máquina de Turing 166

Máquina de TuringUna máquina de Turing es un dispositivoque manipula símbolos sobre una tira decinta de acuerdo a una tabla de reglas. Apesar de su simplicidad, una máquina deTuring puede ser adaptada para simular lalógica de cualquier algoritmo decomputador y es particularmente útil en laexplicación de las funciones de un CPUdentro de un computador.

La máquina de "Turing" fue descrita porAlan Turing en 1936,[1] quien la llamó una"(máquina a(utomática)". La máquina deTuring no está diseñada como unatecnología de computación práctica, sinocomo un dispositivo hipotético querepresenta una máquina de computación. Las máquinas de Turing ayudan a los científicos a entender los límites delcálculo mecánico.

Turing dio una definición sucinta del experimento en su ensayo de 1948, "Máquinas inteligentes". Refiriéndose a supublicación de 1936, Turing escribió que la máquina de Turing, aquí llamada una máquina de computación lógica,consistía en:

...una ilimitada capacidad de memoria obtenida en la forma de una cinta infinita marcada con cuadrados, encada uno de los cuales podría imprimirse un símbolo. En cualquier momento hay un símbolo en la máquina;llamado el símbolo leído. La máquina puede alterar el símbolo leído y su comportamiento está en partedeterminado por ese símbolo, pero los símbolos en otros lugares de la cinta no afectan el comportamiento de lamáquina. Sin embargo, la cinta se puede movers hacia adelante y hacia atrás a través de la máquina, siendoesto una de las operaciones elementales de la máquina. Por lo tanto cualquier símbolo en la cinta puede tenerfinalmente una oportunidad.[2] (Turing 1948, p. 61)

Una máquina de Turing que es capaz de simular cualquier otra máquina de Turing es llamada una máquina universalde Turing (UTM, o simplemente una máquina universal). Una definición más matemáticamente orientada, con unasimilar naturaleza "universal", fue presentada por Alonzo Church, cuyo trabajo sobre el cálculo lambda se entrelazacon el de Turing en una formal teoría de la computación conocida como la tesis de Church-Turing. La tesis señalaque las máquinas de Turing de hecho capturan la noción informal de un método eficaz en la lógica y las matemáticasy proporcionan una precisa definición de un algoritmo o 'procedimiento mecánico'.Estudiando sus propiedades abstractas, la máquina de Turing produce muchas perspectivas en las ciencias de lacomputación y en la teoría de la complejidad.

Máquina de Turing 167

Historia

Representación artística de una máquina de Turing.

Alan Turing introdujo el concepto demáquina de Turing en el trabajo Oncomputable numbers, with an application tothe Entscheidungsproblem, publicado por laSociedad Matemática de Londres en 1936,en el que se estudiaba la cuestión planteadapor David Hilbert sobre si las matemáticasson decidibles, es decir, si hay un métododefinido que pueda aplicarse a cualquiersentencia matemática y que nos diga si esasentencia es cierta o no. Turing ideó un modelo formal de computador, la máquina de Turing, y demostró queexistían problemas que una máquina no podía resolver.

Con este aparato extremadamente sencillo es posible realizar cualquier cómputo que un computador digital sea capazde realizar.Mediante este modelo teórico y el análisis de la complejidad de los algoritmos, fue posible la categorización deproblemas computacionales de acuerdo a su comportamiento, apareciendo así, el conjunto de problemasdenominados P y NP, cuyas soluciones pueden encontrarse en tiempo polinómico por máquinas de Turingdeterministas y no deterministas, respectivamente.Precisamente, la tesis de Church-Turing formulada por Alan Turing y Alonzo Church, de forma independiente amediados del siglo XX caracteriza la noción informal de computabilidad con la computación mediante una máquinade Turing.[3]

La idea subyacente es el concepto de que una máquina de Turing puede verse como un autómata ejecutando unprocedimiento efectivo definido formalmente, donde el espacio de memoria de trabajo es ilimitado, pero en unmomento determinado sólo una parte finita es accesible.

Descripción informal

Aquí se muestra el estado interno (q1) dentro del cabezal, y la ilustración describela cinta como siendo infinita y lledada previamente con '0', el símbolo sirviendo

como blanco. El estado completo del sistema (su configuración) consiste del estadointerno, el contenido de las casillas sombreadas incluyendo el blanco leído el

cabezal ("11B") y la posición del cabezal. (Dibujo después de Minsky (1967) p.121).

La máquina de Turing modelamatemáticamente a una máquina que operamecánicamente sobre una cinta. En estacinta hay símbolos que la máquina puedeleer y escribir, uno a la vez, usando uncabezal lector/escritor de cinta. La operaciónestá completamente determinada por unconjunto finito de instrucciones elementalescomo "en el estado 42, si el símbolo visto es0, escribe un 1; Si el símbolo visto es 1,cambia al estado 17; en el estado 17, si elsímbolo visto es 0, escribe un 1 y cambia al estado 6; etc". En el artículo original ("Sobre números computables conuna aplicación al Entscheidungsproblem"), Turing no imagina un mecanismo, sino una

Máquina de Turing 168

Animación de la máquina de Turing

persona a la que él llama la "computadora", quien ejecuta servilmenteestas reglas mecánicas deterministas (o como Turing pone, "de unamanera desganada").

Más precisamente, una máquina de Turing consta de:1. Una cinta que se divide en celdas, una al lado de la otra. Cada celda

contiene un símbolo de algún alfabeto finito. El alfabeto contiene unsímbolo especial llamado blanco (aquí escrito como 'B') y uno omás símbolos adicionales. La cinta se supone que es arbitrariamenteextensible hacia la izquierda y hacia la derecha, es decir, la máquinade Turing siempre es suministrada con tanta cinta como necesitepara su computación. Las celdas que no se hayan escritopreviamente se asumen que están rellenas con el símbolo blanco. Enalgunos modelos la cinta tiene un extremo izquierdo marcado conun símbolo especial; la cinta se extiende o es indefinidamente extensible hacia la derecha.

2. Un cabezal que puede leer y escribir símbolos en la cinta y mover la cinta a la izquierda y a la derecha una (ysólo una) celda a la vez. En algunos modelos el cabezal se muee y la cinta es estacionaria.

3. Un registro de estado que almacena el estado de la máquina de Turing, uno de los estados finitos. Hay unespecial estado inicial con que el registro de estado es iniciado. Turing escribe que estos estados reemplazan el"estado de la mente" en que ordinariamente estaría una persona realizando cálculos.

4. Una tabla finita de instrucciones (llamada ocasionalmente como tabla de acción o función de transición). Lasinstrucciones son usualmente 5-tuplas: qiaj→qi1aj1dk, (a veces 4-tuplas), que, dado el estado (qi) la máquina estáactualmente en y el símbolo (aj) se está leyendo en la cinta (el símbolo actualmente debajo del cabezal) le indica ala máquina hacer lo siguiente en secuencia (para los modelos de 5-tupla):• Borra o escribe un símbolo (reemplazando aj con aj1), y entonces• Mueve el cabezal (que es descrito por dk y puede tener los valores: 'L' para un paso a la izquierda, o 'R' para

uno paso a la derecha, o 'N' para permanecer en el mismo lugar) y luego• Asume el mismo o un nuevo estado como prescrito (ve al estado qi1).

En los modelos de 4-tupla, son especificadas como instrucciones separadas: borrar o escribir un símbolo(aj1) y mover el cabezal a la izquierda o la derecha (dk). Específicamente, la tabla indica a la máquina:(ia) borrar o escribir un símbolo o (ib) mover el cabezal a la izquierda o a la derecha, y luego (ii) asumirel mismo o un nuevo estado, pero no las dos acciones (ia) y (ib) en la misma instrucción. En algunosmodelos, si no hay ninguna entrada en la tabla para la actual combinación de símbolo y estado, lamáquina se detendrá; otros modelos requieren que estén llenas todas las entradas.

Note que cada parte de la máquina — su estado y colecciones de símbolos — y sus acciones — imprimir, borrar,movimiento de la cinta — es finito, discreto y distinguible; es la cantidad potencialmente ilimitada de cinta lo que leda una cantidad ilimitada de espacio de almacenamiento.

Definición formalUna máquina de Turing [4]es un modelo computacional que realiza una lectura/escritura de manera automática sobreuna entrada llamada cinta, generando una salida en esta misma.Este modelo está formado por un alfabeto de entrada y uno de salida, un símbolo especial llamado blanco (normalmente b, o 0), un conjunto de estados finitos y un conjunto de transiciones entre dichos estados. Su funcionamiento se basa en una función de transición, que recibe un estado inicial y una cadena de caracteres (la cinta, la cual puede ser infinita) pertenecientes al alfabeto de entrada. La máquina va leyendo una celda de la cinta en cada paso, borrando el símbolo en el que se encuentra posicionado su cabezal y escribiendo un nuevo símbolo

Máquina de Turing 169

perteneciente al alfabeto de salida, para luego desplazar el cabezal a la izquierda o a la derecha (solo una celda a lavez). Esto se repite según se indique en la función de transición, para finalmente detenerse en un estado final o deaceptación, representando así la salida.Una máquina de Turing con una sola cinta puede definirse como una 7-tupla

donde:[5]

• es un conjunto finito de estados.• es un conjunto finito de símbolos distinto del espacio en blanco, denominado alfabeto de máquina o de

entrada.• es un conjunto finito de símbolos de cinta, denominado alfabeto de cinta ( ).• es el estado inicial.• es un símbolo denominado blanco, y es el único símbolo que se puede repetir un número infinito de veces.• es el conjunto de estados finales de aceptación.• es una función parcial denominada función de transición, donde es un

movimiento a la izquierda y es el movimiento a la derecha.Existen en la literatura un abundante número de definiciones alternativas, pero todas ellas tienen el mismo podercomputacional, por ejemplo se puede añadir el símbolo como símbolo de "no movimiento" en un paso decómputo.

FuncionamientoLa máquina de Turing consta de un cabezal lector/escritor y una cinta infinita en la que el cabezal lee el contenido,borra el contenido anterior y escribe un nuevo valor. Las operaciones que se pueden realizar en esta máquina selimitan a:•• Mover el cabezal lector/escritor hacia la derecha.

Visualización de una máquina de Turing, en la que se ve el cabezal yla cinta que se lee.

•• Mover el cabezal lector/escritor hacia la izquierda.El cómputo se determina a partir de una tabla deestados de la forma:

(estado, valor) (nuevo estado, nuevo valor,dirección)

Esta tabla toma como parámetros el estado actual de lamáquina y el carácter leído de la cinta, dando ladirección para mover el cabezal, el nuevo estado de lamáquina y el valor a escribir en la cinta.La memoria es la cinta de la máquina que se divide en espacios de trabajo denominados celdas, donde se puedenescribir y leer símbolos. Inicialmente todas las celdas contienen un símbolo especial denominado "blanco". Lasinstrucciones que determinan el funcionamiento de la máquina tienen la forma, "si estamos en el estado x leyendo laposición y, donde hay escrito el símbolo z, entonces este símbolo debe ser reemplazado por este otro símbolo, ypasar a leer la celda siguiente, bien a la izquierda o bien a la derecha".La máquina de Turing puede considerarse como un autómata capaz de reconocer lenguajes formales. En ese sentido,es capaz de reconocer los lenguajes recursivamente enumerables, de acuerdo a la jerarquía de Chomsky. Su potenciaes, por tanto, superior a otros tipos de autómatas, como el autómata finito, o el autómata con pila, o igual a otrosmodelos con la misma potencia computacional.

Máquina de Turing 170

Representación como diagrama de estadosLas maquinas de Turing pueden representarse mediante grafos particulares, también llamados diagramas de estadosfinitos, de la siguiente manera:

Esta máquina de Turing está definida sobre el alfabeto , posee el

conjunto de estados , con las transiciones

que se pueden ver. Su estado inicial es y el estado final es , el lenguaje de salidasiendo el símbolo denominado "blanco". Esta máquina

reconoce la expresión regular de la forma con .

•• Los estados se representan comovértices, etiquetados con su nombreen el interior.

• Una transición desde un estado aotro, se representa mediante unaarista dirigida que une a estosvértices, y esta rotulada por símboloque lee el cabezal/símbolo queescribirá el cabezal, movimiento delcabezal.

•• El estado inicial se caracteriza portener una arista que llega a él y queno proviene de ningún otro vértice.

•• El o los estados finales serepresentan mediante vértices queestán encerrados a su vez por otra circunferencia.

Descripción instantánea

Es una secuencia de la forma donde y que escribe el estado de una MT. La cintacontiene la cadena seguida de infinitos blancos. El cabezal señala el primer símbolo de .Por ejemplo, para la máquina de Turing

con las transiciones

La descripción instantánea para la cinta 1011 es:

Ejemplo

Definimos una máquina de Turing sobre el alfabeto , donde 0 representa el símbolo blanco. La máquina comenzarásu proceso situada sobre un símbolo "1" de una serie. La máquina de Turing copiará el número de símbolos "1" queencuentre hasta el primer blanco detrás de dicho símbolo blanco. Es decir, posiciona el cabezal

Máquina de Turing 171

sobre el 1 situado en el extremo izquierdo, doblará el número de símbolos 1, con un 0 en medio. Así, si tenemos laentrada "111" devolverá "1110111", con "1111" devolverá "111101111", y sucesivamente.

El conjunto de estados es y el estado inicial es . La tabla que describe la función detransición es la siguiente:

Estado Símbolo leído Símbolo escrito Mov. Estado sig.

1 0

1 1

0 0

0 1

1 1

1 1

0 0

1 1

0 1

El funcionamiento de una computación de esta máquina puede mostrarse con el siguiente ejemplo (en negrita seresalta la posición de la cabeza lectora/escritora):

Paso Estado Cinta

1 11

2 01

3 010

4 0100

5 0101

6 0101

7 0101

8 1101

9 1001

10 1001

11 10010

12 10011

13 10011

14 10011

15 11011

Parada

La máquina realiza su proceso por medio de un bucle, en el estado inicial , reemplaza el primer 1 con un 0, y pasa al estado , con el que avanza hacia la derecha, saltando los símbolos 1 hasta un 0 (que debe existir), cuando lo encuentra pasa al estado , con este estado avanza saltando los 1 hasta encontrar otro 0 (la primera vez no habrá ningún 1). Una vez en el extremo derecho, añade un 1. Después comienza el proceso de retorno; con vuelve a la izquierda saltando los 1, cuando encuentra un 0 (en el medio de la secuencia), pasa a que continúa a la izquierda saltando los 1 hasta el 0 que se escribió al principio. Se reemplaza de nuevo este 0 por 1, y pasa al símbolo siguiente,

Máquina de Turing 172

si es un 1, se pasa a otra iteración del bucle, pasando al estado s1 de nuevo. Si es un símbolo 0, será el símbolocentral, con lo que la máquina se detiene al haber finalizado el cómputo.

Modificaciones equivalentesUna razón para aceptar la máquina de Turing como un modelo general de cómputo es que el modelo que hemosdefinido anteriormente es equivalente a muchas versiones modificadas que en principio pareciera incrementar elpoder computacional.

Máquina de Turing con movimiento stay o "esperar"La función de transición de la MT sencilla esta definida por

la cual puede ser modificada como

Donde significa "permanecer" o "esperar", es decir no mover el cabezal de lectura/escritura. Por lo tanto,significa que se pasa del estado q al p, se escribe en la celda actual y la cabeza se queda

sobre la celda actual.

Máquina de Turing con cinta infinita a ambos lados

Máquina de Turing con cinta infinita a ambos lados

Esta modificación se denota al igual que una MTsencilla, lo que la hace diferente es que la cinta esinfinita tanto por la derecha como por la izquierda, locual permite realizar transiciones iniciales como

.

Máquina de Turing con cinta multipista

Subdivisión de una celda de la cinta.

Es aquella que mediante la cual cada celda de la cinta de unamáquina sencilla se divide en subceldas. Cada celda es así capazde contener varios símbolos de la cinta. Por ejemplo, la cinta de lafigura tiene cada celda subdividida en tres subceldas.Se dice que esta cinta tiene múltiples pistas puesto que cada celdade esta máquina de Turing contiene múltiples caracteres, elcontenido de las celdas de la cinta puede ser representadomediante n-tuplas ordenadas. Los movimientos que realice estamáquina dependerán de su estado actual y de la n-tupla querepresente el contenido de la celda actual. Cabe mencionar que posee un solo cabezal al igual que una MT sencilla.

Máquina de Turing 173

Máquina de Turing multicinta

Diagrama de una máquina de Turingmulticinta, las flechas indican los

cabezales de lectura/escritura.

Una MT con más de una cinta consiste de un control finito con k cabezaleslectores/escritores y k cintas. Cada cinta es infinita en ambos sentidos. La MTdefine su movimiento dependiendo del símbolo que está leyendo cada uno desus cabezales, da reglas de sustitución para cada uno de los símbolos ydirección de movimiento para cada uno de los cabezales. Inicialmente la MTempieza con la entrada en la primera cinta y el resto de las cintas en blanco.

Máquina de Turing multidimensional

Diagrama de una máquina de Turing bidimensional.

Una MT multidimensional es aquella cuya cinta puede verse comoextendiéndose infinitamente en más de una dirección, el ejemplomás básico sería el de una máquina bidimensional cuya cinta seextendería infinitamente hacia arriba, abajo, derecha e izquierda.En la modificación bidimensional de MT que se muestra en lafigura también se agregan dos nuevos movimientos del cabezal{U,D} (es decir arriba y abajo). De esta forma la definición de losmovimientos que realiza el cabezal será {L,R,U,D}.

Máquina de Turing determinista y nodeterminista

Véase también: Complejidad computacionalLa entrada de una máquina de Turing viene determinada por elestado actual y el símbolo leído, un par (estado, símbolo), siendoel cambio de estado, la escritura de un nuevo símbolo y elmovimiento del cabezal, las acciones a tomar en función de una entrada. En el caso de que para cada par (estado,símbolo) posible exista a lo sumo una posibilidad de ejecución, se dirá que es una máquina de Turing determinista,mientras que en el caso de que exista al menos un par (estado, símbolo) con más de una posible combinación deactuaciones se dirá que se trata de una máquina de Turing no determinista.La función de transición en el caso no determinista, queda definida como sigue:

¿Cómo sabe una máquina no determinista qué acción tomar de las varias posibles? Hay dos formas de verlo: una esdecir que la máquina es "el mejor adivino posible", esto es, que siempre elige la transición que finalmente la llevará aun estado final de aceptación. La otra es imaginarse que la máquina se "clona", bifurcándose en varias copias, cadauna de las cuales sigue una de las posibles transiciones. Mientras que una máquina determinista sigue un único"camino computacional", una máquina no determinista tiene un "árbol computacional". Si cualquiera de las ramasdel árbol finaliza en un estado de aceptación, se dice que la máquina acepta la entrada.

Máquina de Turing 174

La capacidad de cómputo de ambas versiones es equivalente; se puede demostrar que dada una máquina de Turingno determinista existe otra máquina de Turing determinista equivalente, en el sentido de que reconoce el mismolenguaje, y viceversa. No obstante, la velocidad de ejecución de ambos formalismos no es la misma, pues si unamáquina no determinista M reconoce una cierta palabra de tamaño n en un tiempo , la máquinadeterminista equivalente reconocerá la palabra en un tiempo . Es decir, el no determinismo permitiráreducir la complejidad de la solución de los problemas, permitiendo resolver, por ejemplo, problemas decomplejidad exponencial en un tiempo polinómico.

Problema de la parada (halting problem)Véase también: Problema de la paradaEl problema de la parada o problema de la detención (halting problem en inglés) para máquinas de Turing consisteen: dada una MT M y una palabra w, determinar si M terminará en un número finito de pasos cuando se ejecutausando w como entrada.Alan Turing, en su famoso artículo "On computable numbers, with an application to the Entscheidungsproblem"(1936), demostró que el problema de la parada de la máquina de Turing es indecidible, en el sentido de que ningunamáquina de Turing lo puede resolver.

Codificación de una máquina de TuringToda máquina de Turing puede codificarse como una secuencia binaria finita, es decir una secuencia finita de ceros yunos. Para simplificar la codificación, suponemos que toda MT tiene un único estado inicial denotado por , y unúnico estado final denotado . Tendremos que para una MT M de la forma

• donde representa el símbolo blanco 0, o b (según se desee denotar),• es alfabeto de entrada y• son los símbolos auxiliares utilizados por M (cada MT utiliza su propia colección finito de

símbolos auxiliares).Todos estos símbolos se codifican como secuencias de unos:

Símbolo Codificación

1

11

111

.

.

.

.

.

.

Los estados de una MT se codifican también con secuencias de unos:

Máquina de Turing 175

Símbolo Codificación

1

11

.

.

.

.

.

.

Las directrices de desplazamiento , y se codifican con 1, 11, 111, respectivamente. Una transiciónse codifica usando ceros como separadores entre los estados, los símbolos del alfabeto de

cinta y la directriz de desplazamiento . Así, la transición se codifica como

En general, la codificación de una transición cualquiera es

donde , según la dirección sea .Una MT se codifica escribiendo consecutivamente las secuencias de las modificaciones de todas sus transiciones.Más precisamente, la codificación de una MT M es de la forma , donde es la codificación de la -ésima transición de M. Puesto que el orden en que se representen las transiciones de una MT no es relevante, unamisma MT tiene varias codificaciones diferentes. Esto no representa ninguna desventaja práctica o conceptual ya queno se pretende que las codificaciones sean únicas.

Máquina de Turing universalUna máquina de Turing computa una determinada función parcial de carácter definido y unívoca, definida sobre lassecuencias de posibles cadenas de símbolos de su alfabeto. En este sentido se puede considerar como equivalente aun programa de ordenador, o a un algoritmo. Sin embargo es posible realizar una codificación de la tabla querepresenta a una máquina de Turing, a su vez, como una secuencia de símbolos en un determinado alfabeto; por ello,podemos construir una máquina de Turing que acepte como entrada la tabla que representa a otra máquina de Turing,y, de esta manera, simule su comportamiento.En 1947, Turing indicó:

Se puede demostrar que es posible construir una máquina especial de este tipo que pueda realizar eltrabajo de todas las demás. Esta máquina especial puede ser denominada máquina universal.

Con esta codificación de tablas como cadenas, se abre la posibilidad de que unas máquinas de Turing se comportencomo otras máquinas de Turing. Sin embargo, muchas de sus posibilidades son indecidibles, pues no admiten unasolución algorítmica. Por ejemplo, un problema interesante es determinar si una máquina de Turing cualquiera separará en un tiempo finito sobre una determinada entrada; problema conocido como problema de la parada, y queTuring demostró que era indecidible. En general, se puede demostrar que cualquier cuestión no trivial sobre elcomportamiento o la salida de una máquina de Turing es un problema indecidible.El concepto de Máquina de Turing universal está relacionado con el de un sistema operativo básico, pues puedeejecutar cualquier instrucción computable sobre él.[6]

Máquina de Turing 176

Máquina de Turing cuántica

Ilustración de una máquina de Turing cuántica.

En 1985, Deutsch presentó el diseño de laprimera Máquina cuántica basada en unamáquina de Turing. Con este fin enuncióuna nueva variante la tesis deChurch-Turing dando lugar al denominado"principio de Church-Turing-Deutsch".

La estructura de una máquina de Turingcuántica es muy similar a la de una máquinade Turing clásica. Está compuesta por lostres elementos clásicos:• una cinta de memoria infinita en donde cada elemento es un qubit,•• un procesador finito y•• un cabezal.El procesador contiene el conjunto de instrucciones que se aplica sobre el elemento de la cinta señalado por elcabezal. El resultado dependerá del qubit de la cinta y del estado del procesador. El procesador ejecuta unainstrucción por unidad de tiempo.La cinta de memoria es similar a la de una máquina de Turing tradicional. La única diferencia es que cada elementode la cinta de la máquina cuántica es un qubit. El alfabeto de esta nueva máquina está formado por el espacio devalores del qubit. La posición del cabezal se representa con una variable entera.

Enlaces externos• Wikimedia Commons alberga contenido multimedia sobre Máquina de TuringCommons.• JTV (Java Turing Visual) [7] permite construir y ejecutar MT• Sitio web de Stephen Wolfram [8]

• Demuestran que la máquina de Turing (2,3) es universal [9]

• Máquina de Turing construida sobre hardware [10]

• Video de máquina de Turing mecánica [11] en Youtube

Referencias

Notas al pie[1] The idea came to him in mid-1935 (perhaps, see more in the History section) after a question posed by M. H. A. Newman in his lectures --

"Was there a definite method, or as Newman put it, a mechanical process which could be applied to a mathematical statement, and whichwould come up with the answer as to whether it was provable" (Hodges 1983:93). Turing submitted his paper on 31 May 1936 to the LondonMathematical Society for its Proceedings (cf Hodges 1983:112), but it was published in early 1937 -- offprints available February 1937 (cfHodges 1983:129).

[2] See the definition of "innings" on Wiktionary[3] Gómez de Silva Garza, Gómez de Silva Garza (2008) (en español). Introducción a la computación.  pp. 522.[4] « Teoría de Autómatas (http:/ / teoriaautomatas. blogspot. com. es/ 2012/ 02/ turing. html)». Teoría de Autómatas, RAI 2012 Universidad

Carlos III[5] Pérez, Iván (2005) (en español). Lenguaje y Compiladores.  pp. 137.[6] Paun, Gheorghe (2002). « II. Prerequisites (http:/ / dl. acm. org/ citation. cfm?id=581822)» (en inglés). Membrane Computing: An

Introduction. New York: Springer-Verlag. ISBN 3540436014. . Consultado el 24 de junio de 2012. «The parallelism with a computer, as weknow computers in their general form, is clear: the code of a Turing machine is its program, the strings to be recognized represent the inputdata, and the universal Turing machine is the computer itself, with the instructions of the universal Turing machine corresponding to theoperating system of a computer.»

[7] http:/ / www. dcc. uchile. cl/ jtv/

Máquina de Turing 177

[8] http:/ / www. wolframscience. com[9] http:/ / neofronteras. com/ ?p=1008[10] http:/ / aturingmachine. com/[11] http:/ / www. youtube. com/ watch?v=aBToqFJLrl4

Bibliografía• Feynman, Richard (1996). Conferencias sobre computación (http:/ / books. google. cl/

books?id=nMhfwj9WGz4C& printsec=frontcover& dq=conferencias+ sobre+ computacion& hl=es&ei=Ul85TOfaKtCQuAe17bWXBA& sa=X& oi=book_result& ct=book-thumbnail& resnum=1&ved=0CC8Q6wEwAA#v=onepage& q& f=false). Graficromo. ISBN 84-8432-444-3. Consultado el 11 de julio de2010.

• Viso, Elisa (2008). Introducción a la teoría de la computación (http:/ / books. google. cl/books?id=NXQE8NJw9d4C& pg=PA254& dq=maquina+ de+ turing& hl=es&ei=J2A5TPXsD4SRuAfshLSkBA& sa=X& oi=book_result& ct=result& resnum=4&ved=0CDsQ6AEwAw#v=onepage& q=maquina de turing& f=false). ISBN 978-970-32-5415-6. Consultado el 11 dejulio de 2010.

• De Castro, Rodrigo (2004). Teoría de la computación : lenguajes, autómatas, gramáticas (http:/ / books. google.cl/ books?id=EAbc79tlWD4C& pg=PA201& dq=codificacion+ de+ una+ maquina+ de+ turing& hl=es&ei=QF8-TIeCCoWKlwf19-T4BQ& sa=X& oi=book_result& ct=result& resnum=1&ved=0CCgQ6AEwAA#v=onepage& q& f=false). Consultado el 15 de julio de 2010.

• « on computable numbers,with an application to the entscheidungsproblem (http:/ / www. thocp. net/ biographies/papers/ turing_oncomputablenumbers_1936. pdf)» (en español). Consultado el 15 de julio de 2010.

• « Variantes de una Máquina de Turing (http:/ / sistemas. itlp. edu. mx/ tutoriales/ teoriadelacomputacion/ t44.htm)» (en español). Consultado el 11 de julio de 2010.

Stephen Cook

Stephen Cook

Nombre Stephen Arthur Cook

Nacimiento 1939  Estados Unidos, Buffalo

Nacionalidad estadounidense

Ocupación informático, profesor

Premios Premio Turing en 1982

Sitio webStephen Arthur Cook [1]

Stephen Arthur Cook (1939, Buffalo, Nueva York) es un reconocido científico de la computación.

Stephen Cook 178

Cook formalizó la cosa de NP-completitud en un famoso artículo de 1971 titulado "The Complexity of TheoremProving Procedures" ("La Complejidad de los Procedimientos de Prueba de Teoremas"), que tambiénlas clases decomplejidad P y NP.Cook recibió el Premio Turing en 1982 por su descubrimiento:

Por su avance en nuestra comprensión de la complejidad computacional de un modo significativo yprofundo. Su artículo pionero, The Complexity of Theorem Proving Procedures, presentado en el ACMSIGACT Symposium on the Theory of Computing de 1971, sentó los cimientos de la teoría deNP-completitud. La exploración de los límites de la clase de complejidad NP-completo ha sido una delas actividades investigadoras más activas e importantes en las ciencias de la computación durante laúltima década.

Recibió su licenciatura en 1961 por la Universidad de Míchigan. En la Universidad de Harvard, recibió su título demáster en 1962, y se doctoró en 1966. Desde 1966 hasta 1970 fue profesor asistente en la Universidad de California,Berkeley. Se unió al profesorado de la Universidad de Toronto en 1970 como profesor asociado, siendo ascendido aprofesor en 1975 y profesor universitario en 1985 en el Departamento de Informática [2] y en el de Matemáticas [3].

Enlaces externos (en inglés)• Estudiantes de Stephen A. Cook [4]

Predecesor:Edgar F. Codd

PremioTuring

1982

Sucesor:Kenneth L.Thompson

Dennis M. Ritchie

Referencias[1] http:/ / www. cs. toronto. edu/ ~sacook/[2] http:/ / www. cs. utoronto. ca[3] http:/ / www. math. utoronto. ca/ dept/ dirfac. html[4] http:/ / genealogy. math. ndsu. nodak. edu/ html/ id. phtml?id=14011

NP-completo 179

NP-completoEn teoría de la complejidad computacional, la clase de complejidad NP-completo es el subconjunto de losproblemas de decisión en NP tal que todo problema en NP se puede reducir en cada uno de los problemas deNP-completo. Se puede decir que los problemas de NP-completo son los problemas más difíciles de NP y muyprobablemente no formen parte de la clase de complejidad P. La razón es que de tenerse una solución polinómicapara un problema NP-completo, todos los problemas de NP tendrían también una solución en tiempo polinómico. Sise demostrase que un problema NP-completo, llamémoslo A, no se pudiese resolver en tiempo polinómico, el restode los problemas NP-completos tampoco se podrían resolver en tiempo polinómico. Esto se debe a que si uno de losproblemas NP-completos distintos de A, digamos X, se pudiese resolver en tiempo polinómico, entonces A se podríaresolver en tiempo polinómico, por definición de NP-completo. Ahora, pueden existir problemas en NP y que nosean NP-completos para los cuales exista solución polinómica aún no existiendo solución para A.Como ejemplo de un problema NP-completo encontramos el problema de la suma de subconjuntos que se puedeenunciar como sigue: dado un conjunto S de enteros, ¿existe un subconjunto no vacío de S cuyos elementos sumencero? Es fácil verificar si una respuesta es correcta, pero no se conoce mejor solución que explorar todos los 2n-1subconjuntos posibles hasta encontrar uno que cumpla con la condición.

Definición de NP-completoUn problema de decisión C es NP-completo si:1.1. C es un problema NP, y2. Todo problema de NP se puede transformar polinómicamente en C.Se puede demostrar que C es NP demostrando que un candidato a solución de C puede ser verificado en tiempopolinómico.Una transformación polinómica de L en C es un algoritmo determinista que transforma instancias de l ∈ L eninstancias de c ∈ C, tales que la respuesta a c es positiva si y sólo si la respuesta a l lo es.Como consecuencia de esta definición, de tenerse un algoritmo en P para C, se tendría una solución en P para todoslos problemas de NP.Esta definición fue propuesta por Stephen Cook en 1971. Al principio parecía sorprendente que existieran problemasNP-completos, pero Cook demostró (teorema de Cook) que el problema de satisfacibilidad booleana esNP-completo. Desde entonces se ha demostrado que miles de otros problemas pertenecen a esta clase, casi siemprepor reducción a partir de otros problemas para los que ya se había demostrado su pertenencia a NP-completo;muchos de esos problemas aparecen en el libro de Garey and Johnson's de 1979 Computers and Intractability: AGuide to NP-completeness.Un problema que satisface la segunda condición pertenece a la clase NP-hard independientemente de que satisfaga laprimera.

HistoriaEl concepto de "NP-completo" fue introducido por Stephen Cook en un artículo titulado 'The complexity of theorem-proving procedures' en las páginas 151-158 de Proceedings of the 3rd Annual ACM Symposium on Theory of Computing en 1971, aunque el término "NP-completo" como tal no aparece en el documento. En la conferencia de ciencias de la computación hubo un intenso debate entre los científicos de la computación sobre si los problemas NP-completos podían ser resueltos en tiempo polinómico o en una máquina de Turing determinista. John Hopcroft llevó a todos los asistentes de la conferencia a consenso concluyendo que el estudio sobre si los problemas NP-completos son resolubles en tiempo polinómico debiera ser pospuesto ya que nadie había conseguido probar

NP-completo 180

formalmente sus hipótesis ni en un sentido ni en otro. Esto se conoce como el problema ¿P=NP?.Nadie ha sido capaz aun de dar una respuesta final a este problema, haciéndolo uno de los grandes problemas noresueltos de la matemática. El Clay Mathematics Institute está ofreciendo una recompensa de un millón de dólares aquien logre dar una demostración de que P=NP o P≠NP.El Teorema de Cook demuestra que el problema de satisfacibilidad booleana es un problema NP-completo. En 1972,Richard Karp demostró que otros problemas eran también NP-completos (ver Lista de 21 problemas NP-completosde Karp). A partir de los resultados originales del Teorema de Cook, cientos de problemas se han descubierto quepertenecen también a NP-completo por reducciones desde otros problemas que previamente se habían demostradoNP-completos, muchos de estos problemas han sido recogidos en libro de 1979 de Garey and Johnson's Computersand Intractability: A Guide to NP-Completeness.

EjemplosUn problema interesante en teoría de grafos es el de isomorfismo de grafos: Dos grafos son isomorfos si se puedetransformar uno en el otro simplemente renombrando los vértices. De los dos problemas siguientes:

Isomorfismo de grafos: ¿Es el grafo G1 isomorfo al grafo G2?Isomorfismo de subgrafos: ¿Es el grafo G1 isomorfo a un subgrafo del grafo G2?

El problema de isomorfismo de subgrafos es NP-completo. Se sospecha que el problema de isomorfismo de grafosno está ni en P ni en NP-completo, aunque está en NP. Se trata de un problema difícil, pero no tanto como para estaren NP-completo.La forma más sencilla de demostrar que un nuevo problema es NP-completo es primero demostrar que está en NP yluego transformar en tiempo polinómico un problema que ya esté en NP-completo a éste. Para ello resulta útilconocer algunos de los problemas para los que existe prueba de pertenencia a NP-completo. Algunos de los másfamosos son:• Problema de satisfacibilidad booleana (SAT)• Problema de la mochila (knapsack)•• Problema del ciclo hamiltoniano•• Problema del vendedor viajero•• Problema de la cliqueVéase también:

•• Categoría:Problemas NP-completos

NP-completo 181

Algunos problemas NP-completos, indicando las reducciones usadas típicamentede completitud NP

A la derecha, un diagrama de algunos de losproblemas y sus reducciones típicamenteusadas para demostrar su completitud NP.En este diagrama, una flecha de unproblema a otro indica la dirección de lareducción. Nótese que este diagrama puederesultar engañoso al llevarnos a pensar quemuestra una descripción de la relaciónmatemática entre esos problemas, ya queexiste una relación de reducción de tiempopolinómico entre dos problemasNP-completos cualesquiera; pero esto indicaque demostrar estas reducciones de tiempopolinómicas ha sido más fácil.

A menudo hay solo una pequeña diferenciaentre un problema P y uno NP-completo.Por ejemplo, el problema 3SAT, unarestricción del problema de satisfacibilidad,sigue siendo NP-completo, mientras que elproblema 2SAT -ligeramente más estricto-está en P (específicamente, NL-completo), yel problema MAX 2SAT -ligeramente másgeneral- es, de nuevo, NP-completo.Determinar si un grafo puede ser coloreado con 2 colores, está en P, pero con tres colores es NP-completo, inclusocuando se restringe a los grafos planos. Determinar si un grafo es ciclo o es bipartito es muy fácil (en L, peroencontrar un subgrafo máximo bipartito o ciclo es NP-completo. Una solución del problema de la mochila(knapsack)dentro de de cualquier porcentaje fijo de la solución óptima puede ser computado en tiempo polinómico,pero encontrar la solución óptima es NP-completo.

Soluciones aproximadasActualmente, todos los algoritmos conocidos para problemas NP-completos utilizan tiempo exponencial conrespecto al tamaño de la entrada. Se desconoce si hay algoritmos más rápidos, por lo cual, para resolver un problemaNP-completo de tamaño arbitrario, se utiliza uno de los siguientes enfoques:• Aproximación: Un algoritmo que rápidamente encuentra una solución no necesariamente óptima, pero dentro de

un cierto rango de error. En algunos casos, encontrar una buena aproximación es suficiente para resolver elproblema, pero no todos los problemas NP-completos tienen algoritmos de aproximación.

• Probabilístico: Un algoritmo probabilístico utiliza aleatoriedad para obtener en promedio una buena solución alproblema planteado con una pequeña probabilidad de fallar, para una distribución de los datos de entrada dada.

• Restricciones: Restringiendo la estructura de las entradas se pueden encontrar algoritmos más rápidos.• Casos particulares: Puede ocurrir que se reconozcan casos particulares del problema para los cuales existen

soluciones rápidas.• Algoritmo genético: Algoritmos que mejoran las posibles soluciones hasta encontrar una que posiblemente esté

cerca del óptimo. Tampoco existe forma de garantizar la calidad de la respuesta.• Heurísticas: Un algoritmo que trabaja razonablemente bien en muchos casos. En general son rápidos, pero no

existe medida de la calidad de la respuesta. Las aproximaciones metaheurísticas suelen ser empleadas.

NP-completo 182

Un ejemplo de algoritmo heurístico de complejidad O(n log n) es el algoritmo voraz utilizado para la coloración devértices en algunos compiladores. Gracias a que la mayoría de máquinas RISC tienen un gran número de registros depropósito general, incluso una aproximación heurística es efectiva para esta aplicación.

Completitud bajo diferentes tipos de reducciónEn la definición de NP-completo dada anteriormente, el término "reducción" fue utilizado en el sentido transformarlas instancias de un problema en instancias de otro (reducciones many-one).Otro tipo de reducción consiste en la "reducción en tiempo polinómico de Turing". Un problema X es reducible entiempo polinómico de Turing Y si dada una función que resuelve Y en tiempo polinómico, podría escribirse unprograma que llamando a la subrutina anterior resuelva X en tiempo polinómico. Esto contrasta con el uso deltérmino reducción del que hablábamos al principio ya que este tiene la restricción de que el programa solamentepuede llamar una vez al subalgoritmo y el valor retornado por este debe ser el valor de retorno del programa.Si se definen el análogo a NP-completo con reducciones de Turing en lugar de reducciones many-one, el conjunto deproblemas resultante no sería menor de NP-completo, de hecho se cuestiona si serían más grandes. Si los dosconceptos fuesen lo mismo, se seguiría que NO = Co-NP. Esto se mantiene porque por definición las clases de losproblemas NP-completos y co-NP-completos bajo las reducciones de Turing son las mismas gracias a que las clasesdefinidas con reducciones many-one son subclases de estas mismas. Por lo tanto si ambas definiciones de laNP-completitud son iguales hay un problema co-NP-completo (bajo ambas definiciones) como por ejemplo elcomplementario del problema de la satisfacibilidad booleana que es también NP-completo (bajo ambasdefiniciones). Esto implica que NP = co-NP como se muestra como prueba en el artículo sobre co-NP. Aunque lacuestión de si NP = co-NP es una pregunta abierta se considera muy poco probable porque también es muy pocoprobable que las dos definiciones de NP-completitud sean equivalentes.Otro tipo de reducción es empleado frecuentemente para definir NP-completitud es la de reducción de espaciologarítmico many-one que puede ser computerizada empleando únicamente una cantidad logarítmica de espacio. Yaque cada computación que puede ser realizada en espacio logarítmico también puede ser realizada en tiempopolinomial se razona que si hay una reducción de espacio logarítmico many-one también hay una reducción detiempo polinómico many-one. Este tipo de reducción es más refinada que la más usual reducción de tiempopolinómico many-one y permite distinguir mas clases como la P-completa. Ya sea en virtud de estos tipos dereducciones los cambios en la definición de NP-completo son todavía un problema abierto.

Referencias• Garey, M. and D. Johnson, Computers and Intractability; A Guide to the Theory of NP-Completeness, 1979.

ISBN 0-7167-1045-5 (Este es un libro clásico que desarrolla la teoría y clasifica muchos de los problemasNP-completos)

•• S. A. Cook, The complexity of theorem proving procedures, Proceedings, Third Annual ACM Symposium on theTheory of Computing, ACM, New York, 1971, 151-158

• Complejidad computacional de juegos y rompe-cabezas [1]

• Tetris es difícil, aún para aproximarlo [2]

• ¡Buscaminas es NP-completo! [3]

NP-completo 183

Referencias[1] http:/ / www. ics. uci. edu/ ~eppstein/ cgt/ hard. html[2] http:/ / arxiv. org/ abs/ cs. CC/ 0210020[3] http:/ / for. mat. bham. ac. uk/ R. W. Kaye/ minesw/ ordmsw. htm

Problema de decisiónEn teoría de la computación, un problema es un conjunto de frases de longitud finita que tienen asociadas frasesresultantes también de longitud finita. Un problema de decisión es un problema en donde las respuestas posiblesson «sí» o «no». Un ejemplo típico de problema de decisión es la pregunta: ¿Es un número entero dado primo? Unainstancia de este problema sería: ¿Es 17 primo?Un problema de decisión también se puede formalizar como el problema de decidir si una cierta frase pertenece a unconjunto dado de frases, también llamado lenguaje formal. El conjunto contiene exactamente las frases para lascuales la respuesta a la pregunta es positiva. La pregunta anterior sobre los números primos se puede ver tambiéncomo el lenguaje de todas las frases en el alfabeto {0, 1,..., 9} tales que el entero correspondiente es primo.Si existe un algoritmo que pueda decidir para cada posible frase de entrada si esa frase pertenece al lenguaje,entonces se dice que el problema es decidible, de otra forma se dice que es un problema indecidible. Cuando existeun algoritmo que puede responder positivamente cuando la frase está en el lenguaje, pero que corre indefinidamentecuando la frase no pertenece al lenguaje se dice que el problema es parcialmente decidible. En Teoría de lacomputabilidad, se estudia qué lenguajes son decidibles con diferentes tipos de máquinas. En teoría de lacomplejidad computacional se estudia cuántos recursos necesita un algoritmo decidible para ejecutar (recursos detiempo, espacio, número de procesadores, tipo de máquina, etc.).

EjemplosEsos son algunos ejemplos de problemas de decisión expresados como lenguajes:•• Las frases sobre el alfabeto {a, b} que contienen alternadas las letras a y b.•• Las frases sobre el alfabeto {a, b, c} que contienen igual número de letras a y b.• Las frases que describen un grafo con aristas etiquetadas con números naturales que indican su longitud, dos

vértices del grafo y un camino en el grafo que es el camino más corto entre esos dos vértices.• Las frases que describen una máquina de Turing y una cinta de entrada para esta máquina tal que la máquina se

para en un tiempo finito al procesar esa entrada.Los problemas de decisión son interesantes dado que todos los problemas formales (que incluye tanto lógicos comomatemáticos) pueden ser redactados para que tomen la forma de un problema de decisión. Las soluciones alproblema de decisión y al problema original se diferencian a lo sumo por un factor lineal.

Referencias• Definición en Wolfram MathWorld [1] (en inglés)

Referencias[1] http:/ / mathworld. wolfram. com/ DecisionProblem. html

Lógica matemática 184

Lógica matemáticaLa lógica matemática es una parte de la lógica y las matemáticas, que consiste en el estudio matemático de la lógicay en la aplicación de este estudio a otras áreas de las matemáticas. La lógica matemática tiene estrechas conexionescon la ciencias de la computación y la lógica filosófica.La lógica matemática estudia los sistemas formales en relación con el modo en el que codifican nociones intuitivasde objetos matemáticos como conjuntos, números, demostraciones y computación.La lógica matemática suele dividirse en cuatro subcampos: teoría de modelos, teoría de la demostración, teoría deconjuntos y teoría de la recursión. La investigación en lógica matemática ha jugado un papel fundamental en elestudio de los fundamentos de las matemáticas. Actualmente se usan indiferentemente como sinónimos lasexpresiones: lógica simbólica( o logística), lógica matemática, lógica teorética y lógica formal.[1]

La lógica matemática no es la «lógica de las matemáticas» sino la «matemática de la lógica». Incluye aquellas partesde la lógica que pueden ser modeladas y estudiadas matemáticamente.

HistoriaLógica matemática fue el nombre dado por Giuseppe Peano para esta disciplina. En esencia, es la lógica deAristóteles, pero desde el punto de vista de una nueva notación, más abstracta, tomada del álgebra.Previamente ya se hicieron algunos intentos de tratar las operaciones lógicas formales de una manera simbólica porparte de algunos filósofos matemáticos como Leibniz y Lambert, pero su labor permaneció desconocida y aislada.Fueron George Boole y Augustus De Morgan, a mediados del siglo XIX, quienes primero presentaron un sistemamatemático para modelar operaciones lógicas. La lógica tradicional aristotélica fue reformada y completada,obteniendo un instrumento apropiado para investigar sobre los fundamentos de la matemática.El tradicional desarrollo de la lógica enfatizaba su centro de interés en la forma de argumentar, mientras que la actuallógica matemática lo centra en un estudio combinatorio de los contenidos. Esto se aplica tanto a un nivel sintáctico(por ejemplo, el envío de una cadena de símbolos perteneciente a un lenguaje formal a un programa compilador quelo convierte en una secuencia de instrucciones ejecutables por una máquina), como a un nivel semántico,construyendo modelos apropiados (teoría de modelos). La lógica matemática estudia los sistemas formales enrelación con el modo en el que codifican conceptos intuitivos de objetos matemáticos como conjuntos, números,demostraciones y computación. Concepto de lógica matemáticaLa lógica estudia la forma del razonamiento. La lógica matemática es la disciplina que trata de métodos derazonamiento. En un nivel elemental, la lógica proporciona reglas y técnicas para determinar si es o no valido unargumento dado. El razonamiento lógicose emplea en matemáticas para demostrar teoremas, sin embargo, se usa enforma constante para realizar cualquier actividad en la vida. Definición y clases de proposicionesUna proposición o enunciado es una oración que puede ser falsa o verdadera pero no ambas a la vez. Todaproposición consta de tres partes: un sujeto, un verbo y un complemento referido al verbo. La proposición es unelemento fundamental de la Lógica Matemática.En general, las proposiciones pueden ser:Simples si sólo tienen un sujeto, un verbo y un complemento. En caso contrario, son proposiciones compuestasCerradas si tienen determinado el sujeto. Abiertas si no lo tienen determinado. Afirmativas o negativas según loafirmen o nieguen. Verdaderas o falsas según correspondan o no a la realidad. Por fines didácticos la dividimos en:Lógica proposicional: consideraremos dos elementos básicos, proposiciones y conectivos. Proposiciones: son“frases” sobre las cuales podemos decidir, unívocamente, sobre la verdad (V) o falsedad (F) Ejemplo:

X+ 4= 9 y x=5

Lógica matemática 185

Lógica funcional: símbolos que, junto con las proposiciones básicas, nos permiten crear nuevas proposiciones, son:

˜ se lee “no” ^ se lee “y” v se lee “y, o” => se lee “…implica…” o “si,…entonces…,” < = > se lee “… equivalente con…”

LEYES NOTABLES EN LÓGICALas leyes de lógica más notables son las que se en listan a continuación:1.- Ley de doble negación2.- Leyes de idempotencia3.- Leyes asociativas4.- Leyes conmutativas5.- Leyes distributivas6.- Leyes de De Morgan

ÁreasLa Mathematics Subject Classification divide la lógica matemática en las siguientes áreas:•• Filosófica y crítica• Lógica general (que incluye campos como la lógica modal y la lógica borrosa)•• Teoría de modelos•• Teoría de la computabilidad•• Teoría de conjuntos• Teoría de la demostración y matemática constructiva algebraica]]•• Modelos no-estándarEn algunos casos hay conjunción de intereses con la Informática teórica, pues muchos pioneros de la informática,como Alan Turing, fueron matemáticos y lógicos. Así, el estudio de la semántica de los lenguajes de programaciónprocede de la teoría de modelos, así como también la verificación de programas, y el caso particular de la técnica delmodel checking. También el isomorfismo de Churry-Howard entre pruebas y programas se corresponde con la teoríade pruebas, donde la lógica intuicionista y la lógica lineal son especialmente significativas. Algunos sistemas lógicoscomo el cálculo lambda, y la lógica combinatoria entre otras han devenido, incluso, auténticos lenguajes deprogramación, creando nuevos paradigmas como son la programación funcional y la programación lógica.

Lógica de predicadosLa lógica de predicados es un lenguaje formal en el que las sentencias bien formadas son producidas por las reglasenunciadas a continuación.

Vocabulario

Un vocabulario es una tupla: que consta de:• símbolos relacionales , cada uno de ellos con un número entero asociado, el cual se conoce como la

aridad de • símbolos funcionales , cada uno de aridad • símbolos constantes

Lógica matemática 186

Una fórmula de primer orden en el vocabulario , es una fórmula de primer orden donde los únicos predicados,funciones y constantes empleados son los especificados por .

Lenguajes y estructuras de primer ordenUn lenguaje de primer orden' es una colección de distintos símbolos clasificados como sigue:

1. El símbolo de igualdad ; las conectivas , ; el cuantificador universal y el 'paréntesis , .2. Un conjunto contable de símbolos de variable .3. Un conjunto de símbolos de constante .4. Un conjunto de símbolos de función .5. Un conjunto de símbolos de relación .Así, para especificar un orden, generalmente sólo hace falta especificar la colección de símbolos constantes,símbolos de función y símbolos relacionales, dado que el primer conjunto de símbolos es estándar. Los paréntesistienen como único propósito de agrupar símbolos y no forman parte de la estructura de las funciones y relaciones.Los símbolos carecen de significado por sí solos. Sin embargo, a este lenguaje podemos dotarlo de una semánticaapropiada.Una -estructura sobre el lenguaje , es una tupla consistente en un conjunto no vacío , el universo deldiscurso, junto a:

1. Para cada símbolo constante de , tenemos un elemento .2. Para cada símbolo de function -aria de , una function -aria .3. Para cada símbolo de relación -aria de , una relación -aria sobre , esto es, un subconjunto

.A menudo, usaremos la palabra modelo para denotar esta estructura.

Referencias[1][1] Evandro Agazzi, 1986.

Bibliografía adicional• Agazzi, Evandro (1986). Lógica simbólica. Herder. ISBN 9788425401305.

Enlaces externos

• Wikiversidad alberga proyectos de aprendizaje sobre Lógica matemática.Wikiversidad

Inconmensurabilidad (filosofía) 187

Inconmensurabilidad (filosofía)La inconmensurabilidad, en la filosofía de la ciencia, es la imposibilidad de comparación de dos teorías cuando nohay un lenguaje teórico común. Si dos teorías son inconmensurables entonces no hay manera de compararlas y decircuál es mejor y correcta.

El Pensador de Rodin.

Tesis

En 1962, Thomas Kuhn y Paul Feyerabend, de maneraindependiente, introdujeron la noción deinconmensurabilidad en la filosofía de la ciencia. Enambos casos el concepto provenía de las matemáticas,y en su sentido original se define como la falta de unaunidad común de medida que permita una medicióndirecta y exacta entre dos variables; se predica, porejemplo, de la diagonal de un cuadrado con relación asu lado.

Inconmensurabilidad en las matemáticas

Esta diagonal es inconmensurable con respecto a suslados.

La idea central de este concepto en matemáticas no es laimposibilidad de comparación, sino la ausencia de un factorcomún que pueda ser expresado. Se analiza el ejemplo de ladiagonal de un cuadrado con relación a su lado. La razón de ladiagonal d de un cuadrado y su lado l es inconmensurable (esirracional).

La demostración de que d/l no es racional se puede hacer demanera indirecta, considerando lo contrario. Se busca llegar a unacontradicción. Si se llega a una contradicción, lo contrario no escierto, y se establecería lo que se desea. En términos lógicos: siqueremos demostrar la proposición J, asumimos que "no J" escorrecta. Mediante deducciones lógicas a partir de "no J" llegamosa una contradicción. Entonces se concluye que "no J" no es ciertay, por lo tanto, J debe ser verdadera. Este método se llamareducción al absurdo.

Inconmensurabilidad (filosofía) 188

Introducción al términoLa introducción del término estuvo motivada por una serie de problemas que ambos autores observaron al tratar deinterpretar teorías científicas sucesivas y sin duda su implementación se entiende mejor a la luz de la crítica que tantoKuhn como Feyerabend realizaron ante ciertas tesis que los representantes de la llamada concepción heredadahabían sostenido, entre las cuales destaca la famosa tesis de la acumulación del conocimiento científico, la cualafirma que el corpus del conocimiento científico ha ido aumentando con el paso del tiempo, tesis que tanto Kuhncomo Feyerabend rechazan.Otra tesis igualmente importante es la existencia de un lenguaje neutro de contraste en el cual puedan formularse lasconsecuencias empíricas de dos teorías en competencia, de tal forma que se puede elegir a la que tenga el mayorcontenido empírico verificado – o no falsado si la formulación es popperiana.La noción de fondo de esta segunda tesis no es sólo la existencia de tal lenguaje sino que implica, al menos, dospostulados más. Primero, la afirmación de que la elección entre teorías tiene como prerrequisito suintertraducibilidad, por ejemplo entre una teoría T y su sucesora T’ – y en el caso de Popper la deducibilidad de T’ apartir de T – y segundo, que la elección siempre se realiza bajo los mismos estándares de racionalidad.En ambos casos el concepto de inconmensurabilidad hace imposible la viabilidad de las tesis. En el primero, almostrar que ciertas consecuencias empíricas entre teorías sucesivas se pierden. En el segundo, al afirmar que esposible una elección racional entre teorías incluso cuando éstas no pueden traducirse a un lenguaje neutro. Sinembargo, aunque los motivos - y las críticas a las que da origen – para su introducción son semejantes, de ningunamanera son idénticos los sentidos en el que los dos coautores le emplearon, por lo cual se discute la noción deinconmensurabilidad para cada coautor en particular.

Visiones

Visión de FeyerabendFeyerabend ubica la inconmensurabilidad desde un principio en el terreno semántico, la noción fundamental que haydetrás es el cambio de significado de los términos básicos de una teoría, cambio que invade la totalidad de lostérminos de la nueva teoría, haciendo que entre T y T’ no exista ninguna consecuencia empírica común.Véase también: Paul Feyerabend

Teorías

En 1989, Feyerabend presenta esta noción a contraluz del racionalismo crítico de Popper en el cual "la investigaciónempieza con un problema. El problema es el resultado de un conflicto entre una expectativa y una observación que, asu vez, es constituida por la expectativa." (Feyerabend, 1989; pp. 96). La metodología de la ciencia es entonces elresolver problemas al inventar teorías que sean relevantes, falseables, al menos en mayor grado que cualquiersolución alterna. Una vez que tal alternativa está presente comienza la fase crítica con respecto a T’, la cual habrá decontestar las siguientes preguntas: (a) por qué la teoría T había tenido éxito hasta ahora, y (b) por qué ha fracasado.Si la nueva teoría T’ da cuenta de ambas preguntas, entonces T se deshecha.Esto es, una teoría nueva T’, para ser una sucesora adecuada de una teoría refutada T, debe tener un conjunto depredicciones adicionales con respecto a T (clase A), así como un conjunto de predicciones exitosas que coincide encierta medida con la vieja teoría T (clase S) – lo cual constituye parte del contenido de verdad de la nueva teoría – y,asimismo, excluir una serie de consecuencias de T, los fracasos de la vieja teoría, los cuales son parte del contenidode falsedad de la nueva teoría (clase F).Dado este modelo es posible construir enunciados relacionales entre ciertos términos de T y de T’, los cuales serán labase de la comparación entre las teorías, permitiendo una elección entre ambas a la luz de su contenido empírico.Pero, si nos enfrentamos a una teoría T’ tal que la clase S es vacía, las teorías son inconmensurables entre sí.

Inconmensurabilidad (filosofía) 189

Sin embargo, Feyerabend aclara, la inconmensurabilidad entre T y T’ dependerá de la interpretación que se les dé alas teorías. Si ésta es instrumental, toda teoría que se refiera a un mismo lenguaje de observación seráconmensurable. De igual forma, si lo que se busca es una perspectiva realista, entonces se favorecerá una posiciónunificada en la cual se emplearán los términos más abstractos de cualquiera que sea la teoría que se considere paradescribir a ambas teorías otorgando un significado a los enunciados de observación en función de estos términos, o,al menos para reemplazar el uso habitual que se les da.Sobre la interpretación instrumentalista se puede comentar que existirían ciertas oraciones cuyo valor de verdad nosólo dependería de los enunciados observacionales sino de los criterios de evaluación a los que éstos se someten yque están anclados en las teorías. Por ejemplo, si se afirma el carácter relacional de toda longitud, tal aseveración nopuede ser decidida en términos meramente observacionales sino que su valor de verdad depende en parte de la teoríaque establece el sentido en el cual se usarán los términos, en este caso la Mecánica Cuántica (MQ) en oposición a laMecánica Clásica (MC). En este sentido, la posición instrumentalista atiende sólo a las consecuencias empíricas ydeja de lado la relación que los conceptos tienen entre sí.En este mismo sentido, Feyerabend comenta que:

Es cierto, desde luego, que el esquema relativista nos da muy a menudo números que son prácticamenteidénticos a los números que se obtienen de MC, pero no por ello los conceptos son más similares... [Pues] Nisiquiera el caso ... que da lugar a predicciones estrictamente idénticas puede utilizarse como argumento paramostrar que los conceptos deben coincidir al menos en este caso, pues magnitudes diferentes basadas enconceptos diferentes pueden dar valores idénticos en sus respectivas escalas sin dejar de ser magnitudesdiferentes... [Así es que] Ni se puede hacer una comparación de contenido ni se puede emitir un juicio sobre laverosimilitud.

Paul Feyerabend

Objeción realista

Sobre la objeción realista, Feyerabend retoma un argumento elaborado por Carnap y comenta que el uso de talesconceptos abstractos conlleva a una posición imposible, pues «...los términos teóricos reciben su interpretación alponerse en conexión o bien con un lenguaje de observación preexistente, o bien con una teoría que ya ha sido puestaen conexión con un lenguaje de observación, y que esos términos están vacíos sin esa conexión.» (Feyerabend, pp.373). De lo anterior se sigue que no se les puede usar para otorgar significado al lenguaje de observación pues estelenguaje de observación es su única fuente de significado, con lo cual lo que se realizaría no sería una traducciónsino un reemplazo del término .Así Feyerabend considera que tanto la interpretación realista como la instrumentalista son fallidas, con lo cualpretende defender la noción de inconmensurabilidad como una noción legítimamente insalvable y con ello anular latesis de la acumulación y el panracionalismo en la ciencia.Esto lleva a la siguiente consideración: si cada nueva teoría tiene su propia base observacional, en el sentido de lacarga teórica, cómo podemos esperar que las observaciones que produzca logren eventualmente refutarla, pero aúnmás, cómo podremos dar cuenta de que efectivamente la nueva posición explica lo que se supone que pretendíaexplicar o si está deambulando por campos diferentes, y en este sentido, cómo comparar finalmente las teorías.La respuesta de Feyerabend a la primera consideración radica en realizar la siguiente distinción: los términosprimitivos de una teoría sólo dependen de los postulados de la teoría y las reglas gramaticales asociadas mientras quelas predicciones que realiza dependen también de las condiciones iniciales del sistema. Feyerabend no exploramucho más el punto pero puede suponerse que si la predicción no corresponde con la observación y si tenemos unalto grado de confianza en la descripción que hemos realizado de las condiciones iniciales, entonces podemosasegurar que el error debe estar presente en nuestra teoría y sus términos primitivos.Sobre la segunda consideración, Feyerabend responde con una pregunta: «por qué habría de ser necesario disponer de una terminología que permita decir que dos teorías hablan del mismo experimento. Esto supondría una pretensión

Inconmensurabilidad (filosofía) 190

unificacionista, posiblemente realista, cuyo objetivo parecería ser la verdad, sin embargo, es de suponerse que lateoría puede contrastarse bajo un criterio de adecuación empírica. Tal criterio partiría de la relación que se estableceentre el enunciado observacional que describe el resultado de un experimento formulado para cada teoría de formaindependiente, el cual se compara con las predicciones que cada teoría postula. En este sentido, la elección se realizacuando una teoría es empíricamente más adecuada. Y si con esto la objeción ante la posible deambulación de lanueva teoría no se contesta, es irrelevante pues muchas veces la historia nos ha demostrado que en efecto lasposiciones varían o modifican sus campos de aplicación, por ejemplo, la física aristotélica y la newtoniana»

Elección de teorías

Lo dicho anteriormente implica que el proceso de elección de teorías no obedece a una racionalidad universal. Sobresi la ausencia de ésta constituye una posición irracional Feyerabend afirma:

No, porque cada episodio particular es racional en el sentido de que algunos de sus rasgos pueden serexplicados en términos de razones que o fueron aceptadas en el tiempo en el que ocurrieron, o inventadas en elcurso de su desarrollo. Sí, porque incluso estas razones locales que cambian de época en época nunca sonsuficientes para explicar todos los rasgos importantes de un episodio particular.

Paul FeyerabendCon lo anterior Feyerabend trata de arrojar luz sobre una consideración hecha por el mismo Popper, y que afirma quesiempre somos capaces de revisar todo pronunciamiento, incluso los sistemas de referencia que guían nuestra crítica.Sin embargo, las conclusiones de ambos son diferentes, pues Popper supone que siempre es posible realizar unacrítica una vez que los nuevos criterios han sido aceptados, con lo cual la elección puede ser vista como el resultadode una racionalidad a posteriori de la elección. Mientras que en la posición de Feyerabend, esta solución esmeramente un ornamento verbal toda vez que los estándares se ven influidos por el primer mundo de Popper, elmundo físico, y no sólo se desarrollan en el mundo tres. Es decir, los estándares se ven influidos por las expectativasa las que dan origen, las actitudes que conllevan, y las formas de interpretar el mundo que favorecen, pero esto esestrictamente análogo al proceso mismo de una revolución científica, lo cual nos lleva a creer que la tesis de lainconmensurabilidad puede ser aplicada también a estándares, como lo evidencia la siguiente aseveración:

Incluso el racionalista más puritano se verá obligado entonces a dejar de argumentar y a emplear, por ejemplo,la propaganda no porque algunos de sus argumentos haya dejado de ser válido, sino porque han desaparecidolas condiciones psicológicas que le permitían argumentar efectivamente y, por tanto, influir sobre los demás.

Paul FeyerabendFeyerabend afirma que el criticismo popperiano es, o bien relativo a ciertos procedimientos claramente definidos, obien es totalmente abstracto y deja a otros la tarea de llenarle ahora con este, después con aquel contenido concreto,haciendo que la racionalidad a Popper sea un «mero ornamento verbal». Lo anterior no implica desde luego queFeyerabend sea un irracional sino que considera que el proceso de cambio científico no puede ser explicado en sutotalidad a la luz de alguna racionalidad, precisamente porque hay inconmensurabilidad.

Visión de KuhnEl segundo coautor de la tesis de la inconmensurabilidad es Thomas Kuhn, quien la introduce en su obra de 1962, Laestructura de las revoluciones científicas, obra en la que le describe como una propiedad global que describe lasrelaciones entre paradigmas sucesivos. Bajo este entendido, la inconmensurabilidad rebasa el terreno semántico yabarca todo lo concerniente a las prácticas, ya sea desde los campos de problemas hasta los métodos y normas deresolución que se les asocian. Sin embargo, el término se fue refinando a través de toda la obra de Kuhn, primero, alacotarle a un terreno semántico y con una formulación local, para posteriormente redefinirlo en un sentidotaxonómico donde el cambio se encuentra en las relaciones de semejanza/diferencia que los sujetos de una matrizdisciplinar trazan sobre el mundo.Véase también: Thomas Kuhn

Inconmensurabilidad (filosofía) 191

Etapas

En este sentido, y siguiendo a Pérez Ransanz, podemos ubicar tres grandes etapas en la obra de Kuhn, por lo menosen lo que a este concepto se refiere. La primera, como ya hemos visto, es la presente en ERC y se caracteriza por unavisión global que se aplica a los paradigmas. Tal visión es reemplazada en los años setenta por una visión localista ysemanticista en la cual se le define ahora como la relación que se predica entre dos teorías que están articuladas endos lenguajes que no son completamente traducibles entre sí, como deja ver Kuhn en el siguiente pasaje de su obra:

La frase "sin medida común" se convierte en "sin lenguaje común". Afirmar que dos teorías soninconmensurables significa afirmar que no hay ningún lenguaje neutral o de cualquier otro tipo, al que ambasteorías, concebidas como conjuntos de enunciados, puedan traducirse sin resto o pérdida... [Sin embargo] Lamayoría de los términos comunes a las dos teorías funcionan de la misma forma en ambas...

Thomas KuhnLo anterior sólo prohíbe un tipo de comparación, aquella que se efectúa entre los enunciados de estas dos teorías enuna relación uno a uno. Una idea que subyace a tal formulación es que la traducibilidad implica simetría ytransitividad pues si una teoría T es traducible con otra teoría T’, entonces T’ es traducible a T, y más aún pues siexistiese una tercera teoría T’’ y ésta fuese traducible con T’, no podría ser el caso que las teorías T y T’ fueseninconmensurables, toda vez que la relación transitiva y simétrica asegura que sus enunciados podrán ser comparadosuno a uno.En este punto cabe hacer notar que Kuhn no niega que dos teorías inconmensurables tengan un ámbito común dereferencia, y en este sentido no afirma la imposibilidad de la comparación sino que su tesis se refiere únicamente a lacapacidad de traducir los enunciados de estas teorías en una relación de uno a uno, como se muestra en el pasaje:

Los términos que preservan sus significados a través de un cambio de teoría proporcionan una base suficientepara la discusión de las diferencias, y para las comparaciones que son relevantes en la elección de teorías.[Continuación en un pie de página] Nótese que estos términos no son independientes de la teoría, sino quesencillamente se usan de la misma manera en las dos teorías en cuestión. Se sigue que la contrastación es unproceso que compara dos teorías, no un proceso que pueda evaluar teorías por separado.

Thomas KuhnLo anterior es relevante porque permite dilucidar que el sentido de la racionalidad en Kuhn está ligado a la capacidadde comprensión, y no a la capacidad de traducción misma (Pérez Ransanz, 2000).En la tercera etapa de la obra de Kuhn la formulación de la tesis de la inconmensurabilidad se redefine en términostaxonómicos y se explica en función del cambio de las relaciones de semejanza/diferencia entre dos teorías. Estecambio, aclara Kuhn, atañe a los conceptos de clase A no sólo porque hay un cambio en el modo de referir losconceptos sino porque la estructura subyacente en ellos se ve alterada, esto es, varía el sentido – su intención – perotambién su referencia. De esta forma Kuhn afirma que no todos los cambios semánticos son cambios que conlleven ala inconmensurabilidad, lo son sólo aquellos que, por ser realizados en las categorías de base, operan de maneraholista, resultando en que toda la relación entre estos términos se vea alterada. Lo anterior, de un carácter local peroexplicado en términos taxonómicos, define a la inconmensurabilidad como la imposibilidad de homologar lasestructuras taxonómicas de dos teorías, imposibilidad que se expresa en una traducción necesariamente incompleta.

Caracterización taxonómica

Es precisamente esta caracterización taxonómica la que le permite postular su principio de no traslape, pues si lascategorías taxonómicas son particiones en un sentido lógico entonces esto implica que las relaciones que seestablecen entre estos conceptos y el resto son necesariamente jerárquicas. Y es justamente por este tipo de relaciónque los cambios en las categorías son holistas, pues la modificación de una categoría necesariamente implica lamodificación de las categorías que le circundan, lo cual explica porque una vez dado este cambio las taxonomías nopueden ser ya homologables – en el sentido de isomorfas.

Inconmensurabilidad (filosofía) 192

Una ventaja de tal caracterización – que se encontraba ya presente en su obra más con remanentes de lacaracterización semántica, misma que Kuhn llevó a todo su potencial a finales de los ochenta en su caracterizacióntaxonómica – es su creencia de que los criterios que permiten a las personas el identificar un concepto con susreferentes son muchos y variados, de tal forma que no es relevante para la comunicación exitosa una coincidencia encriterios, sino sólo en las categorías que estos implican; es decir, Kuhn visualiza las relaciones entre los conceptoscomo existentes en un espacio multidimensional, las categorías consisten en particiones de ese espacio, y son éstaslas que deben coincidir entre los comunicantes, no así los criterios que establecen una ligadura entre este espacio y elreferente asociado.

Reluctancia

Una precisión importante que debe realizarse, y que aparece constante en toda la obra de Kuhn, es su reluctancia aigualar traducción e interpretación, equiparación que Kuhn atribuye a la tradición analítica en la filosofía. Latraducción es una actividad casi mecánica en la cual se produce un manual de traducción quineano que relacionasecuencias de palabras de tal forma que los valores de verdad de estas oraciones se conservan. Sin embargo, elproceso de la interpretación implica la elaboración de hipótesis de traducción, las cuales habrán de ser exitosascuando permitan entender de manera coherente y con sentido aquellas preferencias que son extrañas. Kuhn entoncesreniega de un principio de traducibilidad universal pero no de un principio de ineligibilidad universal, distinción queserá muy importante para entender el rechazo de Kuhn hacia las críticas que le realizaron, por ejemplo, Popper yDavidson.Pero sin lugar a dudas la noción anterior nos invita a cuestionarnos cómo es que somos capaces de interpretar enprimer lugar, la solución de Kuhn consiste en afirmar que esto es como aprender un nuevo lenguaje. Sobre cómo esque somos capaces de aprender un nuevo lenguaje cuando nos enfrentamos a un cambio holista como el implicadocon la noción de inconmensurabilidad caben mencionar cuatro aspectos:• Primero, para realizar tal asimilación es necesario que el vocabulario complementario esté bien comprendido.•• Segundo, las definiciones habrán de cumplir un papel mínimo, son los ejemplos paradigmáticos los que

introducen el uso de los nuevos conceptos de tal forma que un componente estipulativo u ostensivo esindispensable.

•• Tercero, que los conceptos de clase no pueden aprenderse aislados sino en relación a una serie de conjuntos decontraste.

• Cuarto, que el proceso de aprendizaje conlleva la generación de expectativas, las cuales son la base de laproyectabilidad de los términos de clase, de tal suerte que éstas son a su vez la base de, entre otras cosas, lasinferencias inductivas. Y último, así como los criterios para relacionar la clase y su referente varían, también lohacen las rutas de aprendizaje de los sujetos.

ConclusiónSe puede concluir que la tesis de la inconmensurabilidad en Kuhn, pese a sus diversas reformulaciones, lograproblematizar seriamente tanto la idea de la acumulación, como la noción misma de un lenguaje neutro, sin por ellocaer en un irracionalismo ni afirmar que el ámbito común de referencia es irrelevante, tesis que le diferencia deFeyerabend toda vez que éste afirma tanto en su obra Problemas con el Empirismo como en su Contra el método quesi la nueva teoría deambula por nuevos campos, esto no es un problema para la teoría, pues muchas veces el progresoconceptual conlleva a la desaparición y no a la refutación o resolución de viejas preguntas.

Inconmensurabilidad (filosofía) 193

Bibliografía

Bibliografía primaria• Feyerabend, Paul K. (1970). Problems of Empirism. Reino Unido: Cambridge University Press. ISBN 0-521-31641-3.• —— (1999). For and against the method. EEUU: University of Chicago Press. ISBN 0-226-46774-0.• Kuhn, Thomas S. (2000). The Road Since Structure. EEUU: University of Chicago Press. ISBN 0-226-45798-2.

• —— (2000). «What are Scientific Revolutions?». The Road Since Structure. EEUU: University of ChicagoPress. ISBN 0-226-45798-2.

• —— (2000). «Conmensurability, Comparability, Communicability». The Road Since Structure. EEUU:University of Chicago Press. ISBN 0-226-45798-2.

• Popper, Karl R. (1996). The Myth of the Framework. Reino Unido: Routledge. ISBN 0-415-13555-9.• Davidson, Donald (2001). Inquiries into truth and interpretation. Reino Unido: Oxford University Press. ISBN

0-19-924629-7.• —— (2001). «Belief and the basis of meaning». Inquiries into truth and interpretation. Reino Unido: Oxford

University Press. ISBN 0-19-924629-7.• —— (2001). «Radical interpretation». Inquiries into truth and interpretation. Reino Unido: Oxford University

Press. ISBN 0-19-924629-7.• —— (2001). «Truth and Meaning». Inquiries into truth and interpretation. Reino Unido: Oxford University

Press. ISBN 0-19-924629-7.

Bibliografía secundaria• Forster, Malcolm R. (2000). «Hard Problems in the philosophy of science: Idealization and commensurability».

After Popper, Kuhn & Feyerabend: Issues in Theories of Scientific Method. Kluwer: Australasian Studies inHistory and Philosophy of Science.

• Fu, Daiwie (1993). «Problem Domain, Taxonomy and Comparativity in Histories of Science». Philosophy andConceptual History of Science in Taiwan. Taiwan: Springer. ISBN 0-7923-1766-1.

• Galison, Peter (1997). «Trading Zone: Coordinating Action and Belief». Image and Logic: A Material Culture ofMicrophysics. EEUU: University of Chicago Press. ISBN 0-226-27916-2.

• Pérez Ransanz, Ana Rosa, Kuhn y el cambio científico, Fondo de Cultura Económica, México, 1999. ISBN968-16-4189-2

• Mitchell, Sandra (2003). Biological Complexity and Integrative Pluralism. Reino Unido: Cambridge UniversityPress. ISBN 0-521-52079-7.

• Rizzuto, Ana (2004). The Dynamics of Human Aggression. Reino Unido: Routledge. ISBN 0-415-94591-7.

Enlaces externos• Bibliografía sobre Inconmensurabilidad – Leibniz Universität Hannover [1] (en inglés)• Incommensurability Online – Volume of Abstracts – Leibniz Universität Hannover [2] (en inglés)

Referencias[1] http:/ / sun1. rrzn. uni-hannover. de/ zeww/ inc. conf. litlist. html[2] http:/ / sun1. rrzn. uni-hannover. de/ zeww/ inc. conf. volumeofabstracts. html

Fuentes y contribuyentes del artículo 194

Fuentes y contribuyentes del artículoLeón Hebreo  Fuente: http://es.wikipedia.org/w/index.php?oldid=54672470  Contribuyentes: Abajo estaba el pez, Aromera, Ceancata, Chewie, Gerwoman, Guimis, Kol·lander, Martínhache,Xaquiles, Ángel Luis Alfaro, 3 ediciones anónimas

Isaac Abravanel  Fuente: http://es.wikipedia.org/w/index.php?oldid=55974916  Contribuyentes: Akamol, Almendro, Aloneibar, Ceancata, Copydays, El Megaloco, Er Komandante, Guimis,Gusgus, Juamax, Kordas, Lecuona, Michvedrenne, Olarcos, Pera6, Rastrojo, Rupert de hentzau, Santiperez, Yonderboy, Ángel Luis Alfaro

Paradoja de Arrow  Fuente: http://es.wikipedia.org/w/index.php?oldid=56079626  Contribuyentes: Al.rivero, Alex299006, AlfonsoERomero, AntBiel, Anual, Bucephala, Buenaprensa,Domaniom, Ejrrjs, Emijrp, Farisori, Fydus, Gonn, Heimy, Jesuscabezudo, Joseaperez, Kamilokardona, Luis Felipe Schenone, Maltusnet, Pedro Felipe, Profeshermyguad, RGLago, Rafagb,Sdalva, Sirpuppet, Tano4595, Wilfredor, Yamadharma, 30 ediciones anónimas

Eficiencia de Pareto  Fuente: http://es.wikipedia.org/w/index.php?oldid=57322688  Contribuyentes: -antonio-, Amadís, Anual, Cheveri, Correogsk, ElementoX, FedericoF, Ictlogist, IngeniosoHidalgo, Irbian, Jafol, Jarfil, Kamilokardona, Libertad y Saber, Lnegro, Lourdes Cardenal, Lucien leGrey, Madalberta, Matdrodes, Miketanis, Moriel, Mparri, Nihilo, Numbo3, Periku, Rsg,Tano4595, Zalacain56, 43 ediciones anónimas

Geometría hiperbólica  Fuente: http://es.wikipedia.org/w/index.php?oldid=54745661  Contribuyentes: .José, Anacleto, Aradan, Argaldo, Bismillah, Carturo222, Davius, FAR, GermanX, JRGL,Jerowiki, Juan Mayordomo, Nanovapor9, Omeñaca, Raulshc, Rimac, Tirabo, 32 ediciones anónimas

Julius von Mayer  Fuente: http://es.wikipedia.org/w/index.php?oldid=56902412  Contribuyentes: Camilla L, Copydays, FAR, HUB, Makete, Manuel Trujillo Berges, Martínhache, Rosenzweig,SHeDeL, 3 ediciones anónimas

Friedrich Schleiermacher  Fuente: http://es.wikipedia.org/w/index.php?oldid=55079955  Contribuyentes: Bafomet, Blasfemia23456, Carlos Sánchez, Copydays, Danielacainzos, David0811,DdReal, Ecemaml, Ediberto, Fadesga, Fernando H, GermanX, Gononogon, Heredia96, Juan Manuel, Leandrod, Luis Felipe Schenone, M.heda, Macarrones, Mindeye, Pera6, Petruss, RoyFocker,Warko, Xabier, 12 ediciones anónimas

Leopold von Ranke  Fuente: http://es.wikipedia.org/w/index.php?oldid=56952249  Contribuyentes: Abajo estaba el pez, Chicobond89, Copydays, Dodo, Espilas, Japsys, Jorge c2010, Lecuona,Lusitor, Mel D'artagnan, Napoleón333, Oscar ., SGA82, Tirithel, Tláloc, 22 ediciones anónimas

Johann Gustav Droysen  Fuente: http://es.wikipedia.org/w/index.php?oldid=52824144  Contribuyentes: Copydays, Descuderoa, Dianai, Lecuona, Maldoror, Petronas, Poc-oban, Shibo77,Superzerocool, Toolserver, 11 ediciones anónimas

Covariancia de Lorentz  Fuente: http://es.wikipedia.org/w/index.php?oldid=46969097  Contribuyentes: Davius, GermanX, Harturo123, Srbanana, Tzihue, Zendel, 6 ediciones anónimas

Informático teórico  Fuente: http://es.wikipedia.org/w/index.php?oldid=56016986  Contribuyentes: Acratta, Banfield, Biasoli, Faelomx, Farisori, HIPATIA2006, Jkbw, 5 ediciones anónimas

Nilpotente  Fuente: http://es.wikipedia.org/w/index.php?oldid=57370156  Contribuyentes: Farisori, HUB, Ingenioso Hidalgo, Ricard Delgado Gonzalo, SimónK, Tano4595, 2 ediciones anónimas

Idempotencia  Fuente: http://es.wikipedia.org/w/index.php?oldid=56539619  Contribuyentes: CayoMarcio, Davius, DefLog, Digigalos, Egaida, Elwikipedista, Ingenioso Hidalgo, Julian Mendez,Leonpolanco, Ludoviko, Raulshc, Sabbut, Sanbec, Wikitin, 10 ediciones anónimas

Idempotencia (informática)  Fuente: http://es.wikipedia.org/w/index.php?oldid=47592847  Contribuyentes: Lautaro2k, Sabbut, Wikielwikingo, 1 ediciones anónimas

Matriz idempotente  Fuente: http://es.wikipedia.org/w/index.php?oldid=55911780  Contribuyentes: Airunp, Alexquendi, AntBiel, CaStarCo, CayoMarcio, Halcón, JAGT, Leonpolanco,Paintman, Taichi, Tano4595, 16 ediciones anónimas

Teorema de Herbrand-Ribet  Fuente: http://es.wikipedia.org/w/index.php?oldid=44980395  Contribuyentes: Alfredobi, Farisori, Juan Mayordomo, Raulshc, Uruk

Jean-François Lyotard  Fuente: http://es.wikipedia.org/w/index.php?oldid=56962621  Contribuyentes: Abenyusuf, Aldo Soc, Alexav8, Alterzaratustra, Baucham, Cesarsorm, Common Good,Diazcle, Diegusjaimes, Dieogomez, Emijrp, Fadesga, Gaius iulius caesar, HUB, JorgeGG, Jorgejhms, Joseaperez, Moriel, Nihilo, Riviera, Rsg, Tano4595, Varano, Xabier, Ál, Ñlasjdfñlsj, 37ediciones anónimas

Yutaka Taniyama  Fuente: http://es.wikipedia.org/w/index.php?oldid=54417266  Contribuyentes: AlXD, CommonsDelinker, Dodo, Dove, Foster, John of god, LyingB, Mzamora2, RGLago,Raulshc, Rovnet, Rαge, Sabbut, Srengel, Taichi, Vivero, Wrightbus, 2 ediciones anónimas

Luis Gonzaga  Fuente: http://es.wikipedia.org/w/index.php?oldid=57216434  Contribuyentes: Alex15090, Copydays, Diegusjaimes, EngelAguilar, Escarlati, Gerwoman, Joane, LMLM,Leonpolanco, Macarrones, Marcelo, MarisaLR, Mircalla22, Muro de Aguas, Otravolta, Pinar, Por la verdad, Rakela, Rosarinagazo, Thor1962, 36 ediciones anónimas

Ludwig Schläfli  Fuente: http://es.wikipedia.org/w/index.php?oldid=55758018  Contribuyentes: Ceancata, Cinabrium, Ingenioso Hidalgo, Juan Mayordomo, Ricardogpn, Tuc negre, Wewe

Plano (geometría)  Fuente: http://es.wikipedia.org/w/index.php?oldid=57377070  Contribuyentes: Airunp, Alhen, Allforrous, Amadís, Angel GN, Antonorsi, Banfield, BetoCG, Brindys, CarlosCastañeda Girón, Carturo222, DerHexer, Diegusjaimes, Dreitmen, Eduardosalg, Ejmeza, Emiduronte, Emijrp, Farisori, Felipe.bachomo, Gafotas, Gaius iulius caesar, GermanX, Gusbelluwiki,Götz, HUB, Humberto, Isha, Israel.cma, JMCC1, Jcuadros, Jerowiki, Jkbw, Jorge c2010, Jsanchezes, Kapitonda, Ketamino, KoenB, Kordas, Larocka, Laura Fiorucci, Leonpolanco, Lobillo,Marb, Matdrodes, Moriel, Mortadelo2005, Muro de Aguas, Mutari, Neoecos, Netito777, Nicop, Paintman, Pólux, Raulshc, Ricardogpn, Rondador, Savh, Tano4595, Tayrydino, Technopat,Tortillovsky, VanKleinen, Vitamine, Xobra, Yeza, Youssefsan, 211 ediciones anónimas

Espacio euclídeo  Fuente: http://es.wikipedia.org/w/index.php?oldid=56343850  Contribuyentes: Agualin, AstroNomo, Davius, DefLog, GermanX, Götz, HUB, Humbefa, Ingenioso Hidalgo,JMCC1, Jharni Elmer Neyra Valverde, Jkbw, Jorge c2010, Juan Marquez, Juan Mayordomo, Kriztoval, ManuelMore, Moriel, Nanovapor9, Paintman, Quetzal02, Raulshc, Rsg, Sabbut, SantiagoHernández, SergioN, SuperBraulio13, Wewe, 39 ediciones anónimas

Espacio vectorial normado  Fuente: http://es.wikipedia.org/w/index.php?oldid=56802381  Contribuyentes: Cesar Jared, Davius, Diegusjaimes, Hoenheim, Jmvgpartner, Jorge c2010, JuanMayordomo, Magister Mathematicae, Mcapdevila, Raulshc, 12 ediciones anónimas

Espacio de Banach  Fuente: http://es.wikipedia.org/w/index.php?oldid=56851570  Contribuyentes: Alexav8, Cassilia, Cgb, Cw88, Davius, Drake 81, Error de inicio de sesión, Gonhidi, HUB,Ingenioso Hidalgo, Javg, Jerowiki, Joseaperez, Juan Mayordomo, Lfiguero, Macarrones, Mandramas, Mister, Moriel, Pati, Pólux, Raulshc, Rsg, Vargenau, Vicaram, Xan de Menguxo, 17ediciones anónimas

Stefan Banach  Fuente: http://es.wikipedia.org/w/index.php?oldid=55912506  Contribuyentes: Barberab, Bilbao451f, Comae, CommonsDelinker, Ferbrunnen, Halcón, Juan Mayordomo, Kernelpanic, Lasai, Paintman, Rosarinagazo, Sabbut, Salu2, 6 ediciones anónimas

Espacio de Hilbert  Fuente: http://es.wikipedia.org/w/index.php?oldid=55349060  Contribuyentes: Agualin, Akhram, Alexav8, CSTAR, Cassilia, DanFar, Danielba894, Davius, DefLog,Euclides, GermanX, Info.abstracta, Jerowiki, Jorge c2010, Juan Mayordomo, Kismalac, Lluvia, MONIMINO, Mandramas, Wewe, Wricardoh, Xenoforme, 41 ediciones anónimas

Ortogonalidad (matemáticas)  Fuente: http://es.wikipedia.org/w/index.php?oldid=54621999  Contribuyentes: Arcibel, Açipni-Lovrij, Beaire1, Biasoli, Davius, Dianai, Diegusjaimes, Digigalos,Fmariluis, Francisco Mochis, Fsd141, HUB, Hipertrofia, Hoenheim, JA Galán Baho, Jerowiki, Jkbw, Jorge c2010, Juan Mayordomo, Leonpolanco, Magister Mathematicae, PACO, Paintman,Raulshc, Savh, Szvalb, Technopat, Ty25, Wewe, Yodigo, 50 ediciones anónimas

Función de onda  Fuente: http://es.wikipedia.org/w/index.php?oldid=54621416  Contribuyentes: 4lex, Agremon, Agualin, Alejandrosanchez, Antonio Barau, Chewie, Davius, GermanX,Gorospe, Joigus, Juan Mayordomo, Juan Quisqueyano, Ortisa, Pollo1902, Rofellos, Srbanana, Tano4595, Tesi1700, 25 ediciones anónimas

Ecuación de Schrödinger  Fuente: http://es.wikipedia.org/w/index.php?oldid=56548541  Contribuyentes: .Sergio, 19jp87, 4lex, Agremon, Agualin, Alefisico, Antonorsi, Carcifer-uv,CarlosGarcia, Cookie, Danielba894, Davius, Diegusjaimes, Eduardosalg, Egaida, Humbefa, Jkbw, Juan Mayordomo, Kakico, Maldoror, Marsal20, Matdrodes, Mparri, MusePi83, Narayan82,Oce-Físico, Paintman, Pleira, Rsg, Shooke, Srbanana, SuperBraulio13, Tano4595, Thingg, Xavigarz, 74 ediciones anónimas

Fuentes y contribuyentes del artículo 195

Teorema de Noether  Fuente: http://es.wikipedia.org/w/index.php?oldid=54956775  Contribuyentes: Correogsk, Davius, DefLog, Fede Threepwood, GermanX, RGLago, Srbanana, Tano4595,Tirithel, 14 ediciones anónimas

Teoría de campo de gauge  Fuente: http://es.wikipedia.org/w/index.php?oldid=54727614  Contribuyentes: 3coma14, Brigan, Cdani, Davius, Ejmeza, GermanX, Joseaperez, Maldoror,Nanovapor9, Slave4u, Unificacion, 7 ediciones anónimas

Campo de Yang-Mills  Fuente: http://es.wikipedia.org/w/index.php?oldid=50653022  Contribuyentes: Davius, Dmoyacr, Raulshc, 8 ediciones anónimas

Grado de libertad (física)  Fuente: http://es.wikipedia.org/w/index.php?oldid=57311046  Contribuyentes: Algarabia, Davius, GermanX, Grimlock, Netito777, Sabbut, Tano4595, UAwiki, 9ediciones anónimas

Grado de libertad (estadística)  Fuente: http://es.wikipedia.org/w/index.php?oldid=56773740  Contribuyentes: Adrianbmv, Airunp, Andreateletrabajo, Beto29, Digigalos, Elmulo, Elpolaco08,Hernancasp, Ingolll, JorgeGG, Joseaperez, Juan Manuel, Juan Mayordomo, Netito777, Ralphloren171, Sabbut, Tamorlan, Tano4595, UA31, 18 ediciones anónimas

Carl Ludwig Siegel  Fuente: http://es.wikipedia.org/w/index.php?oldid=55597721  Contribuyentes: Baroc, Ceancata, GFHund, Mercenario97, Raulshc

Conservación de la energía  Fuente: http://es.wikipedia.org/w/index.php?oldid=57356037  Contribuyentes: Acratta, Agremon, Aleposta, Andreasmperu, Antón Francho, AstroNomo, Atalaia,Balderai, Banfield, BetoCG, Ctrl Z, Davius, Diegusjaimes, Divalino, El carrera, Eloy, Er Komandante, Fonsi80, Foundling, Greek, Guerovictor, HUB, Ingolll, Isha, Jahnfi, Jarisleif, Javierito92,Jcaraballo, Jkbw, Joseaperez, Jugo 89, Katisss, Ketakopter, Kved, LarA, Lluvia, Loco085, MILO, MadriCR, Mandarria01, Matdrodes, MiguelAngelCaballero, Moriel, Netito777, Nioger, Ortisa,Pérez, Richy, Rickyman 20, Rubpe19, Sa, Sauh, Sauron, Savh, Siabef, Sms, SuperBraulio13, Superzerocool, Tano4595, Thalantyr, Tilla, Tirithel, Triku, Tuputita, Varano, Vitamine, Yrithinnd,Érico Júnior Wouters, 200 ediciones anónimas

Primer principio de la termodinámica  Fuente: http://es.wikipedia.org/w/index.php?oldid=57284767  Contribuyentes: Airunp, Andreasmperu, Antón Francho, Aracne, BenytoDG, Bucho,Christian Paladino, Davius, Diegusjaimes, Foundling, Gabriel00, HUB, Izmir2, Jafeluv, Jorge c2010, Josebita, Karshan, Kismalac, Lluvia, Magister Mathematicae, Rafa606, Raulshc,Rosarinagazo, Savh, Srbanana, Tintinando, Tirithel, Tlaoakaiser, 83 ediciones anónimas

Teoremas de incompletitud de Gödel  Fuente: http://es.wikipedia.org/w/index.php?oldid=57008243  Contribuyentes: Acratta, Akhram, Alvarogonzalezsotillo, Anizzomc, Arapajoe, Ascánder,Barteik, Belgrano, Brindys, Ca in, Chisquirisco, Correogsk, Davius, Dem, Dhow, Diegusjaimes, Dodo, Edgardogarciah, Farisori, Giordano, Halfdrag, Identy, Jarke, Jkbw, Jo-Con-El, Joseaperez,JulioOthe, Kase-o2580, Kismalac, Lightst, Luis Felipe Schenone, Maldoror, Mar del Sur, Matdrodes, Melocoton, Mortadelo, PanchoQV, Pati, Paulienator, Pérez Poch, Rioman, Roberrpm,Sabbut, Savh, Sefer, Sergiovh, Subitosera, Technopat, Uruk, Wewe, 56 ediciones anónimas

Numeración de Gödel  Fuente: http://es.wikipedia.org/w/index.php?oldid=55681468  Contribuyentes: Casio de Granada, Farisori, Luis Felipe Schenone, Marsa, Skaterweb, 3 ediciones anónimas

Problema de la parada  Fuente: http://es.wikipedia.org/w/index.php?oldid=57236074  Contribuyentes: Acracia, Acratta, Ascánder, Bernard, Der Kreole, Desatonao, Dr Doofenshmirtz, Gauleng,Gustronico, Icvav, Juan Ignacio Fernández, Kn, Lechuck2008, Marcos.moya, Martini 001, Moustique, Oscar ., Pablo.cl, Pabloab, Riviera, 23 ediciones anónimas

Lógica de primer orden  Fuente: http://es.wikipedia.org/w/index.php?oldid=56973492  Contribuyentes: .Sergio, 4lex, Airunp, Alakasam, Azevedo bandeira, Bernardo Bolaños, Davius,Diegusjaimes, Drake 81, Drowne, Elwikipedista, GabiAPF, HUB, Juan José Moral, Julian Mendez, JulianMendez, Luis Felipe Schenone, MONIMINO, Marianov, Matdrodes, Nicop, Omerta-ve,PabloCastellano, Panypeces, Rodrigo.ros, Saloca, SantiagoMB, Unificacion, Vitorres, Vivero, Wedrey, Zlayne, 110 ediciones anónimas

Aritmética no estándar  Fuente: http://es.wikipedia.org/w/index.php?oldid=44451467  Contribuyentes: Kismalac

Teorema de compacidad  Fuente: http://es.wikipedia.org/w/index.php?oldid=57086290  Contribuyentes: Alfredobi, Cobbor, Gafotas, JViejo, Juan Mayordomo, Luis Felipe Schenone, MILO,Marsa, Toorandom, 2 ediciones anónimas

Teorema de Tychonoff  Fuente: http://es.wikipedia.org/w/index.php?oldid=56585415  Contribuyentes: Angelito7, Cgb, Juan Mayordomo, Torta, Tzihue, 1 ediciones anónimas

Andrey Nikolayevich Tychonoff  Fuente: http://es.wikipedia.org/w/index.php?oldid=53745303  Contribuyentes: Baroc, Cgb, 1 ediciones anónimas

Ecuación integral de Volterra  Fuente: http://es.wikipedia.org/w/index.php?oldid=48600464  Contribuyentes: Cgb, Grillitus, MartinGala, Nachosan, 2 ediciones anónimas

Transformada de Laplace  Fuente: http://es.wikipedia.org/w/index.php?oldid=57197248  Contribuyentes: Abdelix, Alberto2087, Albramallo, Alhen, Banfield, Benja12xd, Berfito, Ceancata,Chzelada, Cousteau, Dasaqui, Davius, Diegusjaimes, Dusan, Emmanuele, Execoot, Faelomx, Gabbor, Gavanzo, Greek, HUB, Hichokei, Hosg, Humbefa, Icvav, Jkbw, JorSol, Jtico, JuanMayordomo, Lanjoe9, Leandroccl3, Lucianobello, Luis espejel, Magister Mathematicae, Makete, Marsal20, Matdrodes, Mortadelo2005, Msc 89, NaSz, Nberger, Nettosama, Ooscarr, Pedrorivas,Portland, Pólux, Raulshc, Ricardogpn, Roberpl, Rαge, Schummy, Shooke, Sidenko, Sobreira, Superzerocool, Surfaz, Technopat, Temandocorreo, Tico, Tirithel, Txo, UAwiki, Unificacion,Vynith, Yagamichega, 372 ediciones anónimas

Teorema de completitud de Gödel  Fuente: http://es.wikipedia.org/w/index.php?oldid=51880868  Contribuyentes: Alejandrocaro35, Alfredobi, Farisori, Luis Felipe Schenone, Rrecillas, Uruk, 1ediciones anónimas

Demostración original del teorema de completitud de Gödel  Fuente: http://es.wikipedia.org/w/index.php?oldid=51001377  Contribuyentes: Alonsozela, Dagudoj, Gafotas, Götz, JuanMayordomo, Luis1970, Uruk, 3 ediciones anónimas

Jerarquía de Chomsky  Fuente: http://es.wikipedia.org/w/index.php?oldid=50665673  Contribuyentes: Antur, Ascánder, Bark, Chococat, Dodo, Elisardojm, Elultimolicantropo, Emijrp, Ero,Farisori, Fer31416, Fortran, Frandzi.rangel, Jarfil, Javier Carro, Joseaperez, Juanalmenara, Lanjoe9, Lechuck2008, Luis1970, Miguelmrm, Moriel, Mortadelo, Nihilo, Ninrouter, Sms, Vaskop,Waeswaes, 56 ediciones anónimas

Tiempo polinomial  Fuente: http://es.wikipedia.org/w/index.php?oldid=55948856  Contribuyentes: Alexav8, Ascánder, Barcex, Farisori, Johnbojaen, JorgeGG, Matdrodes, Numbo3, RobertoFiadone, Template namespace initialisation script, 14 ediciones anónimas

Polinomio  Fuente: http://es.wikipedia.org/w/index.php?oldid=57375792  Contribuyentes: 4lex, Abgenis, Adrian.h.v, Airunp, Ale flashero, AleMaster23, Alexav8, AlfonsoERomero, Alhen,Aloriel, Amadís, Açipni-Lovrij, Balderai, Banfield, BetoCG, Biasoli, Bucho, BuenaGente, C'est moi, Cesar saltillo, Cheveri, Cinabrium, Clauh, Comikisimo, Cronos x, Cuat, David.moreno,Davius, Delphidius, Descotificador, Diegusjaimes, Diosa, Dnu72, Dreitmen, Ecemaml, Edmenb, Eduardosalg, Emiduronte, Emijrp, Farisori, Fernando H, Fmariluis, Foundling, Galandil,Gengiskanhg, GermanX, Goose32, Greek, Grundig, Gusgus, HUB, Hanibaal, Hawking, Humberto, Ingenioso Hidalgo, Iulius1973, Ivanics, Izmir2, JMCC1, Jalonzo, Jarisleif, Javierito92,Jdmprof, Jerowiki, Jgalgarra, Jgomez53, Jkbw, Jmvgpartner, Jorge c2010, Joseaperez, Juan Mayordomo, Jynus, Kristobal, Kved, Laura Fiorucci, Leandroidecba, Linkedark, Lungo, M S,Mafores, Magister Mathematicae, Mahadeva, Maleiva, Manwë, Marianov, MasterVickhu, Matdrodes, Miss Manzana, Moriel, Mortadelo2005, Mpagano, NaSz, Navarroaxel, Netito777, Nicop,Nselemm, PaQmbral, Paintman, Planeador negro, Profcarla, Proferichardperez, Prometheus, Pólux, Queninosta, Quiron, Raulshc, Raystorm, Roblespepe, Rodriguillo, Rosarino, Sabbut,Saposabio, Savh, Sebrev, Shakii Janet, Shooke, Soulreaper, Suisui, Tacirupeca zula, Tano4595, Technopat, Thormaster, Tirithel, Tomatejc, Vitamine, Vivero, Wewe, Wikielwikingo, Wikiléptico,Xavigivax, Xrjunque, Xuankar, Youssefsan, 381 ediciones anónimas

Anillo de polinomios  Fuente: http://es.wikipedia.org/w/index.php?oldid=46488978  Contribuyentes: Alephcero, Farisori, GermanX, Macarrones, Patricio.lorente, Wewe, 8 ediciones anónimas

Tesis de Church-Turing  Fuente: http://es.wikipedia.org/w/index.php?oldid=56795333  Contribuyentes: Acratta, Ascánder, Deleatur, Dodo, Farisori, Fer31416, Jordicuest, Joseantgv, Lentucky,Sabbut, ShipIt, Symonblade, Tets, XD YO, 33 ediciones anónimas

Función computable  Fuente: http://es.wikipedia.org/w/index.php?oldid=52532046  Contribuyentes: Farisori, Gaeddal, Idleloop, Juan Mayordomo, Matdrodes, Pablo.cl, Relusion, SergioN,Tom.bagby, 16 ediciones anónimas

Recursión primitiva  Fuente: http://es.wikipedia.org/w/index.php?oldid=50206853  Contribuyentes: Ascánder, Farisori, Kokoo, Leugimap, Metalpotato, Segedano, Yasim, 27 edicionesanónimas

Cálculo lambda  Fuente: http://es.wikipedia.org/w/index.php?oldid=56812454  Contribuyentes: Alexav8, Armando ronquillo, Ascánder, Açipni-Lovrij, Diogeneselcinico42, Dusan, Edorka,Elwikipedista, Fbrusatti, Geburah, GermanX, Gurgut, Harpagornis, Intimalai, J.M.Domingo, Jileon, Jmchuma, Jorgenumata, Lauranrg, Luis Felipe Schenone, Marco Regueira, Matdrodes, Mister,Morza, Navazuelo, Numbo3, PACO, Pilaf, Raulshc, Rdaneel, WLoku, Woden, Xerox 5B, 71 ediciones anónimas

Máquina de Post  Fuente: http://es.wikipedia.org/w/index.php?oldid=26913036  Contribuyentes: Ascánder, Farisori, GermanX, Lobillo

Fuentes y contribuyentes del artículo 196

Teoría de la computabilidad  Fuente: http://es.wikipedia.org/w/index.php?oldid=54516208  Contribuyentes: AchedDamiman, Acratta, Airunp, Ascánder, Carutsu, Chien, Diegusjaimes, Dodo,Dogor, Elmolinari, FAR, Farisori, Gafotas, Gauleng, Honorio madrigal, Héctor Guido Calvo, Irbian, Isha, JMCC1, Jmm79, Leitzaran, Lucianobello, Marsa, Muro de Aguas, Olea, Oscar ., Richy,Tamorlan, Zanaqo, 30 ediciones anónimas

Teoría de la complejidad computacional  Fuente: http://es.wikipedia.org/w/index.php?oldid=54782297  Contribuyentes: -jem-, AchedDamiman, Alexav8, AlfonsoERomero, Argentumm,Ascánder, Azevedo bandeira, Barcex, Cesarsorm, Elabra sanchez, Farisori, Fer31416, Focojoaco, Gato ocioso, Halfdrag, Ivan.Romero, Jstitch, Juan Mayordomo, LuqueII, Macarse, Martin78B,Maxidigital, Moriel, Naki, Nicolasdiaz, Pablohe, RoyFocker, Ruben.mg, Surscrd, Tano4595, Uruk, Zild, 65 ediciones anónimas

Teorema de la jerarquía temporal  Fuente: http://es.wikipedia.org/w/index.php?oldid=51113396  Contribuyentes: Faragon, Farisori

Máquina de Turing  Fuente: http://es.wikipedia.org/w/index.php?oldid=57434288  Contribuyentes: (missing paren, Acratta, Aldo.martinez.n, Alejandrosanchez, Alexav8, AlfonsoERomero,Ascánder, Barcex, Belgrano, Casgar49, Cobalttempest, Dav7mx, Davius, Dnu72, DraXus, Elabra sanchez, Elmo23x, Emijrp, Espartera, Ezarate, Farisori, Fepi, Fer31416, Frapen, Gaeddal, Gebla,GermanX, Götz, Halfdrag, Head, Humberto, Jesús Pardillo, Joelcuervo, Jstitch, Juan Mayordomo, Jugones55, Kn, LP, Lasneyx, Laura Fiorucci, Macar, Matdrodes, Moriel, Mtrias, Nickel Spider,Ninrouter, Pan con queso, Pequeniosaltamontes, Pinar, Porao, Pólux, Rafa3040, Rai201208, Rbrena, Rufflos, Samuel abel, Sauron, Sms, Snakeyes, SuperBraulio13, Symonblade, Tano4595, UnaiFdz. de Betoño, Zeno Gantner, 117 ediciones anónimas

Stephen Cook  Fuente: http://es.wikipedia.org/w/index.php?oldid=49592315  Contribuyentes: Aikurn, Aleposta, Ceancata, Farisori, Fcr, FedericoMP, Marinna, Riviera, 3 ediciones anónimas

NP-completo  Fuente: http://es.wikipedia.org/w/index.php?oldid=54033058  Contribuyentes: Adaumaholding, Adelpine, AlfonsoERomero, Ascánder, Cesarsorm, Chuffo, Davius, Diegusjaimes,Dodo, Elopio, Farisori, Gato ocioso, Genba, Jose.antonio.sa, Latacita, LordT, Lourdes Cardenal, Macarse, Macro.masek, Pablo.cl, Ravave, Riviera, RoyFocker, Sabbut, Tessier, 19 edicionesanónimas

Problema de decisión  Fuente: http://es.wikipedia.org/w/index.php?oldid=56649361  Contribuyentes: Acratta, Ascánder, Cek, Eduardosalg, Farisori, GermanX, Guille.hoardings, Julie, Lluvia,Mariana de El Mondongo, Marsa, Netito777, Tomatejc, Trylks, 7 ediciones anónimas

Lógica matemática  Fuente: http://es.wikipedia.org/w/index.php?oldid=57265735  Contribuyentes: Andreasmperu, Arcibel, Banfield, Boatbadly, Cinabrium, Cobalttempest, Davius, DerkeNuke,Diegusjaimes, Dodo, Egaida, Elwikipedista, Emiduronte, Fer31416, FrancoGG, Gerwoman, Ggenellina, Halfdrag, Imagsinlim, Ingenioso Hidalgo, Isha, Jcaraballo, Jkbw, Julian Mendez,JulianMendez, Kismalac, Kokoo, Kved, Lauranrg, Lexinerus, Lord Arioch, Luigidvargas, Luis Felipe Schenone, Marianov, Matdrodes, Mortadelo2005, Paintman, Pan con queso, Piolinfax,Prinssessa, Raystorm, Sebrev, Sertrevel, SpeedyGonzalez, SuperBraulio13, Technopat, Tirithel, Tomatejc, Tostadora, Unificacion, Vivero, Wewe, Wikiléptico, 127 ediciones anónimas

Inconmensurabilidad (filosofía)  Fuente: http://es.wikipedia.org/w/index.php?oldid=57376392  Contribuyentes: 3coma14, Alhen, AnselmiJuan, Claudio.FR, FabrizzioMc, Gizmo II,Juanjose1385, Jurock, Leonolive, Luis Felipe Schenone, Martínhache, Nihilo, Phirosiberia, Pólux, RoRo, Santiperez, Sking, SolveCoagula, Taragui, Tokkamak, Tomatejc, Varano, 17 edicionesanónimas

Fuentes de imagen, Licencias y contribuyentes 197

Fuentes de imagen, Licencias y contribuyentesImagen:Isaac Abrabanel.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Isaac_Abrabanel.jpg  Licencia: Public Domain  Contribuyentes: Arie Inbar, Chesdovi, Hidro,JotaCartas, Kordas, Väsk, Warburg, ÁArchivo:Front pareto.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Front_pareto.svg  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes:User:Nojhan, User:NojhanArchivo:FrentePareto.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:FrentePareto.svg  Licencia: Creative Commons Attribution-Sharealike 3.0,2.5,2.0,1.0  Contribuyentes:ParriArchivo:Hyperbolic.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Hyperbolic.jpg  Licencia: GNU Free Documentation License  Contribuyentes: AradanArchivo:Hyperbolic triangle.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Hyperbolic_triangle.svg  Licencia: Public Domain  Contribuyentes: Bender235, Kieff, 1 edicionesanónimasArchivo:Hyperbolic tiling omnitruncated 3-7.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Hyperbolic_tiling_omnitruncated_3-7.png  Licencia: Public Domain Contribuyentes: Davius, Jean-Christophe BENOIST, Kilom691, Marcus erroniusArchivo:Julius Robert von Mayer.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Julius_Robert_von_Mayer.jpg  Licencia: Public Domain  Contribuyentes: Avatar, Elya,Kevyn, Kilom691, 竹 麦 魚(Searobin)Archivo:Robert-Mayer-Denkmal.JPG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Robert-Mayer-Denkmal.JPG  Licencia: GNU Free Documentation License  Contribuyentes:Gabriele DelheyArchivo:Commons-logo.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Commons-logo.svg  Licencia: logo  Contribuyentes: SVG version was created by User:Grunt andcleaned up by 3247, based on the earlier PNG version, created by Reidab.Archivo:Friedrich Daniel Ernst Schleiermacher 2.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Friedrich_Daniel_Ernst_Schleiermacher_2.jpg  Licencia: Public Domain Contribuyentes: Chris 73, Mutter Erde, Schaengel89Archivo:Flag of Poland.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Flag_of_Poland.svg  Licencia: Public Domain  Contribuyentes: Mareklug, WantedArchivo:Leopold Von Ranke 1877.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Leopold_Von_Ranke_1877.jpg  Licencia: Public Domain  Contribuyentes: Chris 73,Fallschirmjäger, JodoArchivo:Stamps of Germany (Berlin) 1986, MiNr 759.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Stamps_of_Germany_(Berlin)_1986,_MiNr_759.jpg  Licencia: PublicDomain  Contribuyentes: User:NightflyerArchivo:Gustav Droysen.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Gustav_Droysen.jpg  Licencia: Public Domain  Contribuyentes: Hannah, Jonathan Groß, Marcus CyronArchivo:Alan Turing Memorial Closer.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Alan_Turing_Memorial_Closer.jpg  Licencia: GNU Free Documentation License Contribuyentes: ArnoldReinhold, Bibi Saint-Pol, Bohème, Charley sf, G.dallorto, Joolz, Juiced lemon, Kilom691, Kurt seebauer, Matt Crypto, Mdd, Snek01, Wst, Zundark, 2 ediciones anónimasArchivo:Jean-Francois Lyotard cropped.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Jean-Francois_Lyotard_cropped.jpg  Licencia: Creative CommonsAttribution-Sharealike 2.5  Contribuyentes: Bracha L. Ettinger, retouched by AM (talk)Archivo:San_Luis_Gonzaga_(Goya).jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:San_Luis_Gonzaga_(Goya).jpg  Licencia: Public Domain  Contribuyentes: Escarlati, LuigiChiesa, ShakkoArchivo:Flag of Italy.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Flag_of_Italy.svg  Licencia: Public Domain  Contribuyentes: see belowArchivo:Luigi Gonzaga.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Luigi_Gonzaga.jpg  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported  Contribuyentes:Gerhard BissellArchivo:Ludwig Schläfli.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Ludwig_Schläfli.jpg  Licencia: Public Domain  Contribuyentes: Baroc, MaximH, MetrónomoArchivo:Intersecting Planes.PNG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Intersecting_Planes.PNG  Licencia: Public Domain  Contribuyentes: Pbroks13Archivo:Plano.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Plano.png  Licencia: Free Art License  Contribuyentes: Original uploader was Larocka at es.wikipediaArchivo:2D Wavefunction (1,2) Surface Plot.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:2D_Wavefunction_(1,2)_Surface_Plot.png  Licencia: Public Domain Contribuyentes: InductiveloadArchivo:Quarks.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Quarks.gif  Licencia: Creative Commons Attribution-Sharealike 3.0  Contribuyentes: QCD.gif: Manishearthderivative work: kismalacArchivo:Feynmann Diagram Gluon Radiation.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Feynmann_Diagram_Gluon_Radiation.svg  Licencia: Creative CommonsAttribution-ShareAlike 3.0 Unported  Contribuyentes: Joel Holdsworth (Joelholdsworth)Archivo:Degrees of freedom (diatomic molecule).png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Degrees_of_freedom_(diatomic_molecule).png  Licencia: Public Domain Contribuyentes: Cwbm (commons), Grimlock, Pieter Kuiper, 1 ediciones anónimasArchivo:Carl Ludwig Siegel.jpeg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Carl_Ludwig_Siegel.jpeg  Licencia: Creative Commons Attribution-Sharealike 2.0 Contribuyentes: Jacobs, KonradArchivo:Newtons cradle animation book.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Newtons_cradle_animation_book.gif  Licencia: Creative CommonsAttribution-ShareAlike 3.0 Unported  Contribuyentes: DemonDeLuxe (Dominique Toussaint)Archivo:1925 kurt gödel.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:1925_kurt_gödel.png  Licencia: anonymous-EU  Contribuyentes: unknownImagen:MaquinaTermina.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:MaquinaTermina.svg  Licencia: Creative Commons Attribution-Sharealike 3.0  Contribuyentes: KnImagen:MáquinaDiagonal.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:MáquinaDiagonal.svg  Licencia: Creative Commons Attribution-Sharealike 3.0  Contribuyentes: KnArchivo:Tychonoff.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Tychonoff.jpg  Licencia: Creative Commons Attribution-Sharealike 2.0  Contribuyentes: Konrad Jacobs,ErlangenArchivo:Flag of Russia.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Flag_of_Russia.svg  Licencia: Public Domain  Contribuyentes: Zscout370Archivo:Flag of the Soviet Union.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Flag_of_the_Soviet_Union.svg  Licencia: Public Domain  Contribuyentes: A1, Ahmadi, AlexSmotrov, Alvis Jean, Art-top, BagnoHax, Brandmeister, Counny, Denniss, Dynamicwork, ELeschev, Endless-tripper, EugeneZelenko, F l a n k e r, Fred J, Fry1989, G.dallorto, Garynysmon,Herbythyme, Homo lupus, Jake Wartenberg, MaggotMaster, Ms2ger, Nightstallion, Pianist, R-41, Rainforest tropicana, Sebyugez, Solbris, Storkk, Str4nd, Tabasco, ThomasPusch, Toben,Twilight Chill, Xgeorg, Zscout370, Серп, Тоны4, 60 ediciones anónimasArchivo:Tikhonov board.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Tikhonov_board.jpg  Licencia: Creative Commons Attribution-Sharealike 3.0  Contribuyentes:MameisamArchivo:Noam chomsky.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Noam_chomsky.jpg  Licencia: Copyrighted free use  Contribuyentes: Created by John Soares, uploadedto Commons by StevertigoArchivo:P NP y NP-completo.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:P_NP_y_NP-completo.png  Licencia: GNU Free Documentation License  Contribuyentes:Original uploader was Ascánder at es.wikipediaArchivo:Polynomialdeg2.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Polynomialdeg2.png  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported Contribuyentes: Anarkman, Derbeth, Enochlau, Geek3, Gerbrant, Juiced lemon, N.Mori, 2 ediciones anónimasArchivo:Polynomialdeg3.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Polynomialdeg3.png  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported Contribuyentes: Derbeth, Enochlau, Geek3, N.Mori, Quackor, 4 ediciones anónimasArchivo:Polynomialdeg4.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Polynomialdeg4.png  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported Contribuyentes: Denniss, Derbeth, Enochlau, Geek3, 2 ediciones anónimasArchivo:Polynomialdeg5.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Polynomialdeg5.png  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported Contribuyentes: Ahellwig, Cwbm (commons), Denniss, Derbeth, EnEdC, Enochlau, Geek3, Ixfd64, Juiced lemon, Stannered, 4 ediciones anónimasArchivo:Mfrus3.GIF  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Mfrus3.GIF  Licencia: GNU Free Documentation License  Contribuyentes: JMCC1, MaksimArchivo:Wiktionary-logo-es.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Wiktionary-logo-es.png  Licencia: logo  Contribuyentes: es:Usuario:Pybalo

Fuentes de imagen, Licencias y contribuyentes 198

Archivo:Bundesarchiv Bild 183-S1024-016, VEB Robotron Elektronik Dresden, Computer EC 1040.jpg  Fuente:http://es.wikipedia.org/w/index.php?title=Archivo:Bundesarchiv_Bild_183-S1024-016,_VEB_Robotron_Elektronik_Dresden,_Computer_EC_1040.jpg  Licencia: Creative CommonsAttribution-Sharealike 3.0 Germany  Contribuyentes: Jed, Lotse, YMSArchivo:Comple.GIF  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Comple.GIF  Licencia: Public Domain  Contribuyentes: Juan MenendezArchivo:Teoría de autómatas.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Teoría_de_autómatas.svg  Licencia: Creative Commons Attribution-Sharealike 3.0 Contribuyentes: User:Dnu72Archivo:Turing Machine.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Turing_Machine.png  Licencia: Public Domain  Contribuyentes: Darapti, PoraoImagen:Turing machine 2b.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Turing_machine_2b.svg  Licencia: Public Domain  Contribuyentes: User:Nynexman4464. Originaluploader was Nynexman4464 at en.wikipediaImagen:TuringBeispielAnimatedGIF.gif  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:TuringBeispielAnimatedGIF.gif  Licencia: Creative Commons Attribution-ShareAlike 3.0Unported  Contribuyentes: RosarioVanTulpeArchivo:Máquina de Turing.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Máquina_de_Turing.png  Licencia: Public Domain  Contribuyentes: Aldo.martinez.nArchivo:Diagrama Máquina Turing.JPG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Diagrama_Máquina_Turing.JPG  Licencia: Creative Commons Attribution-Sharealike 3.0 Contribuyentes: Aldo.martinez.nArchivo:Cinta infinita.JPG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Cinta_infinita.JPG  Licencia: Creative Commons Attribution-Sharealike 3.0  Contribuyentes:Aldo.martinez.nArchivo:MT multipista.JPG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:MT_multipista.JPG  Licencia: Creative Commons Attribution-Sharealike 3.0  Contribuyentes:Aldo.martinez.nArchivo:MT multicintas.PNG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:MT_multicintas.PNG  Licencia: Creative Commons Attribution-Sharealike 3.0  Contribuyentes:Aldo.martinez.nArchivo:MT_bidimensional.PNG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:MT_bidimensional.PNG  Licencia: Creative Commons Attribution-Sharealike 3.0  Contribuyentes:Aldo.martinez.nArchivo:maquina cuantica.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Maquina_cuantica.png  Licencia: GNU Free Documentation License  Contribuyentes: Fer31416,Mnd, 1 ediciones anónimasArchivo:Prof.Cook.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Prof.Cook.jpg  Licencia: Creative Commons Attribution-Sharealike 3.0,2.5,2.0,1.0  Contribuyentes: JiříJaníčekArchivo:Flag of the United States.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Flag_of_the_United_States.svg  Licencia: Public Domain  Contribuyentes: Dbenbenn,Zscout370, Jacobolus, Indolences, Technion.Archivo:Relative NPC chart.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Relative_NPC_chart.svg  Licencia: Public Domain  Contribuyentes: Gian Luca RuggeroActamArchivo:Wikiversity-logo-Snorky.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Wikiversity-logo-Snorky.svg  Licencia: desconocido  Contribuyentes: -Archivo:Auguste Rodin - Grubleren 2005-02.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Auguste_Rodin_-_Grubleren_2005-02.jpg  Licencia: GNU Free DocumentationLicense  Contribuyentes: Rodin (1840-1917) User:Hansjorn (Hans Andersen)Archivo:Square root of 2 triangle.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Square_root_of_2_triangle.svg  Licencia: Public domain  Contribuyentes: derivative work:Pbroks13 (talk) Square_root_of_2_triangle.png: en:User:Fredrik

Licencia 199

LicenciaCreative Commons Attribution-Share Alike 3.0 Unported//creativecommons.org/licenses/by-sa/3.0/