Introducción a la Teoría M
De Wikipedia, la enciclopedia libre
- Este artículo es una introducción al tema. Para el artículo principal de la enciclopedia, ver Teoría M
La Teoría M es una teoría innovadora en física, candidata a convertirse en la Teoría del todo que unifique las cuatro fuerzas fundamentales de la naturaleza. La teoría M es una solución propuesta por el Dr. Edward Witten, que combina las cinco teorías de supercuerdas y supergravedad en once dimensiones. Tiene su origen en la Teoría de las cuerdas, según la cual todas las partículas son, en realidad, diminutas cuerdas que vibran a cierta frecuencia. Según esta teoría, se vive en un universo vibrando a cierta frecuencia, lo cual requiere al menos diez dimensiones.
Esta teoría todavía no ha sido ratificada por la comunidad científica, ya que por el momento carece de pruebas empíricas. Si alguna vez fuera verificada experimentalmente, la Teoría M y la Teoría de las cuerdas supondría un significativo avance científico. Además precisa de herramientas matemáticas que todavía tienen que ser inventadas y son necesarias para un total entendimiento de la misma, ya que es bastante compleja.
Contenido[ocultar] |
Antecedentes [editar]
Hasta el siglo XIX, se pensaba que el átomo era el bloque más pequeño de materia. Durante mucho tiempo fue considerado el elemento constituyente básico e indivisible de la materia. En los primeros años del siglo XX se comprobó que incluía componentes más pequeños llamados protones, neutrones y electrones, que se conocen como partículas subatómicas. A partir de la década de 1960, se descubrieron otras partículas subatómicas. En la década de 1980, se descubrió que los protones y los neutrones (y otros hadrones) están conformados por pequeñas partículas llamadas quarks. La Teoría cuántica es el conjunto de reglas que describen las interacciones de estas partículas.
En la década de 1980, surge un nuevo modelo matemático de la física teórica llamado la Teoría de cuerdas. Se mostró que todas las partículas, y todas las formas de energía en el universo, podrían estar construidas por unas hipotéticas «cuerdas», un conjunto infinitamente pequeño de elementos que sólo tienen una dimensión: la longitud, pero no poseen altura o anchura. Además, la teoría de las cuerdas sugiere que el universo se compone de múltiples dimensiones.
Estamos familiarizados con la altura, la anchura y la longitud: las tres dimensiones del espacio, que con el tiempo dan un total de cuatro dimensiones observables, sin embargo, la teoría de cuerdas apoya la posibilidad de diez dimensiones, aunque las 6 restantes no las podemos detectar directamente. Estas «cuerdas» vibran en múltiples dimensiones, y en función de la forma en que vibran, podrían ser percibidas en el espacio de tres dimensiones como materia, luz, o gravedad. Es la vibración de la «cuerda» la que determina su apariencia de materia o energía, y toda forma de materia o energía es el resultado de la vibración de las cuerdas.
Pero la Teoría de cuerdas se encontró con un problema: tras una versión inicial de ecuaciones que la sustentaba, fueron descubiertas otras ecuaciones, igualmente coherentes. Hay cinco grandes teorías de cuerdas, todas basadas en un universo de 10 dimensiones, y todas parecen ser correctas, pero los científicos no estaban conformes con la aparente contradicción de cinco conjuntos de ecuaciones para describir el mismo fenómeno.
A mediados de los años 90, Edward Witten, un teórico de cuerdas del Instituto de Estudios Avanzados y otros importantes investigadores consideran que las cinco diferentes versiones de la teoría de las cuerdas podría describir lo mismo visto desde diferentes perspectivas. Se propuso la unificación en una teoría llamada «Teoría M», en que la «M» no está específicamente definido, pero se entiende como «membranas». La Teoría M agrupó todas las teorías de cuerdas, al afirmar que las cuerdas son realmente «anillos» 1-dimensionales de una «membrana» 2-dimensional que vibra en el espacio 11-dimensional.
Teoría de Cuerdas [editar]
Para entender la Teoría M es necesario entender algo de la teoría de cuerdas. Durante cientos de años la física ha operado en el paradigma de que las partículas fundamentales, como el familiar electrón, son como puntos, o de cero dimensiones. Si se quisiera resumir la teoría de cuerdas en una sola idea, se resumiría diciendo que esta suposición es incorrecta. En vez de esto, la teoría de cuerdas propone que el universo está fundamentalmente compuesto por objetos unidimensionales que son similares a una cuerda. Estas cuerdas serían tan pequeñas que incluso en la diminuta escala de las partículas parecerían como puntos. En la teoría de cuerdas cada partícula es creada de alguna forma por diferentes patrones de vibración de las cuerdas. Uno podría preguntarse por qué los físicos se han limitado ellos mismos a puntos de cero dimensiones durante todo este tiempo; la respuesta es que es mucho más difícil trabajar con objetos de una dimensión y que con frecuencia causan problemas con la causalidad y violaciones de la ley de la relatividad especial que dice que nada puede viajar más rápido que la velocidad de la luz.
El desarrollo de la teoría de cuerdas ha venido principalmente por un problema extremadamente importante que ha existido en la física durante casi 100 años. El problema es que la relatividad general, la teoría desarrollada por Albert Einstein que explica cosas en escalas muy grandes o cosmológicas, es irreconciliable con la mecánica cuántica y el modelo estándar, que explica el universo a escala subatómica. También existen otros problemas con el modelo estándar: tiene unos 20 parámetros libres que deben ser ajustados a mano, y tiene un gran número de partículas que declara fundamentales (para cada partícula existen tres copias organizadas en generaciones, que sólo se diferencian entre sí en la masa). Además, debido a que no puede ser reconciliada con la relatividad general, carece de una descripción de la gravedad, la más corriente de las cuatro fuerzas fundamentales.
Usar objetos 1-dimensionales en lugar de partículas puntuales resuelve muchos de estos problemas. El número de parámetros libres de la teoría cae de 20 a uno (un parámetro que corresponde al tamaño de las cuerdas), y se espera que los detalles de la teoría expliquen por qué existen las tres familias de partículas. Aún más importante, los teóricos de las cuerdas encontraron que la teoría de cuerdas contiene gravitones de forma necesaria, es decir, la partícula que causa la gravedad. Edward Witten, el fundador de la teoría-M, bromea que la teoría de cuerdas tiene la notable evidencia experimental que la gravedad existe a nuestro alrededor. Por tanto, la teoría de cuerdas une de forma satisfactoria la Relatividad General con la Mecánica Cuántica.
Sin embargo, la teoría de cuerdas presenta algunos problemas. En primer lugar, requiere 10 dimensiones para que las cuerdas puedan vibrar, en contraposición a las 4 dimensiones (3 espaciales y 1 temporal) que podemos observar comúnmente. Esto puede parecer incongruente; sin embargo, es posible que las 6 dimensiones extra sean extremadamente pequeñas y curvadas. Por ejemplo, si se mira a un tubo desde una gran distancia, parece ser una línea (1-dimensional). Una inspección más cercana del tubo revela 2 dimensiones: una a lo largo del tubo (la que vimos desde lejos) y una alrededor del tubo. Por tanto, el tubo es realmente una superficie bidimensional a pesar del hecho que parece ser una línea desde lejos.
Otro problema con la teoría de cuerdas es que presenta 5 formulaciones diferentes. Este hecho es clave para entender dónde encaja la teoría-M. Las 5 teorías difieren en qué clase de cuerdas permiten y en cómo implementan la supersimetría, una parte técnica de la teoría de cuerdas que conduce al nombre comúnmente usado de teoría de supercuerdas. Estas 5 teorías diferentes, llamadas esotéricamente Tipo I, Tipo IIA, Tipo IIB, SO(32) y E8×E8 (leído E8 "por" E8, no como E8 "equis" E8), son en cierta forma un exceso de riqueza para los teóricos de las cuerdas. Puesto que la teoría de cuerdas proclama ser una teoría de todo, debería haber una sola formulación consistente de la teoría, pero en su lugar hay 5. Aquí es donde aparece al rescate la teoría-M.
Teoría-M [editar]
En 1995, Edward Witten inició lo que ha sido llamado la Segunda Revolución de las Supercuerdas al presentar al mundo la teoría-M. Esta teoría combina las cinco diferentes teorías de cuerdas (junto con el intento previamente abandonado de unificar la Relatividad General y la Mecánica Cuántica llamado supergravedad once-dimensional) en una única teoría. Esto se logra tejiendo una red de relaciones entre las teorías llamadas dualidades (específicamente, dualidad S, dualidad T, y dualidad U). Cada una de estas dualidades provee un modo de convertir una teoría de cuerdas en otra.
La T-dualidad es probablemente la más fácilmente explicable de las dualidades. Tiene que ver con el tamaño, denotado por R, de las dimensiones curvadas de las teorías de cuerdas. Se descubrió que si se toma una teoría de cuerdas de tipo IIA con un tamaño R, y se cambia el radio a 1/R, se obtiene lo que es equivalente a una teoría de tipo IIB de tamaño R. Esta dualidad, junto con las otras, crea conexiones entre las 5 teorías (o 6, si se cuenta la supergravedad).
De hecho, la existencia de estas dualidades se conocía antes que Witten presentara la idea de la teoría-M. Lo que hizo Witten fue predecir el hecho de que todas estas diferentes teorías estuvieran conectadas es un resultado de que hay una teoría subyacente de la cual son todas aproximaciones. Adicionalmente, se encontró que las ecuaciones que requieren que la teoría de cuerdas exista en 10 dimensiones son también aproximaciones. La teoría-M propuesta (aunque algo nebulosa) sería una teoría que se realizaría en 11 dimensiones, aunque los detalles no se han fijado todavía.
Escepticismo [editar]
La teoría-M ha sido el objetivo de un escepticismo creciente, puesto que algunos (notablemente Peter Woit y Lee Smolin) arguyen que lo teóricos de las cuerdas han sobrestimado muchas de las fortalezas de la teoría, mientras que han subestimado sus debilidades. Un argumento en contra de la teoría de cuerdas cuestiona el poder predictivo de la teoría, apuntando que la teoría de cuerdas no ha producido ninguna predicción "clara" (en el sentido de numérica) que se haya verificado en un experimento. Los críticos continúan observando que debido al panorama de la teoría de cuerdas, la teoría puede ser incapaz de hacer estas predicciones incluso en principio, y por tanto no sería falsable. Otra versión de este argumento es la que dice que la teoría de cuerdas no está todavía bien definida, puesto que está basada en gran manera en las ecuaciones de la perturbación. Los proponentes de la teoría de cuerdas responden que estos argumentos son tan sólo un signo de que la teoría de cuerdas no está todavía totalmente desarrollada. Otro argumento en contra de la teoría de cuerdas es que no conserva algunas de las propiedades de la Relatividad General, tales como la independencia del fondo, y que la teoría muestra un sesgo hacia la física de partículas. Los proponentes de la teoría de cuerdas responden que la física de partículas ha sido probada de forma más precisa que la Relatividad General. Hay finalmente un argumento sociológico que indica que la teoría de cuerdas ha dominado la financiación y las posiciones de por vida de la física de altas energías, haciendo la exploración de las alternativas difícil.
Qué Significa la "M" [editar]
De acuerdo con su creador, Ed Witten, como se acotó en el documental de la PBS basado en el libro de Brian Greene "El universo elegante", la "M" en la teoría-M "significa magia, misterio o membrana (este último término por el que originalmente nació la M) de acuerdo con el gusto de cada cual." También añadió: "Algunos cínicos han sugerido ocasionalmente que M también significa murky (cenagoso), puesto que el nivel de comprensión de la teoría es en realidad primitivo." Entonces, humorísticamente, añadió: "¡Puede que no debiera habérselo dicho!"
Otros dan significado a la M como "Matriz", "Madre de todas las cuerdas" o "Madness" (locura).
Los escépticos de la teoría-M han bromeado que la "M" significa "Moronic" (estúpido), o "Mud" (lodo), que representa la suciedad, o "M", inicial de mierda. Algunos también sugieren que la M es una W dada la vuelta, por "Witten".
Si se distribuyeran las letras del alfabeto en un cubo, la M estaría en el centro.La teoría de supercuerdas es un esquema teórico para explicar todas las partículas y fuerzas fundamentales de la naturaleza en una sola teoría que modela las partículas y campos físicos como vibraciones de delgadas cuerdas supersimétricas que se mueven en un espacio-tiempo de más de 4 dimensiones.
Una de las motivaciones esgrimidas por los teóricos de las supercuerdas es que el esquema es una de las mejores teorías candidatas para formular una teoría cuántica de la gravedad. La teoría de las supercuerdas es una taquigrafía de la teoría supersimétrica de cuerdas porque, a diferencia de la teoría de cuerdas bosónica, esta es la versión de la teoría de cuerdas que, mediante la supersimetría, incorpora a los fermiones.
La teoría de las supercuerdas comprende cinco teorías o formulaciones alternativas de teorías de cuerdas, combinadas en la que se han introducido requerimientos de supersimetría. El nombre teoría de cuerdas se usa actualmente como sinónimo ya que todas las teorías de cuerdas ampliamente estudiadas son, de hecho, teorías de supercuerdas.
La idea fundamental es que en realidad son cuerdas que vibran en resonancia a una frecuencia de la longitud de Planck y en donde el gravitón sería una cuerda de espín 2 y masa nula.
Recientemente se ha podido probar que varias de estas formulaciones son equivalentes y tras todas ellas podría existir una teoría unificada o teoría del todo. Las cinco teorías existentes no serían más que casos límite particulares de esta teoría unificada, denominada provisionalmente como Teoría M. Esta teoría M intenta explicar a la vez todas las partículas subatómicas existentes y unificar las cuatro fuerzas fundamentales de la naturaleza. Define el universo formado por multitud de cuerdas vibrantes, ya que es una versión de la teoría de cuerdas que incorpora fermiones y la supersimetría.
El principal problema de la física actual es poder incorporar la fuerza de la gravedad tal y como la explica la teoría de la relatividad general al resto de las fuerzas físicas ya unificadas. La teoría de las supercuerdas sería un método de unificación de dichas teorías. La teoría está lejos de estar acabada y perfilada, ya que hay muchísimas variables sin definir, por lo que existen varias versiones de la misma.
Contenido[ocultar] |
Antecedentes [editar]
El problema de fondo en la física teórica es armonizar la teoría de la relatividad general, donde se describen la gravitación y las estructuras a gran escala (estrellas, galaxias, cúmulos), con la mecánica cuántica, donde se describen las otras tres fuerzas fundamentales que actúan a nivel atómico.
El desarrollo de la teoría cuántica de campos de una fuerza invariable resulta en infinitas (y útiles) probabilidades. Los físicos han desarrollado técnicas matemáticas de renormalización para eliminar esos infinitos de tres de las cuatro fuerzas fundamentales -electromagnetismo, nuclear fuerte y nuclear débil- pero no de la gravedad. El desarrollo de la teoría cuántica de la gravedad debe, por lo tanto, venir de diferente manera que de los usados para las otras fuerzas.
La idea básica es que los constituyentes fundamentales de la realidad son cuerdas de una longitud de Planck (cercano a 10−35 m) que vibran a frecuencias de resonancia. Cada cuerda en teoría tiene una única resonancia, o armonía. Diferentes armonías determinan diferentes fuerzas fundamentales. La tensión en la cuerda es del orden de las fuerzas de Planck (1044 N). El gravitón (nombre propuesto para la partícula que lleve la fuerza gravitacional), por ejemplo, es predicha por la teoría que sea una cuerda con amplitud cero. Otra idea clave de la teoría es que no pueden ser detectadas diferencias mensurables entre cuerdas que recapitulan sobre dimensiones pequeñas en sí mismas y muchas que se mueven en grandes dimensiones (p.e. que afectan a una dimensión de tamaño R iguales a una de tamaño 1/R). Las singularidades son evitadas porque las consecuencias observables del "gran colapso" nunca alcanzan el tamaño cero. De hecho puede el universo comenzar un pequeño "gran colapso" de procesos, la teoría de cuerdas dice que el universo nunca puede ser más pequeño que el tamaño de una cuerda, a ese punto podría comenzar a expandirse.
El problema de las dimensiones [editar]
Aunque el universo físico observable tiene tres dimensiones espaciales y una dimensión temporal, nada prohíbe a una teoría describir un universo con más de cuatro dimensiones, especialmente si existe un mecanismo de "inobservabilidad aparente" de las dimensiones adicionales. Ése es el caso de las teoría de cuerdas y la teoría de supercuerdas que postulan dimensiones adicionales compactificadas y que sólo serían observables en fenómenos físicos que involucran altísimas energías. En el caso de la teoría de supercuerdas, la consistencia de la propia teoría requiere un espacio-tiempo de 10, 11 o 26 dimensiones. El conflicto entre la observación y la teoría se resuelve compactando las dimensiones que no se pueden observar en el rango de energías habituales. De hecho, la teoría de supercuerdas no es la primera teoría física que propone dimensiones espaciales extra; a principios de siglo se propuso una teoría geométrica del campo electromagnético y gravitatorio conocida como teoría de Kaluza-Klein que postulaba un espacio-tiempo de 5 dimensiones.
La mente humana tiene dificultad visualizando dimensiones mayores porque solo es posible moverse en 3 dimensiones espaciales. Una manera de tratar con esta limitación es no intentando visualizar dimensiones mayores del todo sino simplemente pensando, al momento de realizar ecuaciones que describan un fenómeno, que se deben realizar más ecuaciones de las acostumbradas. Esto abre las interrogantes de que estos 'números extra' pueden ser investigados directamente en cualquier experimento (donde se mostrarían resultados en 1, 2, 2+1 dimensiones a científicos humanos). Así, a su vez, aparece la pregunta de si este tipo de modelos que se investigan en este modelado abstracto (y aparatos experimentales potencialmente imposibles) puedan ser considerados 'científicos'. Las formas de seis dimensiones de Calabi-Yau pueden contar con dimensiones adicionales por la teoría de supercuerdas.
Una teoría que la generaliza es la teoría de branas, en donde las cuerdas son sustituidas por constituyentes elementales de tipo "membrana", de ahí su nombre. La existencia de 10 dimensiones es matemáticamente necesaria para evitar la presencia de taquiones, partículas más rápidas que la luz, y los "fantasmas", partículas con probabilidad de existencia nula.
La Teoría de las Supercuerdas se puede explicar con la Física Racional a través de la Mecánica de Fluidos, sin necesidad de recurrir a espacio superiores a tres dimensiones. A este fin, basta considerar a las cuerdas como hilos de remolinos, que hay en un fluido ideal en agitación (fluido magnético). Los remolinos según su espín serán fermiones o bosones, correspondientes a las partículas subatómicas, con los remolinos también explicamos los agujeros negros, las cargas eléctricas, así como la formación de masa en el campo, a la vez que nos da explicación a las cuatro fuerzas de la naturaleza. Todo esto constituye una nueva teoría denominada Teoría del Cladín, y hay colgados de ella varios artículos en Internet.
Cantidad de teorías de supercuerdas [editar]
Los físicos teóricos fueron perturbados por la existencia de cinco diferentes teorías de cuerdas. Esto aconteció bajo la denominada segunda revolución de supercuerdas en los años 1990 donde fueron descubiertas las 5 teorías de cuerdas, siendo diferentes casos límite de una única teoría: la teoría M.
| Teoría de Cuerdas | ||
|---|---|---|
| Tipos | Dimensiones Espaciales
| Detalles |
| Bosonica | 26 | Solo bosones no fermiones, significa solo fuerzas, no materia, con cuerdas abiertas y cerradas; mayor defecto: una partícula con masa imaginaria llamada taquión |
| I | 10 | Supersimetría entre fuerza y materia, con cuerdas abiertas y cerradas, libre de taquiones, grupo de simetría SO(32) |
| IIA | 10 | Supersimetría entre fuerza y materia, solo con cuerdas cerradas, libre de taquiones, fermiones sin masa que giran a ambas direcciones |
| IIB | 10 | Supersimetría entre fuerza y materia, solo con cuerdas cerradas, libre de taquiones. fermiones sin masa que giran en una sola dirección |
| HO | 10 | Supersimetría entre fuerza y materia, solo con cuerdas cerradas, libre de taquiones, heterótica, difieren entre cuerdas de movimiento derecho e izquierdo, grupo de simetría es SO(32) |
| HE | 10 | Supersimetría entre fuerza y materia, solo con cuerdas cerradas, libre de taquiones, heterótica, difieren entre cuerdas de movimiento derecho e izquierdo, grupo de simetría E8×E8 |
Las cinco teorías de supercuerdas consistentes son:
- La teoría de cuerdas Tipo I tiene una supersimetría en sentido diez-dimensional (16 supercargas). Esta teoría es especial en el sentido de que esta basada en una orientación abierta y cerrada, mientras el resto se basan en cuerdas con orientaciones cerradas.
- La teoría de cuerdas Tipo II tiene dos supersimetrías en sentido de 10 dimensiones (32 supercargas). Hay de hecho dos tipos de cuerdas Tipo II llamadas tipo IIA y IIB. Difieren principalmente en el hecho que la teoría IIA es no quiral (conservando la paridad), mientras que la teoría IIB es quiral (violando la paridad).
- La teoría de la cuerda heterótica está basada en un peculiar híbrido de una supercuerda de tipo I y una cuerda bosónica. Hay 2 tipos de cuerdas heteróticas que difieren en su diez-dimensional grupo de gauge: la cuerda heterótica E8×E8 y la SO(32). (el nombre heterótico SO(32) es un poco inexacta en el SO(32) del Grupo de Lie, las teorías son un cociente de Spin(32)/Z2 que no es equivalente a SO(32).)
Las teorías quirales de gauge pueden ser inconsistentes en sus anomalías. Esto ocurre cuando un bucle del Diagrama de Feynman causa un rompimiento de la mecánica cuántica de la simetría de gauge. Anulando anomalías se limita a las posibles teorías de cuerdas.
Integrando relatividad general con mecánica cuántica [editar]
La relatividad general normalmente se refiere a situaciones que envuelven objetos masivos grandes en lejanas regiones del espacio-tiempo donde la mecánica cuántica se reserva para escenarios a escala atómica (regiones pequeñas de espacio-tiempo). Las dos son muy difícilmente usadas juntas, y el caso más común en donde se combina su estudio son los agujeros negros. Teniendo "picos de densidad" o máximo cantidades de materia posible en el espacio, y un área muy pequeña, las dos deben ser usadas en sincronía para predecir condiciones en ciertos lugares; aun cuando son usados juntos, las ecuaciones se desmoronan y brindan respuestas imposibles, tales como distancias imaginarias y menos de una dimensión.
El mayor problema con su congruencia es que, a dimensiones menores a las de Planck, la relatividad general predice una certeza, una superficie fluida, mientras que la mecánica cuántica predice una probabilidad, una superficie deformada; que no son compatibles. La teoría de supercuerdas resuelve este requerimiento, remplazando la idea clásica de partículas puntuales con bucles. Esos bucles tendrían un diámetro promedio de una longitud de Planck, con variaciones extremadamente pequeñas, que ignora completamente las predicciones de la mecánica cuántica a dimensiones menores a las de Planck, y que para su estudio no toma en cuenta esas longitudes.
Falsacionismo y teoría de supercuerdas [editar]
Muchos científicos han declarado su preocupación de que la Teoría de cuerdas no sea falsable y que además, carezca de poder predictivo, y como tal, y siguiendo las tesis del filósofo de la ciencia Karl Popper, la Teoría de cuerdas sería equivalente a una pseudociencia.[5] [6] [7] [8] [9] [10]
Tal y como se entiende en la actualidad, tiene un número gigantesco de posibles soluciones.[11]
El filósofo de la ciencia Mario Bunge ha manifestado recientemente:
- La consistencia, la sofisticación y la belleza nunca son suficientes en la investigación científica.
- La Teoría de cuerdas es sospechosa (de pseudociencia). Parece científica porque aborda un problema abierto que es a la vez importante y difícil, el de construir una teoría cuántica de la gravitación. Pero la teoría postula que el espacio físico tiene seis o siete dimensiones, en lugar de tres, simplemente para asegurarse consistencia matemática. Puesto que estas dimensiones extra son inobservables, y puesto que la teoría se ha resistido a la confirmación experimental durante más de tres décadas, parece ciencia ficción, o al menos, ciencia fallida.
- La física de partículas está inflada con sofisticadas teorías matemáticas que postulan la existencia de entidades extrañas que no interactúan de forma apreciable, o para nada en absoluto, con la materia ordinaria, y como consecuencia, quedan a salvo al ser indetectables. Puesto que estas teorías se encuentran en discrepancia con el conjunto de la Física, y violan el requerimiento de falsacionismo, pueden calificarse de pseudocientíficas, incluso aunque lleven pululando un cuarto de siglo y se sigan publicando en las revistas científicas más prestigiosas.
Mario Bunge, 2006.[12]
La crítica principal de que es objeto la Teoría de cuerdas es de que sea, fundamentalmente, imposible de falsear, debido a su naturaleza intrínseca: tiene la suficiente flexibilidad matemática como para que sus parámetros se puedan moldear para encajar con cualquier tipo de realidad observada.[13] [14]
Para ilustrar la confusa situación que domina este campo de investigación, baste citar el reciente escándalo Bogdanov, dos hermanos que consiguieron publicar en prestigiosas revistas científicas teorías absurdas y carentes de sentido. El físico alemán Max Niedermaier concluyó que se trataba de pseudociencia, escrita con una densa jerga técnica, para evitar el sistema de revisión por pares de la física teórica. Según el físico-matemático John Baez, su trabajo "es una mezcolanza de frases aparentemente plausibles que contienen las palabras técnicas correctas en el orden aproximadamente correcto. Pero no hay lógica ni cohesión en lo que escriben." Según el físico Peter Woit en la prestigiosa revista Nature: "El trabajo de los Bogdanoff resulta significativamente más incoherente que cualquier otra cosa publicada. Pero el creciente bajo nivel de coherencia en todo el campo les permitió pensar que habían hecho algo sensato y publicarlo."[15Física de partículas
De Wikipedia, la enciclopedia libre
La física de partículas es la rama de la física que estudia los componentes elementales de la materia y las interacciones entre ellos.[1]
Las partículas fundamentales se subdividen en bosones (partículas de espín entero como por ejemplo 0, 1, 2...), que son las responsables de transmitir las fuerzas fundamentales de la naturaleza, y fermiones (partículas de espín semientero como por ejemplo 1/2 ó 3/2).
Se conoce a esta rama también como física de altas energías debido a que muchas de las partículas se las puede ver solo en grandes colisiones provocadas en los aceleradores de partículas.[2]
Contenido[ocultar] |
Historia [editar]
El hombre desde la antigüedad ha imaginado que el Universo en el que habita está compuesto de varios elementos; por ejemplo, Empédocles en el siglo V antes de nuestra era postuló que todo lo existente se podría obtener de la mezcla de agua, tierra, fuego y aire.[3] Podríamos mencionar a Demócrito como el primero en indicar la existencia de átomos, como una especie de elementos indivisibles.
Los avances científicos de principios del siglo XX por parte de Max Planck, Albert Einstein, Niels Bohr y otros dieron lugar al nacimiento de la mecánica cuántica. El efecto fotoeléctrico mostraba la naturaleza cuántica de la luz para explicar su interacción con la materia, denominándose fotón al "cuanto" de luz. Actualmente se conocen otras tres partículas que interactúan con la materia, llamadas bosones. Para comprender la estructura de la materia aparecieron diferentes modelos atómicos, siendo, hacia 1930, los electrones, protones y neutrones los constituyentes básicos de la materia. Hacia 1960, gracias a Murray Gell-Mann, se predicen constituyentes más elementales para los protones y neutrones, los quarks, por lo que los elementos básicos constituyentes de la materia se convierten en quarks, electrones y neutrinos.
Partículas elementales [editar]
Los físicos de partículas se han esforzado desde un principio por clasificar las partículas conocidas y por describir toda la materia y sus interacciones. A lo largo de la historia de la física han existido muchas partículas que en su momento se han definido como indivisibles, tales como los protones y neutrones, que más adelante se ha demostrado que no lo son. Después de diferentes teorías atómicas y nucleares, en la actualidad se usa el llamado modelo estándar para describir la materia que constituye el universo y sus interacciones.
De acuerdo al modelo estándar existen seis tipos de quarks, seis tipos de leptones y cuatro tipos de bosones. Estas partículas están divididas en dos grandes categorías por el principio de exclusión de Pauli: las que no están sujetas a este principio son los bosones y los que sí lo están se las llama fermiones.[4]
Bosones [editar]
Los bosones son partículas que no cumplen el principio de exclusión de Pauli, por lo que dos partículas pueden ocupar el mismo estado cuántico. A temperaturas muy bajas tienden a ocupar el nivel energético más bajo, ocupando todas las partículas el mismo estado cuántico.[5] En 1924, Satyendra Nath Bose y Albert Einstein postularon un modelo de estadística, conocida ahora como estadística de Bose-Einstein, para moléculas a temperaturas muy cercanas al cero absoluto; ésta misma estadística resulta que puede aplicarse también a este tipo de partículas.[6]
Según el modelo estándar, los bosones son cuatro:[7]
| Partícula | Símbolo | Masa (en GeV/c2) | Carga eléctrica | Espín | Interacción |
|---|---|---|---|---|---|
| Fotón | 0 | 0 | 1 | electromagnética | |
| Bosón W | W± | 80,4 | ± 1 | 1 | débil |
| Bosón Z | Z0 | 91,187 | 0 | 1 | débil |
| Gluón | g | 0 | 0 | 1 | fuerte |
Las teorías matemáticas que estudian los fenómenos de estas partículas son en el caso de la interacción fuerte, de los gluones, la cromodinámica cuántica y en el caso de la interacción electrodébil, de fotones y bosones W y Z, la electrodinámica cuántica.
Fermiones [editar]
Los fermiones son partículas con espín, o momento angular intrínseco, fraccionario y que sí están sujetos al principio de exclusión de Pauli, o sea que dos partículas no pueden estar en un mismo estado cuántico al mismo momento. Su distribución está regida por la estadística de Fermi-Dirac, de ahí su nombre.[8]
Los fermiones son básicamente partículas de materia, pero a diferencia de los bosones, no todos los fermiones son partículas elementales. El caso más claro es el de los protones y neutrones; estas partículas son fermiones pero están compuestos de quarks que, en nuestro nivel actual de conocimientos, si se consideran como elementales.
Los fermiones se dividen en dos grupos: los quarks y los leptones. Esta diferencia se aplica debido a que los leptones pueden existir aislados, a diferencia de los quarks que se encuentran siempre en presencia de otros quarks.[9] Los grupos de quarks no pueden tener carga de color debido a que los gluones que los unen poseen carga de color. Las propiedades básicas de éstas partículas se las encuentra aquí:[7]
| Tipo de fermión | Nombre | Símbolo | Carga
electromagnética | Carga débil* | Carga de
color | Masa |
|---|---|---|---|---|---|---|
| Leptón | ||||||
| Electrón | e- | -1 | -1/2 | 0 | 0,511 MeV/c² | |
| Muón | m- | -1 | -1/2 | 0 | 105,6 MeV/c² | |
| Tauón | t- | -1 | -1/2 | 0 | 1,784 GeV/c² | |
| Neutrino electrónico | ne | 0 | +1/2 | 0 | < href="http://es.wikipedia.org/wiki/EV" title="EV" class="mw-redirect score-0">eV/c² | |
| Neutrino muónico | nm | 0 | +1/2 | 0 | < href="http://es.wikipedia.org/wiki/MeV" title="MeV" class="mw-redirect score-0">MeV/c² | |
| Neutrino tauónico | nt | 0 | +1/2 | 0 | < href="http://es.wikipedia.org/wiki/MeV" title="MeV" class="mw-redirect score-0">MeV/c² | |
| Quark
| ||||||
| up | u | +2/3 | +1/2 | R/G/B | ~5 MeV/c² | |
| charm | c | +2/3 | +1/2 | R/G/B | ~1.5 GeV/c² | |
| top | t | +2/3 | +1/2 | R/G/B | >30 GeV/c² | |
| down | d | -1/3 | -1/2 | R/G/B | ~10 MeV/c² | |
| strange | s | -1/3 | -1/2 | R/G/B | ~100 MeV/c² | |
| bottom | b | -1/3 | -1/2 | R/G/B | ~4,7 GeV/c² |
- Las partículas de la tabla solo tienen carga débil si son levógiras o, para las antipartículas, si son dextrógiras.
Las partículas se agrupan en generaciones. Existen tres generaciones: ·la primera está compuesta por el electrón, su neutrino y los quarks up y down. ·La materia ordinaria está compuesta por partículas de esta primera generación. ·Las partículas de otras generaciones se desintegran en partículas de las generaciones inferiores.
Partículas compuestas [editar]
Los físicos de partículas denominan como hadrones a las partículas que se componen de otras más elementales. Los hadrones están compuestos de quarks, de antiquarks y de gluones. La carga eléctrica de los hadrones es un número entero por lo que la suma de la carga de los quarks que los componen debe ser un entero.[10]
La interacción fuerte es la que predomina en los hadrones, aunque también se manifiesta la interacción electromagnética y la débil.[11] Las partículas con carga de color interactúan mediante gluones; los quarks y los gluones al tener carga de color están confinados a permanecer unidos en una partícula con carga de color neutra.[12] La formulación teórica de éstas partículas la realizaron simultánea e independientemente Murray Gell-Mann y George Zweig en 1964 en el llamado modelo de quarks. Este modelo ha recibido numerosas confirmaciones experimentales desde entonces.
Los hadrones se subdividen en dos clases de partículas, los bariones y los mesones.
Bariones [editar]
Los bariones son partículas que contienen tres quarks, algunos gluones y algunos antiquarks. Los bariones más conocidos son los nucleones, es decir los protones y neutrones, además de otras partículas más masivas conocidas como hiperones.[13] Dentro de los bariones existe una intensa interacción entre los quarks a través de los gluones, que transporta la interacción fuerte. Como los gluones tienen carga de color, en los bariones las partículas que lo contienen cambian rápidamente de carga de color, pero el conjunto del barión permanece con carga de color neutra.[14]
Los bariones son también fermiones por lo que el valor de su espín es 1/2, 3/2,... . Como todas las partículas, los bariones tienen su partícula de antimateria llamada antibarión que se forman con la unión de tres antiquarks.[14] Sin contar con los nucleones, la mayoría de bariones son inestables.[13]
Mesones [editar]
Los mesones son partículas conformadas por un quark, un antiquark y la partícula que las une, el gluón. Todos los mesones son inestables; pese a ello pueden encontrarse aislados debido a que las cargas de color del quark y del antiquark son opuestas, obteniendo un mesón con carga de color neutra. Los mesones son además bosones ya que la suma de los espines, de sus quark-antiquark más la contribución del movimiento de estas partículas, es un número entero.[15] Se conoce también que el mesón posee interacciones fuertes, débiles y electromagnéticas.[13]
En este grupo se incluye el pión, el kaón, la J/ψ, y muchas otras. Puede que existan también mesones exóticos aunque no existe evidencia experimental de ellos.
Partículas hipotéticas [editar]
Entre las principales partículas conjeturadas teóricamente y que aun no han sido confirmadas por ningún experimento hasta el 2008, se encuentran:
- El bosón de Higgs es la única partícula del modelo estándar no observada.[16] En la formulación del modelo electrodébil, la partícula que podría explicar la diferencia de masas de los bosones W y Z y el fotón; se postula que para poder romper espontáneamente la simetría de un campo de Yang-Mills se necesita una partícula, ahora conocida como bosón de Higgs. Esta partícula en un campo de Higgs daría las respuestas a esta interrogante.[17] Los científicos esperan descubrir al bosón de Higgs en el Gran Colisionador de Hadrones (LHC en inglés), un acelerador de partículas que se espera entre en funcionamiento para el otoño de 2009, en el CERN.[18]
- El gravitón es el hipotético bosón para la interacción gravitatoria que ha sido propuesto en las teorías de la gravedad cuántica. No suele formar parte del modelo estándar debido a que no se ha encontrado experimentalmente. Se teoriza que interaccionaria con leptones y quarks y que no tendría masa.[19]
Supersimetría [editar]
La teoría de supersimetría plantea la existencia de partículas supercompañeras de las actuales partículas existentes,[20] así entre las más destacadas tenemos:
- El neutralino es la mejor candidata, en el modelo estándar, para partícula de materia oscura. En la teoría de supersimetría, el neutralino es una partícula neutra, estable y super ligera,[21] que no tiene una pareja simétrica en las partículas ordinarias.[22]
- Los sleptones y los squarks son los compañeros supersimétricos de los fermiones del modelo estándar.[20]
- El fotino, el wino, el zino, el gravitino y el gluino son los partículas supercompañeras de los bosones.[20]
Otras [editar]
- Un WIMP (del inglés: partícula masiva que interactúa débilmente) es una de muchas partículas propuestas para explicar la materia oscura (como el neutralino o el axión).
- El pomerón, usado en la teoría Regge para explicar el fenómeno de la dispersión elástica de los hadrones y la posición de los polos de Regge.
- El skirmión, un solitón topológico para el campo del pión que se usa para modelar las propiedades a baja energía del nucleón.
- El bosón de goldstone es una excitación sin masa de un campo cuya simetría ha sido rota espontáneamente. Los piones son casi bosones de goldstone por la ruptura de la simetría del isospín de la quiralidad en la cromodinámica cuántica (no lo es porque tiene masa).
- El goldstino (fermión) se produce entonces por la ruptura espontánea de la supersimetría por el bosón de goldstone.
- El instantón es una configuración de campo que es un mínimo local de una acción euclídea. Se usan en cálculos no perturbativos del efecto túnel.
Clasificación por velocidad [editar]
De acuerdo con su masa y rango de velocidad alcanzable las partículas hipotéticas (y las reales) pueden clasificarse en:
- Un tardión viaja más lento que la luz y tiene una masa en reposo no nula. Todas las partículas con masa pertenecen a esta categoría.
- Un luxón viaja exactamente a la velocidad de la luz, y no tiene masa. Todas las partículas bosónicas sin masa pertenecen a esta categoría, usualmente se acepta que los neutrinos también pertenecen a esta categoría.
- Un taquión es una partícula hipotética que viaja más rápido que la luz, y cuya masa debe de ser imaginaria. No se han detectado ejemplos de este tipo de partícula.
Cuasipartículas [editar]
Las ecuaciones de campo de la física de la materia condensada son muy similares a las de la física de partículas. Por eso, mucha de la teoría de la física de partículas se puede aplicar a la física de la materia condensada, asignando a cada campo o excitación de la misma un modelo que incluye "cuasipartículas". Se incluyen:
- Los fonones, modos vibratorios en una estructura cristalina.
- Los excitones, que son la superposición de un electrón y un hueco.
- Los plasmones, conjunto de excitaciones coherentes de un plasma.
- Los polaritones son la mezcla de un fotón y otra de las cuasipartículas de ésta lista.
- Los polarones, que son cuasipartículas cargadas en movimiento que están rodeadas de iones en un material.
- Los magnones son excitaciones coherentes de los espines de los electrones en un material.
Principales centros de investigación [editar]
En la física de partículas, los principales laboratorios interacionales son:
- CERN, localizado entre la frontera Franco-Suiza cerca de la ciudad suiza de Ginebra. Su principal proyecto actual es el Large Hadron Collider o LHC, terminada su construccion y en funcionamiento. Éste será el más grande colisionador de partículas del mundo. En el CERN también podemos encontrar al LEP, colisionador electrón positrón, y al Superproton sincrotrón.
- Fermilab, localizado cerca de Chicago en Estados Unidos, cuenta con el Tevatrón que puede colisionar protones y antiprotones y es el segundo acelerador de partículas más energético del mundo después del LHC.
- Laboratorio Nacional Brookhaven, localizado en Long Island (Estados Unidos), cuenta con un acelerador relativista de iones pesados que puede colisionar iones pesados como el oro y protones polarizados. Fue el primer acelerador de iones pesados y es el único que puede acelerar protones polarizados.
- DESY, localizado en Hamburgo (Alemania), cuenta con el HERA que puede acelerar electrones, positrones y protones.
- KEK, localizado en Tsukuba (Japón), es la organización japonesa de investigación de altas energías. Aquí se han producido muchos experimentos interesantes como el experimento de oscilación del neutrino y el experimento para medir la violación de simetría CP en el mesón B.
- SLAC, localizado en Palo Alto (Estados Unidos), cuenta con el PEP-II que puede colisionar electrones y positrones.
Metaevolución
De Wikipedia, la enciclopedia libre
En un contexto cosmológico, la palabra metaevolución describe el proceso continuo de evolución de la materia, desde el origen del tiempo en el Big-Bang hasta la evolución cultural y tecnológica actual en la Tierra.
La metaevolución describe, por tanto, el proceso de cambio de la evolución y sus mecanismos a través del tiempo, abordando la realidad de la evolución del propio proceso evolutivo y su estudio a través de procesos físicos, nucleares, químicos, moleculares, supramoleculares, biológicos, ecológicos, culturales, etcétera.
Resulta de esta forma un término integral que permite abordar las pautas comunes metaevolutivas que dan lugar a propiedades emergentes, como la vida o la consciencia, en un complejo alud de procesos de autoorganización de la materia en un Universo en expansión y enfriamiento.Evolución biológica
De Wikipedia, la enciclopedia libre
La evolución biológica es el proceso continuo de transformación de las especies a través de cambios producidos en sucesivas generaciones, y que se ve reflejado en el cambio de las frecuencias alélicas de una población; hecho que esta representado en la actual teoría científica de la síntesis evolutiva moderna.[1Introducción [editar]
Generalmente se denomina evolución a cualquier proceso de cambio en el tiempo. En el contexto de las ciencias de la vida, la evolución es un cambio en el perfil genético de una población de individuos, que puede llevar a la aparición de nuevas especies, a la adaptación a distintos ambientes o a la aparición de novedades evolutivas.
A menudo existe cierta confusión entre hecho evolutivo y teoría de la evolución. Se denomina hecho evolutivo al hecho científico de que los seres vivos están emparentados entre sí y han ido transformándose a lo largo del tiempo. La teoría de la evolución es el modelo científico que describe la transformación y diversificación evolutivas y explica sus causas.
En los inicios del estudio de la Evolución biológica,[cita requerida] Charles Darwin y Alfred Russel Wallace propusieron la selección natural como principal mecanismo de la evolución. Actualmente, la teoría de la evolución combina las propuestas de Darwin y Wallace con las leyes de Mendel y otros avances genéticos posteriores; por eso es llamada síntesis moderna o teoría sintética. En el seno de esta teoría, la evolución se define como un cambio en la frecuencia de los alelos en una población a lo largo de las generaciones. Este cambio puede ser causado por una cantidad de mecanismos diferentes: selección natural, deriva genética, mutación, migración (flujo genético). La teoría sintética recibe una aceptación general en la comunidad científica, aunque también ciertas críticas. Ha sido enriquecida desde su formulación, en torno a 1940, por avances en otras disciplinas relacionadas, como la biología molecular, la genética del desarrollo o la paleontología.
La antigua teoría del lamarckismo, la suposición de que el fenotipo de un organismo puede dirigir de alguna forma el cambio del genotipo en sus descendientes, es una posición teórica actualmente indefendible, en la medida en que es positivamente incompatible con lo que sabemos sobre la herencia, y también porque todos los intentos por hallar pruebas de observación o experimentales, han fracasado.[cita requerida]
Referente al creacionismo, la posición de que en un grado u otro, los seres vivos tienen un autor personal consciente (léase Dios), es una posición religiosa o filosófica que no puede probarse científicamente, y por tanto no es considerada por la comunidad científica como una teoría científica. No obstante, en el marco de la cultura popular protestante y anglosajona, algunos se esfuerzan por presentarlo como tal a través del Diseño inteligente; pero el consenso científico es considerar tales intentos solo como una forma de propaganda religiosa.
Teoría científica [editar]
Fotografía de Julia Margaret Cameron.
La evolución biológica es un fenómeno natural real, observable y comprobable empíricamente. La llamada síntesis evolutiva moderna es una robusta teoría que actualmente proporciona explicaciones y modelos matemáticos sobre los mecanismos generales de la evolución o los fenómenos evolutivos, como la adaptación o la especiación. Como cualquier teoría científica, sus hipótesis están sujetas a constante crítica y comprobación experimental.
Theodosius Dobzhansky, uno de los fundadores de la síntesis moderna, definió la evolución del siguiente modo: "La evolución es un cambio en la composición genética de las poblaciones. El estudio de los mecanismos evolutivos corresponde a la genética poblacional."[2]
Origen y desarrollo temprano de la vida [editar]
El origen de la vida [editar]
El origen de la vida, aunque atañe al estudio de los seres vivos, es un tema que realmente no es explicado en la teoría de la síntesis moderna de la evolución; pues ésta última sólo se ocupa del cambio en los seres vivos, y no del origen, cambios (evolución a moléculas más complejas) e interacciones de las moléculas orgánicas de las que procede.
No se sabe mucho sobre las etapas más tempranas y previas al desarrollo de la vida, y los intentos realizados para tratar de desvelar la historia más temprana del origen de la vida, generalmente se enfocan en el comportamiento de las macromoléculas, particularmente el ARN, y el comportamiento de sistemas complejos.
Sin embargo, sí se está de acuerdo que todos los organismos existentes comparten ciertas características, incluyendo la estructura celular y el código genético; los que estarían relacionados con el origen de la vida. (Para los científicos que consideran a los virus como seres vivos, si bien los mismos no tienen una estructura celular, evolucionaron a partir de organismos que sí las poseían, probablemente comportándose originalmente como transposones).
Ascendencia común [editar]
A partir de las diferentes semejanzas y relaciones entre los diferentes organismos, los científicos interpretan que ellas indican y serían la evidencia de que todos los seres vivos existentes compartirían un "ancestro común universal", el cual ya había desarrollado los procesos celulares más fundamentales; aunque no hay acuerdo en la comunidad científica sobre la exacta relación específica de los tres dominios de la vida (Archaea, Bacteria, Eukaryota). Siendo la teoría del ancestro común universal, la descripción de un probable e importante capítulo de la historia evolutiva de la vida.
Así, a pesar de que los orígenes de la vida nos son todavía desconocidos en su totalidad, otros hitos relacionados a la historia evolutiva de la vida sí son bien sabidos. La aparición de la fotosíntesis oxigénica (hace alrededor de 3000 millones de años) y el posterior surgimiento de una atmósfera rica en oxígeno y no reductora, puede rastrearse a través de depósitos laminares de hierro, y bandas rojas posteriores producto de los óxidos de hierro. Éste fue un requisito necesario para el desarrollo de la respiración celular aeróbica, la cual se cree que emergió hace aproximadamente 2000 millones de años. En los últimos mil millones de años, organismos pluricelulares simples, tanto plantas como animales, comenzaron a aparecer en los océanos. Poco después del surgimiento de los primeros animales, la explosión cámbrica (un período breve en términos geológicos de diversificación animal sin paralelo y notable, documentado en los fósiles encontrados en los sedimentos en Burgess Shale) vio la creación de la mayoría de los bauplans, o plan tipo, de los animales modernos. Hace alrededor de 500 millones de años, las plantas y hongos colonizaron la tierra, y fueron seguidos rápidamente por los artrópodos y otros animales, llevando al desarrollo de los ecosistemas terrestres con los que estamos familiarizados.
El surgimiento de nuevos caracteres y variación [editar]
Mecanismos de la herencia [editar]
En la época de Darwin, los científicos no conocían cómo se heredaban las características. Actualmente, el origen de la mayoría de las características hereditarias puede ser trazado hasta entidades persistentes llamadas genes, codificados en moléculas lineales de ácido desoxirribonucleico (ADN) del núcleo de las células. El ADN varía entre los miembros de una misma especie y también sufre cambios o mutaciones, o variaciones producidas a través de procesos como la recombinación genética.
Mutación [editar]
Darwin no conocía la fuente de las variaciones en los organismos individuales, pero observó que parecían ocurrir aleatoriamente. En trabajos posteriores se atribuyó la mayor parte de estas variaciones a la mutación. La mutación es un cambio permanente y transmisible en material genético (usualmente el ADN o el ARN) de una célula, que puede ser producida por errores de copia en el material genético durante la división celular y por la exposición a radiación, químicos o virus, o puede ocurrir deliberadamente bajo el control celular durante procesos como la meiosis o la hipermutación. En los organismos multicelulares, las mutaciones pueden dividirse en mutaciones germinales, que se transmiten a la descendencia, y las mutaciones somáticas, que (cuando son accidentales) generalmente conducen a malformaciones o muerte de células y pueden producir cáncer.
¿Por qué son importantes las mutaciones?
Las mutaciones introducen nuevas variaciones genéticas, siendo la principal fuente de evolución. En la teoría sintética, la mutación tiene el papel de generar diversidad genética sobre la cual actúa la selección natural, y también la deriva. Las mutaciones que afectan a la eficacia biológica del portador, y por tanto son objeto de la selección natural, pueden ser deletéreas (negativas) o beneficiosas. Las mutaciones beneficiosas son las menos frecuentes, aunque se conocen muchos ejemplos que afectan a rasgos variadísimos, como la resistencia a enfermedades o a estrés, la longevidad, el tamaño, la capacidad para metabolizar nuevas sustancias, una cicatrización eficiente de las heridas, etc. La mayor parte de las mutaciones son mutaciones neutras; no afectan las oportunidades de supervivencia y reproducción de los organismos, y se acumulan con el tiempo a una velocidad más o menos constante.
La mayoría de los biólogos creen que la adaptación ocurre fundamentalmente por etapas, mediante la acumulación por selección natural de variaciones genéticas ventajosas de efecto relativamente pequeño. Las macromutaciones, por el contrario, producen efectos drásticos, fuera del rango de variación normal de la especie. Se ha propuesto que quizá hayan sido responsables de ciertos rasgos adaptativos o de la aparición de novedades evolutivas, aunque, dado que las mutaciones suelen tener efectos muy nocivos o letales, esta vía se considera actualmente poco frecuente.
Recombinación genética [editar]
La recombinación genética es el proceso mediante el cual la información genética se redistribuye por transposición de fragmentos de ADN entre dos cromosomas durante la meiosis –y más raramente en la mitosis–. Los efectos son similares a los de las mutaciones, es decir, si los cambios no son deletéreos se transmiten a la descendencia y contribuyen a la diversidad dentro de cada especie.
Variaciones en la expresión de los genes, involucrados en la herencia [editar]
También existen formas de variación hereditaria que no están basadas en cambios de la información genética; pero si en el proceso de decodificación de ella. El proceso que produce estas variaciones deja intacta la información genética y es con frecuencia reversible. Este proceso es llamado herencia epigenética que resulta de la trasmisión de secuencias de información no-ADN a través de la meiosis o mitosis; y puede incluir fenómenos como la metilación del ADN o la herencia estructural. Se sigue investigando si estos mecanismos permiten la producción de variaciones específicas beneficiosas en respuesta a señales ambientales. De ser éste el caso, algunas instancias de la evolución podrían ocurrir fuera del cuadro típicamente darwiniano, que evitaría cualquier conexión entre las señales ambientales y la producción de variaciones hereditarias; aunque recordando que indirectamente el origen del proceso en sí mismo estarían involucrados genes, como por ejemplo los genes de la enzima ADN-metiltransferasa, histonas, etc.
Supervivencia diferenciada de características [editar]
Al mismo tiempo que la mutación puede crear nuevos alelos, otros factores influencian la frecuencia de los alelos existentes. Estos factores hacen que algunas características se hagan frecuentes mientras que otras disminuyen o se pierden completamente. De los procesos conocidos que influyen en la persistencia de una característica, o más precisamente, en la frecuencia de un alelo podemos mencionar:
Selección natural [editar]
La selección natural consiste en la reproducción diferencial de los individuos, según su dotación genética, y generalmente como resultado del ambiente. Existe selección natural cuando hay diferencias en eficacia biológica entre los individuos de una población, es decir, cuando su contribución en descendientes es desigual. La eficacia biológica puede desglosarse en componentes como la supervivencia (la mortalidad diferencial es la tasa de supervivencia de individuos hasta la edad de reproducción), la fertilidad, la fecundidad, etc.
La selección natural puede dividirse en dos categorías:
- La sexual ocurre cuando los organismos más atractivos para el sexo opuesto debido a sus características se reproducen más y aumentan la frecuencia de estas características en el patrimonio genético común.
- La ecológica ocurre en el resto de las circunstancias (habilidad para obtener o procesar alimento, capacidad de ocultación, huida o de defensa, capacidad para resistir fluctuaciones ambientales, etc.)
La selección natural trabaja con mutaciones en diferentes formas:
- La purificadora o de fondo elimina las mutaciones perniciosas de una población.
- La positiva aumenta la frecuencia de mutaciones benéficas.
- La de balanceo mantiene las variaciones dentro de una población a través de mecanismos tales como:
El papel central de la selección natural en la teoría de la evolución ha dado origen a una fuerte conexión entre ese campo y el estudio de la ecología.
Las mutaciones que no se ven afectadas por la selección natural son llamadas mutaciones neutras. Su frecuencia en la población está dictada por su tasa de mutación, por la deriva genética y el flujo genético. Se entiende que la secuencia de ADN de un organismo, en ausencia de selección, sufre una acumulación estable de mutaciones neutras. El efecto probable de mutación es la propuesta de que un gen que no está bajo selección será destruido por las mutaciones acumuladas. Éste es un aspecto de la llamada degradación genómica.
- La selección de organismos por sus características deseables, cuando es provocada por el hombre, por ejemplo para la agricultura, es llamada selección artificial.
- La evolución baldwiniana se refiere a la forma en que los seres vivos capaces de adaptarse durante su vida, pueden producir nuevas fuerzas de selección.
Deriva genética [editar]
La deriva genética describe las fluctuaciones aleatorias en la frecuencia de los alelos. Esto es de especial importancia en poblaciones reducidas, donde las posibilidades de fluctuación de una generación a la siguiente son grandes. Estas fluctuaciones en la frecuencia de los alelos entre generaciones sucesivas puede producir la desaparición de algunos alelos de una población. Dos poblaciones separadas que parten de la misma frecuencia de alelos pueden derivar por fluctuación aleatoria en dos poblaciones divergentes con diferente conjunto de alelos (por ejemplo, alelos presentes en una población y que desaparecieron en la otra).
Muchos aspectos de la deriva genética dependen del tamaño de la población (generalmente abreviada como N). En las poblaciones reducidas, la deriva genética puede producir grandes cambios en la frecuencia de alelos de una generación a la siguiente, mientras que en las grandes poblaciones, los cambios en la frecuencia de los alelos son generalmente muy pequeños. La importancia relativa de la selección natural y la deriva genética en la determinación de la suerte de las nuevas mutaciones también depende del tamaño de la población y de la presión por la selección: Cuando N × s (tamaño de la población multiplicado por la presión por la selección) es pequeña, predomina la deriva genética. Así, la selección natural es más eficiente en grandes poblaciones o dicho de otra forma, la deriva genética es más poderosa en las poblaciones reducidas. Finalmente, el tiempo que le toma a un alelo fijarse en una población por deriva genética (es decir, el tiempo que toma el que todos los individuos de la población tengan ese alelo) depende del tamaño de la población: mientras más pequeña la población, menos tiempo toma la fijación del alelo.
Los efectos de la deriva genética son pequeños en la mayoría de las poblaciones naturales, pero pueden revestir especial importancia cuando tiene lugar la formación de una población a partir de muy pocos individuos o efecto fundador, o cuando las poblaciones quedan reducidas a muy pocos individuos, es decir, pasan a través de un cuello de botella.
- Efecto fundador: Es un proceso frecuente en algunas islas oceánicas, que son colonizadas por unos pocos individuos que genéticamente son poco representativos con respecto a la población de la que derivan.
Un ejemplo que ilustra este efecto fundador se encuentra en el grupo religioso amish, fundado en 1771 en Pensilvania por unos pocos matrimonios. En la actualidad el 13% de las 17000 personas que forman el grupo portan en su genotipo un alelo que en homocigosis provoca enanismo y polidactilia. El número de casos registrados en esta población corresponde prácticamente a la totalidad de casos detectados en toda la población mundial. Se piensa que estas 17000 personas descienden de muy pocos individuos, algunos de los cuales eran portadores de este alelo.
- Cuello de botella: Se produce cuando una situación en la que, debido a condiciones ambientales adversas u otras circunstancias, la población se reduce drásticamente. Con posterioridad recupera su número, pero a partir de un corto número de individuos. Esta situación puede implicar la desaparición de determinados alelos aleatoriamente o que aumente la frecuencia de otros que en la anterior situación estaban menos representados.
Microevolución y macroevolución [editar]
Microevolución es un término usado para referirse a cambios de las frecuencias génicas en pequeña escala, en una población durante el transcurso de varias generaciones. Estos cambios pueden deberse a un cierto número de procesos: mutación, flujo génico, deriva génica, así como también por selección natural. La genética de poblaciones es la rama de la biología que provee la estructura matemática para el estudio de los procesos de la microevolución, como el color de la piel en la población mundial.
Los cambios a mayor escala, desde la especiación (aparición de una nueva especie) hasta las grandes transformaciones evolutivas ocurridas en largos períodos de tiempo, son comúnmente denominados macroevolución (por ejemplo, los anfibios que evolucionaron a partir de un grupo de peces óseos). Los biólogos no acostumbran hacer una separación absoluta entre macroevolución y microevolución, pues consideran que macroevolución es simplemente microevolución acumulada y sometida a un rango mayor de circunstancias ambientales. Una minoría de teóricos, sin embargo, considera que los mecanismos de la teoría sintética para la microevolución no bastan para hacer esa extrapolación y que se necesitan otros mecanismos. La teoría de los equilibrios puntuados, propuesta por Gould y Eldredge, intenta explicar ciertas tendencias macroevolutivas que se observan en el registro fósil.
Especiación y extinción [editar]
La especiación es la aparición de una o más especies a partir de una pre-existente. Existen varios mecanismos por los cuales esto puede ocurrir. La especiación alopátrica comienza cuando una subpoblación de una especie queda aislada geográficamente, por ejemplo por fragmentación del hábitat o migración. La especiación simpátrica ocurre cuando una especie nueva emerge en la misma región geográfica. La especiación peripátrica, propuesta por Mayr, es un tipo de especiación que existe entre los extremos de la especiación alopátrica y simpátrica. La especiación peripátrica es un soporte fundamental de la teoría del equilibrio puntuado. La especiación parapátrica donde las especies ocupan áreas biogográficas aledañas pero hay un flujo genético bajo.
La extinción es la desaparición de las especies. El momento de la extinción es considerado generalmente como la muerte del último individuo perteneciente a una especie. La extinción no es un proceso inusual medido en tiempo geológico - las especies son creadas por la especiación y desaparecen a través de la extinción.
Biología evolutiva [editar]
La biología evolutiva es un subcampo de la biología que se ocupa de la ascendencia común y evolución biológica de las especies, así como de sus cambios en el tiempo. La biología evolucionista es una especie de meta campo debido a que incluye científicos de muchas disciplinas tradicionales con orientación a la taxonomía. Por ejemplo, generalmente incluye científicos especializados en organismos particulares tales como la ornitología y la utiliza como medio para responder a preguntas generales sobre la evolución.
La biología evolutiva es una disciplina académica independiente que surgió en los años 1930 y 40 como resultado de la síntesis evolutiva moderna. Sin embargo, es en los años 1970 y 80 que un importante número de universidades crearon departamentos de biología evolutiva.
Evidencias de la evolución [editar]
Se le ha llamado así al conjunto de pruebas que los científicos han reunido para demostrar que la evolución de la materia viva es un proceso que le es característico. Estas pruebas se han agrupado en las siguientes categorías:
- Paleontológicas: son las evidencias que se derivan de los descubrimientos de los restos fósiles dejados por las especies que habitaron la tierra en otras eras geológicas. Cuanto más remota es una especie fósil, más diferente es de las especies actuales.
- Anatómicas: al realizar un estudio comparativo de los órganos de los distintos seres vivos, se han encontrado semejanzas en su constitución que nos señalan el parentesco que existe entre las especies. Estas evidencias nos permiten clasificar a los órganos en:
- Órganos homólogos, si tienen un mismo origen embrionario y evolutivo, cuyas funciones pueden ser o no distintas.
- Órganos análogos, si tienen un origen embrionario y evolutivo distinto pero que realizan la misma función.
- Órganos vestigiales, que están reducidos y no tienen función aparente, pero que muestran claramente que derivan de órganos funcionales presentes en otras especies (como los huesos rudimentarios de las patas posteriores presentes en algunas serpientes)
- Embriológicas: son los estudios comparativos de las etapas embrionarias de distintas clases animales Se ha encontrado que en las primeras de estas etapas del desarrollo, muchos organismos muestran características comunes que apuntan hacia la existencia de un patrón de desarrollo compartido entre ellas, que a su vez, demuestran la existencia de un antepasado común. El sorprendente hecho de que los embriones tempranos de mamíferos posean hendiduras branquiales que luego desaparecen demuestra que estamos lejanamente emparentados con los peces.
- Bioquímicas: son estudios comparados de las proteínas y ácidos nucleicos que forman parte de diferentes seres vivos, comprobándose que dichas biomoléculas son muy semejantes entre algunas especies, lo que apunta a su origen común y que, por el contrario, conforme la distancia evolutiva se hace mayor, las semejanzas desaparecen gradualmente.

Evolución cultural
De Wikipedia, la enciclopedia libre
Se entiende por evolución cultural el cambio a lo largo del tiempo de todos o algunos de los elementos culturales de una sociedad (o una parte de la misma). La evidencia muestra que, la cultura -usos, costumbres, religión, valores, organización social, tecnología, leyes, lenguaje, artefactos, herramientas, transportes-, se desarrolla evolutivamente por la acumulación y transmisión de conocimientos para la mejor adaptación al medio ambiente.
Las tesis evolucionistas aplicadas a las ciencias sociales fueron una consecuencia de dos grandes aportaciones científicas de mediados del siglo XIX: el evolucionismo que planteó para la biología Darwin y la filosofía positivista de Auguste Comte. En ese contexto se formularon los estadios evolutivos de autores como el estadounidense Lewis Morgan (1818-1881) y el británico Edward Burnett Tylor (1834-1917), quienes, con algunos matices diferenciales plantearon la existencia de tres estadios principales en el desarrollo cultural de los grupos humanos, denominados de menor a mayor nivel de desarrollo: salvajismo, barbarie y civilización.[1] La aplicación de este esquema se popularizó por otros teóricos, como Friedrich Engels en su obra El origen de la familia, la propiedad privada y el estado.
La consideración de la desigualdad de las culturas tuvo en gran medida éxito gracias a su adaptación como ideología justificadora propia de un momento en el que los europeos -los de Europa y las clases dominantes de origen europeo de las nuevas naciones de América- estaban extendiendo su dominio colonial por el resto del mundo. A finales del siglo XIX era un tópico cultural muy extendido la existencia de razas inferiores y superiores, junto con otras teorías sociales hoy desacreditadas, como la eugenesia y el darwinismo social. No obstante, a partir de la primera mitad del siglo XX se fueron abriendo camino planteamientos antropológicos innovadores, destacadamente el relativismo cultural de Bronisław Malinowski y otros autores de la moderna antropología cultural (como Marvin Harris).
Contenido[ocultar] |
Teorías del cambio cultural [editar]
Una terminología común para clasificar los diferentes aspectos de la cultura, introducido inicialmente por Marx, y usado de modo ligeramente diferente por otras escuelas y autores, es el que divide la cultura en tres partes:
- Aspectos infraestructurales. Que serían los aspectos más materiales o relacionados con la tecnología, los medios de producción disponible, el tipo de recursos naturales o humanos manejados por una sociedad para su actividad económica y social.
- Aspectos estructurales. Que serían aquellos relacionados con como se organizan las tareas y las funciones sociales, el sistema jerárquico y de poder y las reglas que en efecto rigen las relaciones entre individuos.
- Aspectos supraestructurales. Que englobarían los aspectos más inmateriales e ideales, como las creencias religiosas, los valores morales y también los aspectos tradicionalmente considerados "alta cultura" en occidente como: la pintura, la arquitectura, la música, la literatura o el cine (a pesar de que la realización de estos aspectos también se haya restringida por los aspectos tecnológicos o infraestructurales). También todo un conjunto de idealizaciones como las utopías o principios deseables del ordenamiento jurídico formarían la supraestructura.
De acuerdo a cierto número de teorías del cambio socio-cultural, como el marxismo o el materialismo cultural, las culturas son, en gran parte, adaptativas (en el sentido que tratan de adaptarse al medio ambiente, la tecnología disponible y demás restricciones materiales que condicionan la vida humana). Para el marxismo, y otras versiones del materialismo histórico, es el cambio en la infraestructura, más concretamente el modo de producción o la tecnología, lo que hace que aparezcan nuevos factores culturales, que provocan reestructuraciones importantes en el modo de organizar la sociedad: quién produce, qué se produce, cómo se produce y para quién se produce.
Cambios en la infraestructura [editar]
Los cambios infraestructurales son complicados de prever ya que dependen de avances tecnológicos, desarrollos económicos no buscados y creación de economías de escala. Sin embargo, resultan en general más sencillos de describir en términos objetivos una vez producidos. Para algunos autores como Marvin Harris estos cambios son importantes, porque detrás de un buen número de cambios culturales en otros niveles pueden rastrearse hasta cambios en la infraestructura.
Cambios en la estructura [editar]
Los cambios en la estructura normalmente se corresponden a reorganizaciones sociales asociadas al modo de producción. Así un nuevo cambio tecnológico o infraestructural puede comportar una forma diferente de distribuir el trabajo o el número de horas trabajadas. Un ejemplo de esto fue la incorporación masiva de las mujeres occidentales al mercado laboral al aparecer un buen número de puestos de trabajo en el sector servicios (empleos de cuello blanco) donde la fuerza física no presenta ventaja comparativa al estar basados exclusivamente en la capacidad intelectual.
Cambios en la supraestructura [editar]
Los cambios supraestructurales casi siempre surgen como valores y reacomodos de los valores y las creencias que tienden a justificar el orden social imperante. Así la incorporación de las mujeres al mercado laboral conllevó una mejora y emprestigiamiento de la mujer asalariada que trabaja fuera de casa y aporta ingresos económicos al hogar (frente a actitudes anteriores que defendían que las mujeres se encargaran de sus hijos y su hogar el mayor tiempo posible).
Ejemplos de cambios culturales [editar]
Un exitoso caso de evolución y difusión cultural es la institución universitaria que empezó en el Mediterráneo y en Oriente (Asia) y en la alta edad media europea : Egipto (África); después en la baja edad media : Europa (Italia Inglaterra Francia España Portugal) y posteriormente se extendió al mundo hispánico en el XVI y en el XVII al anglosajón americano, este último con conceptos nuevos de populismo y excelencia en investigación.
La Evolución Cultural y la Difusión Cultural son temas básicos para el desarrollo de artículos como Prioridades sociales y de Áreas Metropolitanas, para ejemplos de valores o de tecnologías (espiritual y material).
El concepto está en la Antropología Cultural y fue desarrollado por Tylor, Leslie White, Kroeber, Kluckhohn, tiene muchas connotaciones como puede verse aquí por las disciplinas citadas y los enlaces y para el estudioso puede leer mas en los clásicos, por ejemplo: Bronislaw Malinowski en 'Los argonautas del Pacífico Occidental'.
Evolución cultural a partir de la biología [editar]
La evolución biológica, mediante la selección natural, apunta hacia el logro de mayores niveles de adaptación de los seres vivientes. En el caso del hombre, en una determinada época, aparece el cerebro, como un órgano apto para el proceso de información. A partir de ahí comienza el proceso de adaptación cultural al orden natural.
Puede decirse que el principio de complejidad creciente es el que reúne tanto a la evolución biológica como a la evolución cultural. También ha sido denominado como Ley de complejidad-conciencia. Esta tendencia implica la existencia de un sentido de la evolución, de una finalidad objetiva e implícita del universo. También puede establecerse el sentido de la historia de la humanidad como una serie de intentos por lograr mayores niveles de adaptación al orden natural.
Julian Huxley describe la situación del hombre "como si hubiese sido designado, de repente, director general de la más grande de todas las empresas, la empresa de la evolución".
Así como el medio presiona a la vida hacia una mayor adaptación, el propio orden natural presiona a la humanidad, a través del sufrimiento, a una mayor adaptación cultural al mismo.sip, basicamente eso...probablemente....ahora a lo divertido (advertencia: esta a punto de ver masivas cantidades de wiki-paste... esto debia estar antes del wiki-paste no?)
No hay comentarios:
Publicar un comentario