Partículas elementales y sus propiedades como física del micromundo. Física del micromundo y megamundo. Física atómica Descubrimiento de la física moderna sobre la estructura del microcosmos.

Óptica cuántica. Física del micromundo. Física molecular.

Radiación termal- Radiación electromagnética de espectro continuo, emitida por cuerpos calentados debido a su energía térmica.

Ejemplo La radiación térmica es la luz de una lámpara incandescente.

El poder de la radiación térmica de un objeto que cumple con los criterios de un cuerpo negro absoluto se describe por Ley de Stefan-Boltzmann.

Se describe la relación entre las capacidades de emisión y absorción de los cuerpos. Ley de radiación de Kirchhoff.

La radiación térmica es uno de los tres tipos elementales de transferencia de energía térmica.

La radiación de equilibrio es la radiación térmica que está en equilibrio termodinámico con la materia.

Las principales características cuantitativas de la radiación térmica son:
- luminosidad energética es la cantidad de energía de radiación electromagnética en todo el rango de longitudes de onda de radiación térmica que emite un cuerpo en todas direcciones desde una unidad de superficie por unidad de tiempo: R = E/(S t), [J/(m 2 s)] = [W /m 2 ] La luminosidad de la energía depende de la naturaleza del cuerpo, la temperatura del cuerpo, el estado de la superficie del cuerpo y la longitud de onda de la radiación.
- densidad de luminosidad espectral - luminosidad energética de un cuerpo para longitudes de onda dadas (λ + dλ) a una temperatura dada (T + dT): R λ, T = f(λ, T).
La luminosidad energética de un cuerpo dentro de ciertas longitudes de onda se calcula integrando R λ, T = f(λ, T) para T = const:

coeficiente de absorción- la relación entre la energía absorbida por el cuerpo y la energía incidente. Entonces, si la radiación del flujo dФ inc cae sobre un cuerpo, entonces una parte se refleja desde la superficie del cuerpo - dФ neg, la otra parte pasa al cuerpo y parcialmente se convierte en calor dФ abs, y la tercera parte , después de varias reflexiones internas, atraviesa el cuerpo hacia afuera dФ inc : α = dФ abs./dФ abajo.

ley de stefan-boltzmann- la ley de la radiación del cuerpo negro. Determina la dependencia del poder de radiación de un cuerpo absolutamente negro de su temperatura. Declaración de la ley:

¿Dónde está el grado de negrura (para todas las sustancias, para un cuerpo absolutamente negro)? Usando la ley de Planck para la radiación, la constante se puede definir como

donde es la constante de Planck, la constante de Boltzmann y la velocidad de la luz.

Valor numérico J s −1 m −2 K −4.

La ley fue descubierta independientemente por J. Stefan y L. Boltzmann bajo el supuesto de que la densidad de energía de la radiación es proporcional a su presión. Confirmado por Leo Graetz en 1880.

Es importante señalar que la ley sólo habla de la energía total emitida. La distribución de energía en el espectro de radiación se describe mediante la fórmula de Planck, según la cual existe un máximo único en el espectro, cuya posición está determinada por la ley de Wien.

Ley de radiación de Kirchhoff.

en moderno redacción 3 La ley dice así:

La relación entre la emisividad de cualquier cuerpo y su capacidad de absorción es la misma para todos los cuerpos a una temperatura determinada para una frecuencia determinada y no depende de su forma ni de su naturaleza química.

Se sabe que cuando la radiación electromagnética incide sobre un determinado cuerpo, parte se refleja, parte se absorbe y parte se puede transmitir. La fracción de radiación absorbida a una frecuencia determinada se llama capacidad de absorción cuerpo. Por otro lado, todo cuerpo calentado emite energía según una ley llamada emisividad del cuerpo.

Los valores de y pueden variar mucho al pasar de un cuerpo a otro, sin embargo, según la ley de radiación de Kirchhoff, la relación entre las capacidades de emisión y absorción no depende de la naturaleza del cuerpo y es una función universal de frecuencia ( longitud de onda) y temperatura:

Por definición, un cuerpo absolutamente negro absorbe toda la radiación que incide sobre él, es decir, sobre él. Por tanto, la función coincide con la emisividad de un cuerpo absolutamente negro, descrita por la ley de Stefan-Boltzmann, por lo que la emisividad de cualquier cuerpo se puede encontrar basándose únicamente en su capacidad de absorción.

Los cuerpos reales tienen una capacidad de absorción menor que la unidad y, por tanto, una emisividad menor que la de un cuerpo absolutamente negro. Los cuerpos cuya capacidad de absorción no depende de la frecuencia se denominan grises. Sus espectros tienen el mismo aspecto que el de un cuerpo absolutamente negro. En general, la capacidad de absorción de los cuerpos depende de la frecuencia y la temperatura, y su espectro puede diferir significativamente del espectro de un cuerpo absolutamente negro. El estudio de la emisividad de diferentes superficies fue realizado por primera vez por el científico escocés Leslie utilizando su propio invento: el cubo de Leslie.

Efecto fotoeléctrico (efecto fotoeléctrico) es el fenómeno de interacción de la luz con la materia, como resultado del cual la energía de los fotones se transfiere a los electrones de la sustancia. Para sólido y líquido los cuerpos varían fotoefecto externo e interno. Con externo En el efecto fotoeléctrico, la absorción de fotones va acompañada de la emisión de electrones fuera del cuerpo. Con interior En el efecto fotoeléctrico, los electrones arrancados de átomos, moléculas e iones permanecen dentro de la sustancia, pero las energías de los electrones cambian. en gases El efecto fotoeléctrico consiste en el fenómeno de la fotoionización: la eliminación de electrones de átomos y moléculas de gas bajo la influencia de la luz.

Vista cualitativa de la característica corriente-voltaje. La fotocélula, es decir, la dependencia de la fotocorriente del voltaje entre el cátodo y el ánodo para el caso de un flujo de luz constante que incide sobre el cátodo, se presenta en la Fig. 1.13.

Arroz. 1.13.

voltaje positivo Corresponde al campo eléctrico acelerado en el que caen los electrones que escapan del cátodo. Por tanto, en la región de voltajes positivos, todos los electrones emitidos por el cátodo llegan al ánodo, provocando la saturación de la fotocorriente.

Una ligera disminución en la fotocorriente en pequeños positivos. El voltaje, que se observa en los experimentos, está asociado con la diferencia de potencial de contacto entre el cátodo y el ánodo. A continuación, cuando analicemos las leyes del efecto fotoeléctrico, descuidaremos la influencia de la diferencia de potencial de contacto.

En voltaje negativo Un electrón emitido por el cátodo entra en un campo eléctrico de frenado, que sólo puede superar si dispone de un cierto suministro de energía cinética. Un electrón con baja energía cinética, que sale volando del cátodo, no puede superar el campo de frenado y llegar al ánodo. Dicho electrón regresa al cátodo sin contribuir a la fotocorriente. Por lo tanto, una suave disminución de la fotocorriente en la región de voltajes negativos indica que los fotoelectrones que escapan del cátodo tienen diferentes valores de energía cinética.

En algún voltaje negativo, cuyo valor se llama voltaje de retardo (potencial), la fotocorriente se vuelve igual a cero. El correspondiente campo eléctrico de desaceleración retrasa todos los electrones que escapan del cátodo, incluidos los electrones con máxima energía cinética.

Al medir el voltaje de retardo, esta energía máxima o velocidad máxima de los fotoelectrones se puede determinar a partir de la relación

. (1.54)

Se establecieron experimentalmente los siguientes Principios básicos del efecto fotoeléctrico:

1. Para luz monocromática de una determinada longitud de onda, la fotocorriente de saturación es proporcional al flujo luminoso que incide sobre el cátodo.

2.La energía cinética máxima de los fotoelectrones no depende de la magnitud del flujo luminoso, sino que está determinada únicamente por la frecuencia de la radiación.

3. Cada sustancia catódica tiene su propia frecuencia de corte, de modo que la radiación con la frecuencia del efecto fotoeléctrico no causa el efecto fotoeléctrico. Esta frecuencia de corte se denomina frecuencia de corte roja del efecto fotoeléctrico. En la escala de longitud de onda, corresponde a la longitud de onda del límite rojo, de modo que el efecto fotoeléctrico de un determinado metal sólo produce radiación con una longitud de onda más corta.

(1.55) se llama Ecuación de Einstein para el efecto fotoeléctrico externo. Aquí está la energía máxima de los fotoelectrones.

Una consecuencia directa de esta ecuación son las leyes segunda y tercera del efecto fotoeléctrico. De hecho, de (1.55) se deduce que la energía máxima de los fotoelectrones depende de la frecuencia de la radiación que incide sobre el metal. Además, si , entonces no se debe observar el efecto fotoeléctrico. A partir de aquí, para la frecuencia y longitud de onda del límite rojo del efecto fotoeléctrico, obtenemos fórmulas simples.

de lo cual se deduce que estas características están completamente determinadas por el valor de la función de trabajo del electrón del metal.


Fotón- una partícula elemental, un cuanto de radiación electromagnética (en sentido estricto, luz). Es una partícula sin masa que sólo puede existir moviéndose a la velocidad de la luz. La carga eléctrica de un fotón es cero. Un fotón sólo puede estar en dos estados de espín con una proyección del espín en la dirección del movimiento (helicidad) ±1. Esta propiedad en la electrodinámica clásica corresponde a la polarización circular derecha e izquierda de una onda electromagnética. El fotón, como partícula cuántica, se caracteriza por la dualidad onda-partícula; exhibe simultáneamente las propiedades de una partícula y una onda. Los fotones se designan con la letra , por lo que a menudo se les llama cuantos gamma (especialmente fotones de alta energía); estos términos son prácticamente sinónimos. Desde el punto de vista del modelo estándar, el fotón es un bosón de calibre. Los fotones virtuales son portadores de fuerza electromagnética y garantizan así la interacción, por ejemplo, entre dos cargas eléctricas. El fotón es la partícula más abundante del Universo. Hay al menos 20 mil millones de fotones por nucleón.

Dualidad onda-partícula, Principio de incertidumbre de Heisenberg

El fotón se caracteriza por la dualidad onda-partícula. Por un lado, un fotón demuestra las propiedades de una onda electromagnética en los fenómenos de difracción e interferencia, si las dimensiones características de los obstáculos son comparables a la longitud de onda del fotón. Por ejemplo, una secuencia de fotones individuales con una frecuencia que pasa a través de una doble rendija crea un patrón de interferencia en la pantalla que puede describirse mediante las ecuaciones de Maxwell. Sin embargo, los experimentos muestran que los fotones son emitidos y absorbidos en su totalidad por objetos que tienen dimensiones mucho más pequeñas que la longitud de onda del fotón (por ejemplo, los átomos) o, en general, con cierta aproximación, pueden considerarse puntuales (al igual que, por ejemplo, los electrones). . Por tanto, los fotones en los procesos de emisión y absorción se comportan como partículas puntuales. Al mismo tiempo, esta descripción no es suficiente; La idea de un fotón como una partícula puntual, cuya trayectoria está especificada probabilísticamente por un campo electromagnético, es refutada por experimentos de correlación con estados entrelazados de fotones.

Experimento mental de Heisenberg para determinar la ubicación del electrón (sombreado en azul) utilizando un microscopio de rayos gamma de alta resolución.

Los rayos gamma incidentes (que se muestran en verde) son dispersados ​​por el electrón y entran en el ángulo de apertura del microscopio θ. Los rayos gamma dispersos se muestran en rojo en la figura. La óptica clásica muestra que la posición de un electrón sólo puede determinarse hasta un cierto valor Δ X, que depende del ángulo θ y de la longitud de onda λ de los rayos incidentes.

El elemento clave de la mecánica cuántica es Principio de incertidumbre de Heisenberg, lo que prohíbe la determinación simultánea y precisa de la coordenada espacial de una partícula y su impulso a lo largo de esta coordenada.

Es importante señalar que la cuantificación de la luz y la dependencia de la energía y el momento de la frecuencia son necesarias para satisfacer el principio de incertidumbre aplicado a una partícula masiva cargada. Esto puede ilustrarse con el famoso experimento mental con un microscopio ideal, que determina las coordenadas de un electrón irradiándolo con luz y registrando la luz dispersada (microscopio gamma de Heisenberg). La posición del electrón se puede determinar con una precisión igual a la resolución del microscopio. Basado en los conceptos de la óptica clásica:

¿Dónde está el ángulo de apertura del microscopio? Por tanto, la incertidumbre de las coordenadas puede reducirse tanto como se desee reduciendo la longitud de onda de los rayos incidentes. Sin embargo, después de la dispersión, el electrón adquiere un impulso adicional, cuya incertidumbre es igual a . Si la radiación incidente no estuviera cuantificada, esta incertidumbre podría reducirse arbitrariamente reduciendo la intensidad de la radiación. La longitud de onda y la intensidad de la luz incidente se pueden cambiar de forma independiente. Como resultado, en ausencia de cuantificación de la luz, sería posible determinar simultáneamente con gran precisión la posición del electrón en el espacio y su momento, lo que contradice el principio de incertidumbre.

Por el contrario, la fórmula de Einstein para el momento del fotón satisface plenamente los requisitos del principio de incertidumbre. Teniendo en cuenta que un fotón puede dispersarse en cualquier dirección dentro del ángulo , la incertidumbre del momento transferido al electrón es igual a:

Después de multiplicar la primera expresión por la segunda, se obtiene la relación de incertidumbre de Heisenberg: . Por tanto, el mundo entero está cuantizado: si la materia obedece las leyes de la mecánica cuántica, entonces el campo debe obedecerlas, y viceversa.


Los experimentos de Rutherford llevaron a la conclusión de que en el centro del átomo hay un núcleo denso y cargado positivamente. (núcleo atómico, de ahí el nombre del modelo), cuyo diámetro no supera los 10–14–10–15 m. Este núcleo ocupa sólo 10–12 partes del volumen total del átomo, pero contiene todo carga positiva y al menos el 99,95% de su masa. A la sustancia que constituye el núcleo del átomo se le debería haber asignado una densidad colosal del orden de ρ ≈ 10 15 g/cm 3 . La carga del núcleo debe ser igual a la carga total de todos los electrones que forman el átomo. Posteriormente, se pudo establecer que si la carga de un electrón se toma como una, entonces la carga del núcleo es exactamente igual al número de este elemento en la tabla periódica.

Figura 6.1.3 Dispersión de una partícula α en un átomo de Thomson (a) y en un átomo de Rutherford (b)

Posteriormente, Rutherford propuso modelo planetario del átomo . Según este modelo, en el centro del átomo hay un núcleo cargado positivamente, en el que se concentra casi toda la masa del átomo. El átomo en su conjunto es neutro. Los electrones giran alrededor del núcleo, como los planetas, bajo la influencia de las fuerzas de Coulomb del núcleo (figura 6.1.4). Los electrones no pueden estar en reposo, ya que caerían sobre el núcleo.

Arroz. 6.1.4 Modelo planetario del átomo de Rutherford. Se muestran las órbitas circulares de cuatro electrones.


Núcleo atómico- la parte central del átomo, en la que se concentra la mayor parte de su masa (más del 99,9%). El núcleo está cargado positivamente; la carga del núcleo está determinada por el elemento químico al que pertenece el átomo. Las dimensiones de los núcleos de varios átomos son de varios femtómetros, lo que es más de 10 mil veces más pequeño que el tamaño del átomo mismo. El núcleo atómico está formado de nucleones: protones cargados positivamente y neutrones neutros, que están conectados entre sí mediante una fuerte interacción. El número de protones en un núcleo se llama número de cargo- este número es igual al número de serie del elemento al que pertenece el átomo en la serie natural de elementos de la tabla periódica. El número de protones en el núcleo determina la estructura de la capa electrónica de un átomo neutro y, por tanto, las propiedades químicas del elemento correspondiente. El número de neutrones en un núcleo se llama número isotópico. Los núcleos que tienen el mismo número de protones y distinto número de neutrones se llaman isótopos. Los núcleos que tienen el mismo número de neutrones pero diferente número de protones se llaman isotonos. El número total de nucleones en un núcleo se llama número de masa() y es aproximadamente igual a la masa atómica promedio indicada en la tabla periódica. Los nucleidos con el mismo número másico, pero diferente composición protón-neutrón, suelen denominarse isobaras. Como cualquier sistema cuántico, los núcleos pueden estar en un estado excitado metaestable y, en algunos casos, la vida útil de dicho estado se calcula en años. Estos estados excitados de los núcleos se denominan isómeros nucleares. Casi el 90% de los 2.500 núcleos atómicos conocidos son inestables. Un núcleo inestable se transforma espontáneamente en otros núcleos, emitiendo partículas. Esta propiedad de los núcleos se llama radioactividad. Se ha descubierto que los núcleos radiactivos pueden emitir partículas de tres tipos: cargadas positiva y negativamente y neutras. Estos tres tipos de radiación fueron llamados Radiaciones α, β y γ. Estos tres tipos de radiaciones radiactivas se diferencian mucho entre sí en su capacidad para ionizar átomos de materia y, por tanto, en su capacidad de penetración. Tiene la capacidad de penetración más baja. radiación α. En el aire, en condiciones normales, los rayos α recorren una distancia de varios centímetros. . rayos β mucho menos absorbido por la sustancia. Son capaces de atravesar una capa de aluminio de varios milímetros de espesor. Tener la mayor capacidad de penetración. rayos γ, capaz de atravesar una capa de plomo de 5 a 10 cm de espesor.

División representa la desintegración (división) de un núcleo atómico en dos aprox. partes iguales (fragmentos), acompañado de la liberación de energía y, en el departamento. casos, emitiendo uno o más. partículas, por ejemplo neutrones. Algunos núcleos pesados ​​pueden fisionarse espontáneamente, mientras que los más ligeros pueden fisionarse en caso de colisión con otros núcleos que tienen alta energía. Además, los núcleos pesados, como los átomos de uranio, son capaces de fisionarse cuando son bombardeados por neutrones y, dado que se emiten nuevos neutrones, el proceso puede volverse autosostenible, es decir, se produce una reacción en cadena. Durante tal reacción de fisión, se libera una gran cantidad de energía. Las reacciones en cadena controladas ocurren en los reactores nucleares, mientras que las reacciones en cadena incontroladas ocurren en una bomba atómica. Síntesis Es la fusión de los núcleos de dos átomos ligeros para formar un nuevo núcleo correspondiente a un átomo más pesado. Si este nuevo núcleo es estable, entonces se libera energía durante la fusión, ya que los enlaces en él son más fuertes que en los núcleos originales. De química. Las reacciones de fusión nuclear se distinguen por la participación en ella no solo de los electrones de los átomos, sino también de sus núcleos. Por unidad de masa de sustancias que reaccionan en la reacción de fusión nuclear, aprox. 10 veces más energía que las reacciones de fisión. La síntesis de los núcleos se produce en el centro, región del Sol y otros astros, siendo la fuente de su energía. Una reacción incontrolada de dicha síntesis se realiza en bombas de hidrógeno. Hoy en día, se están realizando investigaciones sobre la implementación de reacciones controladas de dicha síntesis como fuentes de energía.


Partícula elemental- término colectivo que se refiere a microobjetos a escala subnuclear que no pueden descomponerse en sus partes componentes.

Hay que tener en cuenta que algunas partículas elementales (electrones, fotones, quarks, etc.) actualmente se consideran sin estructura y se consideran partículas fundamentales primarias. Otras partículas elementales (las llamadas partículas compuestas: protones, neutrones, etc.) tienen una estructura interna compleja, pero, sin embargo, según los conceptos modernos, es imposible separarlas en partes.

Partícula fundamental- una partícula elemental sin estructura, que hasta ahora no se ha descrito como compuesta. Actualmente, el término se utiliza principalmente para leptones y quarks (6 partículas de cada tipo, junto con las antipartículas, forman un conjunto de 24 partículas fundamentales) junto con los bosones de calibre (partículas que llevan interacciones fundamentales).


Teoría cinética molecular interpreta las propiedades de los cuerpos que se observan directamente experimentalmente (presión, temperatura, etc.) como el resultado total de la acción de las moléculas. Para ello, utiliza el método estadístico, interesándose no en el movimiento de moléculas individuales, sino sólo en los valores medios que caracterizan el movimiento de una gran colección de partículas. De ahí su otro nombre: física estadística.

Parámetros termodinámicos- temperatura, densidad, presión, volumen, resistividad eléctrica y otras cantidades físicas:
- determinar inequívocamente el estado termodinámico del sistema;
- no tener en cuenta la estructura molecular de los cuerpos; Y
- describir su estructura macroscópica.

Basado en el uso de los principios básicos de la teoría cinética molecular, se obtuvo ecuación básica del gas ideal MKT, que se ve así: , donde p es la presión de un gas ideal, m0 es la masa de la molécula, el valor promedio de la concentración de moléculas, el cuadrado de la velocidad de las moléculas.
Al denotar el valor promedio de la energía cinética del movimiento de traslación de las moléculas de un gas ideal, obtenemos ecuación básica de MKT gas ideal en la forma:

En la teoría de los gases ideales, la energía potencial de interacción entre moléculas se considera igual a cero. Es por eso La energía interna de un gas ideal está dada por energía cinética de movimiento de todas sus moléculas. La energía promedio de movimiento de una molécula es. Como un kilomol contiene moléculas, la energía interna de un kilomol de gas será

Considerando eso, obtenemos

Para cualquier masa de gas m, es decir. para cualquier número de kilomoles energía interna

(10.12)

De esta expresión se deduce que la energía interna es una función inequívoca del estado y, por lo tanto, cuando el sistema realiza cualquier proceso, como resultado del cual el sistema vuelve a su estado original, el cambio total en la energía interna es cero. Matemáticamente, esto se escribe como la identidad.

Segunda ley de la termodinámica afirma que todos los procesos irreversibles (y tales son casi todos los procesos térmicos, en cualquier caso, todos los procesos que ocurren naturalmente) proceden así, que la entropía de los involucrados en ellos los cuerpos aumentan, tendiendo al valor máximo. El valor máximo de entropía se alcanza cuando el sistema alcanza un estado de equilibrio.

Al mismo tiempo, ya se señaló anteriormente que la transición a un estado de equilibrio es mucho más probable en comparación con todas las demás transiciones. Por tanto, sólo se observan aquellos cambios de estado en los que el sistema pasa de un estado menos probable a uno más probable (la probabilidad termodinámica aumenta).

Relación entre la probabilidad termodinámica del estado de un sistema y su entropía fue fundada en 1875 por dos científicos famosos: D. Gibbs y L. Boltzmann. Esta conexión se expresa la fórmula de Boltzmann, que se parece a:

, (4.56)

Dónde , R- constante universal de gas, N / A- El número de Avogadro.


Ecuación de estado del gas ideal(a veces la ecuación de Clapeyron o la ecuación de Mendeleev-Clapeyron) es una fórmula que establece la relación entre la presión, el volumen molar y la temperatura absoluta de un gas ideal. La ecuación se ve así:

Presión,

volumen molar,

constante universal de gas

Temperatura absoluta, K.

Dado que donde es la cantidad de sustancia y donde es la masa es la masa molar, la ecuación de estado se puede escribir:

Se puede observar que esta ecuación es en realidad la ecuación de estado de un gas ideal con dos correcciones. La corrección tiene en cuenta las fuerzas de atracción entre moléculas (la presión sobre la pared disminuye, ya que hay fuerzas que atraen las moléculas de la capa límite hacia adentro), la corrección tiene en cuenta las fuerzas de repulsión (restamos el volumen ocupado por las moléculas del volumen total).

Para moles de gas Van La ecuación de estado de Der Waals se ve así:

¿Dónde está el volumen?

Isoterma una línea en un diagrama de fases que representa un proceso que ocurre a una temperatura constante (proceso isotérmico). La ecuacion Isoterma gas ideal pV = constante, donde p es la presión, V es el volumen del gas. Para un gas real, la ecuación Isoterma tiene un carácter más complejo y entra en la ecuación Isoterma Gas ideal sólo a bajas presiones o altas temperaturas.

En la Fig. 2.8 esquemáticamente Se muestran las isotermas de los gases. van der Waals para diferentes temperaturas.

Estas isotermas muestran claramente el área donde la presión aumenta al aumentar el volumen. Esta área no tiene significado físico. En la región donde la isoterma hace una curva en zigzag, la isoterma la cruza tres veces, es decir, hay tres valores de volumen para los mismos valores de los parámetros y. A medida que aumenta la temperatura, la sección ondulada disminuye y se convierte en un punto (ver el punto K en la figura 2.8). Este punto se llama crítico, cuyo valor depende de las propiedades del gas.

Isotermas del gas real (esquemáticamente)
Azul: isotermas a temperaturas inferiores a las críticas. Las áreas verdes sobre ellos son estados metaestables.
El área a la izquierda del punto F es un líquido normal.
El punto F es el punto de ebullición.
FG directo: equilibrio de fases líquidas y gaseosas.
Sección FA - líquido sobrecalentado.
Sección F′A - fluido estirado (p<0).
La sección AC es una continuación analítica de la isoterma y es físicamente imposible.
Sección CG - vapor sobreenfriado.
El punto G es el punto de rocío.
El área a la derecha del punto G es gas normal.
Las áreas de la figura FAB y GCB son iguales.
El rojo es la isoterma crítica.
K es el punto crítico.
Azul - isotermas supercríticas

Dado que todo el proceso ocurre a una temperatura constante. t, una curva que representa la dependencia de la presión p con el volumen V, llamada isoterma. En el volumen V 1 comienza la condensación del gas y en el volumen V 2 termina. Si V > V 1 entonces la sustancia estará en estado gaseoso, y si V< V 2 - в жидком.

Los experimentos muestran que Las isotermas de todos los demás gases también tienen esta forma si su temperatura no es muy alta.

En este proceso, cuando un gas se convierte en líquido cuando su volumen cambia de V 1 a V 2, la presión del gas permanece constante. Cada punto de la parte lineal de la isoterma 1-2 corresponde a un equilibrio entre los estados gaseoso y líquido de la sustancia. Esto significa que con seguridad t Y V la cantidad de líquido y gas encima permanece sin cambios. El equilibrio es dinámico: el número de moléculas que salen de los líquidos es, en promedio, igual al número de moléculas que pasan del gas al líquido al mismo tiempo.

También existe tal cosa como temperatura crítica, si un gas está a una temperatura superior a la temperatura crítica (individual para cada gas, por ejemplo, para el dióxido de carbono aproximadamente 304 K), entonces ya no se puede convertir en líquido, sin importar la presión que se le aplique. Este fenómeno se produce debido al hecho de que a una temperatura crítica las fuerzas de tensión superficial del líquido son cero. Si continúa comprimiendo lentamente un gas a una temperatura superior a la temperatura crítica, luego de que alcanza un volumen igual a aproximadamente cuatro de los volúmenes intrínsecos de las moléculas que componen el gas, la compresibilidad del gas comienza a caer bruscamente.


Breve resumen de la física moderna del micromundo. :

1 . El micromundo consta de dos tipos de partículas, que se diferencian principalmente en el tamaño: de las partículas del ultramicromundo. ( Por ejemplo , fotón ) y partículas del micromundo ( Por ejemplo , electrón ). El ultra micro mundo es tres órdenes de magnitud más pequeño que las partículas del micro mundo. . Generalmente 10 elevado a menos dieciocho .

2. Entonces tenemos tres direcciones de movimiento de partículas. ( arroz .1 ) Y , respectivamente , tres espacios para campos : campo gravitacional , campo eléctrico y magnético . Sobre esta base, podemos hablar de la naturaleza unificada de los tres campos y que , que los tres campos son inseparables entre sí en el microcosmos . ( Hay sustancias en la naturaleza. , crear campos magnéticos o campos eléctricos por separado ). Como consecuencia de esta afirmación, si un conductor de corriente eléctrica se introduce en un campo magnético , entonces no puede verse afectado por el campo eléctrico , que siempre es ortogonal al campo magnético .

3. prestemos atención a eso , que cada partícula del micromundo tiene tres grados más de libertad , que se utilizan para el movimiento de rotación . Ver figura. 1 . El físico Hopkins dice , que el espacio se puede transformar en tiempo y viceversa . Cómo entender esta afirmación ? Conocemos la ley de conservación de la energía. , que lee : la suma de la energía cinética y potencial de un cuerpo es constante . El movimiento de una partícula en el espacio del microcosmos es oscilatorio. . El movimiento oscilatorio es el resultado de la suma de dos movimientos. : traslacional y rotacional . La energía cinemática es la energía del movimiento de traslación. , y el potencial es la energía almacenada de un cuerpo inmóvil en el espacio de diferentes maneras . El movimiento de traslación se realiza en el espacio. , y rotacional en el tiempo y estos movimientos tienen condiciones de contorno matemáticas , del que nos habló el físico Hopkins .

4. Yo creo , que todas las partículas del ultra microcosmos se diferencian entre sí sólo en la frecuencia de vibración . Por ejemplo , luz ultravioleta e infrarroja : el mismo fotón , pero con diferentes frecuencias . Yo creo , esa frecuencia es una forma de almacenamiento de energía , t .mi. La frecuencia determina la cantidad de energía cinética y potencial de una partícula. . Dado que la fórmula de Einstein sólo tiene en cuenta la energía cinética de una partícula en movimiento , entonces esta fórmula necesita ajuste . Aparentemente , Por masa de una partícula necesitamos entender la masa específica. , t . mi . masa de volumen creado por la frecuencia de vibración : la masa de la partícula debe dividirse por el producto de la amplitud de la vibración y el área de la longitud de onda o la expectativa matemática de esta onda.

5. Cada partícula elemental del microcosmos contiene su propio tipo específico de ultra micropartículas con su propia frecuencia.. Por ejemplo , Los electrones contienen fotones de la misma frecuencia. ( bajo el nuevo nombre: biones ”), pero la frecuencia del fotón emitido se ajusta a las condiciones de la órbita específica del electrón . La Figura 4 proporciona evidencia de esta hipótesis. : Todas las ondas electromagnéticas deben tener la misma longitud y amplitud en una órbita particular. . Pero la transición de una órbita a otra órbita va acompañada de un cambio en los parámetros de frecuencia. : t . mi . amplitud y longitud de onda . Cada órbita tiene su propio nivel de energía potencial. episodio gii , como consecuencia de la ley de conservación de la energía . Razón p mi El escape irregular de energía de quarks de una partícula elemental del micromundo puede provocar fenómenos de resonancia. .

Un bloque de electrones en órbita tiene un momento de torsión. , que es el producto de la masa del electrón por el radio orbital , lo que conduce a la rotación de las propias órbitas. . Cada órbita de los electrones en un átomo es inherentemente un circuito eléctrico cerrado y por lo tanto crea un campo electromagnético a su alrededor.. Por tanto, la velocidad de los electrones en órbita es la misma. , como en un circuito electrico . Este campo impide que los electrones se acerquen a los protones del núcleo. . La dirección de las líneas del campo magnético se puede determinar mediante la regla de Gimlet. .

7 . La literatura física indica que , que el electrón tiene espín 2. De hecho , Cuando se libera un fotón, gira 90 grados. , t . mi . por 1 / 2 la espalda vuelve a su posición original , lo que da 1 más / 2 atrás . Luego cambia el filo del giro y nuevamente 1 / 2 y 1 / 2 , t . mi . el giro total es 2 .

7. Nuestro universo - espacio físicamente cerrado . Está limitado por constantes físicas. : Por ejemplo , la velocidad de la luz es 300.000 km por segundo o el límite de temperatura es 273 , 16 grados centígrados . Por tanto, obedece a la Ley de Conservación de la Energía y por tanto ya existe desde hace miles de millones de años. . ¿Cómo se puede explicar este hecho? , que el movimiento de los planetas en órbitas no se ha detenido ? Asumiendo , que los planetas se mueven por inercia tras el impulso de la Explosión , entonces esta energía a lo largo de miles de millones de años se perdería en cierta medida debido a los encuentros con meteoritos y el viento solar.. Nota , que las partículas del mundo ultra micro, cuando se mueven, realizan movimientos oscilatorios a lo largo de su trayectoria de movimiento, t . mi . su movimiento es un proceso oscilatorio de cierta frecuencia . El proceso oscilatorio en la naturaleza es la transición de energía potencial a energía cinética y viceversa.. De esto se desprende que , que el movimiento de cualquier cuerpo en un espacio cerrado debe utilizar una reserva de energía potencial a través del mecanismo de la frecuencia.

No sabemos por qué existen las temperaturas. , Límites del vacío y velocidad limitada de la luz. . Quizás haya crioplasma. , algo así como un agujero negro , ene contratante pag giyu hasta cierto punto , después del cual ocurre el Big Bang .

8. Experimentalmente, los científicos no han podido alcanzar la velocidad de la luz ni la temperatura de cero Kelvin. . Sólo los acercaron a estos límites en una cantidad asintóticamente pequeña. . Estos experimentos requirieron un enorme gasto de energía. . Así se estableció que , que en la región de pequeñas cantidades surgen enormes costos de energía . Conocemos por la física clásica la fórmula de la fuerza. F cuando las masas interactúan : m 1 METRO 2 Dónde r es la distancia entre las masas :

F = metro 1 *METRO 2 /r^ 2 . El peso de un protón o electrón es aproximadamente 0. , 91 * 10 elevado a la potencia menos 31 kg ( la masa es un orden de magnitud menor ), densidad 6 , 1 * 10 elevado a la 17 potencia kg / metro ^ 3 . Distancia entre partículas en interacción débil. ( 2 * 10 a menos 1 5 grados ) m y con fuerte interacción ( 10 elevado a menos 18 ) conocido . Sin embargo, al calcular la fuerza de atracción de estas partículas, se debe tener en cuenta el hecho , que cada micropartícula es un micro circuito oscilatorio . Mirar oh explicación del punto 10. La aplicación de la fórmula de la física clásica a los cálculos de la interacción de partículas del micromundo nos muestra que , que no hay fronteras entre la física clásica y la cuántica o relativista .

9. Objetos cargados , Por ejemplo , electrones causan no sólo un campo electrostático, sino también una corriente eléctrica. Hay una diferencia significativa en estos dos fenómenos. Para la aparición de un campo electrostático se requieren cargas estacionarias, de alguna manera fijadas en el espacio, y para la aparición de una corriente eléctrica, por el contrario, se requiere la presencia de partículas cargadas libres y no fijadas, que en el campo electrostático de cargas estacionarias llegar a un estado movimiento ordenado a lo largo de líneas de campo . Por ejemplo , descarga eléctrica electricidad estática , concentrado en una nube de tormenta - iluminación . Este movimiento es electricidad .

10. Pero hay otra razón para la aparición de corriente eléctrica. . Cada partícula de tipo ultra y micro electrón tiene su propia frecuencia de vibración y , por eso , es un circuito micro oscilante , a la que se aplica la fórmula de Joseph Thomson :

f = 1/2 P es la raíz cuadrada de L*C, Dónde L = 2*EL/I al cuadrado y

C = 2* Ce/U al cuadrado , donde mi 1 c y e 1L es la energía del campo eléctrico y el flujo magnético, respectivamente . La fórmula muestra una relación constante entre L( en Enrique , ) Y C ( en faradios , que se convierten a centímetros ).

( unidad de inductancia en sistema SGA; 1 cm = 1·10 -9 gn ( Enrique ), cm , cm ... capacidad, Centímetro - unidad de capacidad en sistema GHS = 1·10 -12 f ( faradios ), cm . )

Si las dimensiones de estas cantidades están en centímetros , entonces el denominador de esta fórmula es la circunferencia . Por eso , El campo eléctrico alrededor de un electrón es una serie de círculos coaxiales. . Con un aumento en el radio del círculo, la velocidad de movimiento de una ultra micropartícula debería aumentar desde el período , es decir, la frecuencia de vibración del electrón -F constante . La consecuencia de esto el consumo de energía cinética para partículas más distantes aumenta y su capacidad para inducir corriente eléctrica en el conductor disminuye.

Pero prestemos atención a la Fig. 3. , donde se muestra , que vectores E 1 Con y E 1L separados en el espacio y mutuamente ortogonales . Esta circunstancia debe tenerse en cuenta a la hora de inducir una corriente eléctrica en un conductor. . Si aplicamos la ley de conservación de la energía a las cantidades E 1L y E 1 Con , entonces mi 1L es la energía cinética de una corriente de electrones en movimiento -I, A mi 1 c es la energía potencial del campo eléctrico en función de su intensidad Ud. Energía E1 l Y E1c reactivo . En el caso de partículas de micromundo, sus vectores son ortogonales al eje de coordenadas del sistema operativo. , pero están en diferentes planos de coordenadas ortogonales . (C mira el arroz . 2 ). Ambos vectores están separados en el espacio. . Por lo tanto, no se produce su aniquilación mutua y la frecuencia de las micropartículas no disminuye con el tiempo. .

En los circuitos eléctricos, la reactancia suele denotarse por X , y la resistencia total en circuitos de corriente alterna z, resistencia activa - R y la suma de todas las resistencias se llama impedancia . Z = R+jX

La magnitud de la impedancia es la relación entre las amplitudes de voltaje y corriente, mientras que la fase es la diferencia entre las fases de voltaje y corriente.

    Si X >0 se dice que la reactancia es inductiva

    Si X =0 se dice que la impedancia es puramente resistiva (activa)

    UE si X <0 говорят, что реактивное сопротивлние является ёмкостным .

En un circuito oscilatorio real , usado , Por ejemplo , en ingeniería de radio , Podemos compensar la energía reactiva inductiva con energía reactiva capacitiva porque con la reactancia capacitiva el vector de corriente adelanta al voltaje, y con la reactancia inductiva el vector de corriente va por detrás del voltaje en 90 grados y están en el mismo plano pero no al mismo tiempo.. Dado que una de las características de la inductancia es la capacidad de mantener constante la corriente que fluye a través de ella, cuando fluye la corriente de carga, a cambio de fase entre corriente y voltaje (la corriente se “retrasa” con respecto al voltaje en un ángulo de fase). Como resultado, los diferentes signos de corriente y voltaje durante el período de cambio de fase conducen a una disminución en la energía de los campos electromagnéticos de las inductancias, que se repone de la red. Para la mayoría de los consumidores industriales, esto significa lo siguiente: a lo largo de las redes entre la fuente de electricidad y el consumidor, además de la energía activa que realiza un trabajo útil, también fluye energía reactiva que no realiza un trabajo útil.

De lo anterior se deduce que , que d Para que exista corriente eléctrica, es necesario suministrar energía desde el exterior al conductor en la forma electromagnético campos.

Explicación adicional . Capacidad R aumenta con el número de vueltas del electroimán .

R = 1/(2 π * C * f), Dónde F- frecuencia , Y C- capacidad .

Inductancia L=N 2 * μ *Alabama,

Dónde L- inductancia , norte- número de vueltas del conductor de alambre, µ - coeficiente de permeabilidad magnética del núcleo , A- volumen central , yo - longitud media del núcleo .

f = 1/(2 π * √ (L * C))

Por eso , R = 1/(4π 2 *C*N*√( µ*A/l)).

    Para comprender las propiedades de un fotón, realicemos un experimento sencillo. Dejemos caer dos bolas del mismo peso desde la misma altura sobre una placa de acero. Una bola está hecha de plastilina y la otra es una bola.- acero. Es fácil notar que la magnitud del rebote de la placa es diferente para ellos y es mayor para una bola de acero. La magnitud del rebote está determinada por la deformación elástica de los materiales de la pelota. Ahora dirijamos un rayo de luz hacia la estufa.a , es decir, un flujo de fotones. Se sabe por óptica que el ángulo de incidencia del haz es estrictamente igual al ángulo de reflexión. Cuando dos cuerpos chocan, intercambian energía en proporción a sus masas. En el caso de un haz de fotones, éste sólo modifica el vector de movimiento. ¿No se sigue de este hecho que existe un valor inusualmente alto de deformación elástica del fotón, es decir, superelasticidad? Después de todo, conocemos el fenómeno de la superplasticidad de algunas aleaciones.

11. ¿Cuál es el papel de la deformación elástica en el microcosmos? Sabemos que un resorte comprimido tiene energía potencial, cuanto mayor es su magnitud, mayor es la deformación elástica del resorte. Sabemos que durante el proceso oscilatorio la energía potencial se transforma en energía cinética y viceversa. También se sabe que todas las partículas del micromundo sufren un movimiento oscilatorio, es decir, tienen su propia frecuencia de oscilación, lo que crea un campo electromagnético alrededor de la partícula. Por lo tanto, cada partícula del microcosmos es un circuito micro oscilatorio similar a un circuito oscilatorio de ingeniería de radio. Por tanto, el campo electromagnético debe crear un par en la partícula:M = r i *F i , I - donde es un cierto punto de aplicación de este momento. Nótese que la frecuencia de la micropartícula no cambia con el tiempo, por lo tanto, la magnitud del par y la magnitud de la corriente eléctrica que lo provoca no cambian con el tiempo. ¡Y esto sólo es posible en el caso de la superconductividad!

Este par hace girar la partícula alrededor de los ejes X e Y de forma secuencial, creando una deformación torsional elástica. Estas deformaciones superelásticas devuelven la partícula a su estado original. De esta forma, se crea un movimiento oscilatorio de la partícula con la transición de la energía potencial inherente a la deformación torsional elástica a la energía cinética del movimiento de la partícula en el espacio a lo largo del eje.z .

El mecanismo de tal transición puede imaginarse como girar un tubo de pasta. De hecho, el cambio de volumen provoca la extrusión de la pasta desde el orificio del tubo, situado perpendicular al plano de torsión del tubo. Este impulso interno hace que la partícula se mueva a lo largo del eje.Z. Surge un nanomotor de alta eficiencia. Algo parecido se puede observar en la llamada rueda de lavandería. Si el eje de dicha rueda no es fijo, entonces en lugar de una rueda giratoria obtendremos un movimiento de traslación. Para implementar este motor, es necesario crear un material con valores inusualmente altos de deformación elástica de torsión. Entonces se abrirá el camino para viajar a la velocidad de la luz.

12. Estas propiedades extremadamente altas de las micropartículas surgen en materiales a temperaturas cercanas a cero grados Kelvin. ¿No se contrae periódicamente la materia formando una especie de agujero negro, que representa el crioplasma a temperatura Kelvin? ¿No es esta materia, gracias a sus propiedades sobrenaturales, un acumulador de energía potencial que, cuando alcanza un nivel crítico, se convierte en energía cinética mediante una explosión?

LA FÍSICA CUÁNTICA

Física cuántica - una rama de la física que estudia los fenómenos característicos del micromundo, es decir. objetos que tengan dimensiones de 10 a 10 my menos. La especificidad de los fenómenos que ocurren en el micromundo radica principalmente en la imposibilidad de directamente, es decir, a través de los sentidos (principalmente la visión) para obtener información sobre procesos en curso. Para describir los fenómenos del micromundo se necesitan enfoques y métodos fundamentalmente nuevos, basados ​​en cantidades medidas experimentalmente.
El nacimiento de la física cuántica estuvo precedido por una situación dramática que se desarrolló en la física a finales del siglo XIX. La física clásica no pudo describir adecuadamente el espectro de radiación en equilibrio. En aquella época, la radiación térmica se consideraba como un conjunto de ondas planas y su descripción teórica coincidía con la experimental. Sin embargo, a altas frecuencias la densidad de energía de radiación prevista debería aumentar hasta el infinito. Esta situación fue llamada el "desastre ultravioleta".

El físico alemán Max Planck (Max Karl Ernst Ludwig Planck) propuso una salida inesperada a la situación. Su idea era que la radiación se produce en cuantos separados y que la energía de una onda electromagnética no puede ser arbitraria, como se creía en la física clásica, sino que debe tomar ciertos valores proporcionales a un cierto valor muy pequeño h (igual a 6,63 · 10 -34 J s), que luego fue nombrado constante de Planck. Entonces, la densidad de energía total ya no puede considerarse un valor continuo, sino que consta de muchas porciones de energía (cuantos), cuya suma no puede ser tan grande como predijeron las hipótesis clásicas. Se resolvió con éxito el problema de la densidad de radiación y la “catástrofe ultravioleta”. Por el descubrimiento del cuanto de energía en 1918, Max Planck recibió el Premio Nobel.
La introducción de la cuántica hizo posible resolver una serie de otros problemas que enfrentaba la ciencia en ese momento. Utilizando la idea de Planck sobre un cuanto de energía, Albert Einstein derivó en 1905 la ecuación del efecto fotoeléctrico E = hν + W, donde E es la energía cinética de los electrones, ν es la frecuencia de la radiación electromagnética, h es la constante de Planck y W es la función de trabajo del electrón para una sustancia determinada. El logro más importante en este caso fue la introducción de la energía de la radiación electromagnética en función de la frecuencia (o longitud de onda) de la radiación, lo que condujo a la posterior creación de la escala de ondas electromagnéticas.
La idea de un cuanto llevó a la conclusión sobre la naturaleza discreta de los fenómenos que ocurren en el microcosmos, que luego se utilizó en el estudio de los niveles de energía de los átomos y los núcleos atómicos.


Dependencia de la longitud de onda de varios tipos de partículas de su energía.
(unidades nucleares − MeV = 1,6·10 -13 J, fm =10 -15 m)

Otra consecuencia importante de la discreción de los fenómenos del micromundo fue el descubrimiento por Louis de Broglie (1929) de la universalidad de la dualidad onda-partícula, es decir el hecho de que los objetos del micromundo tienen naturaleza tanto ondulatoria como corpuscular. Esto hizo posible no solo explicar una serie de fenómenos asociados con la interacción de partículas con materia (por ejemplo, difracción de partículas), sino también desarrollar aún más métodos para utilizar la radiación para influir en las partículas, lo que llevó a la creación de los principales modernos. herramienta para estudiar la materia - aceleradores.
En la segunda mitad de los años 20 del siglo XX, se creó un aparato teórico para describir los fenómenos cuánticos: mecánica cuántica. Las contribuciones más significativas a su creación las hicieron Werner Heisenberg, Erwin Schrödinger, Niels Bohr, Paul Dirac, Wolfgang Pauli, Max Born y otros.
La mecánica cuántica es una parte separada y bien desarrollada de la física moderna. Para su asimilación profunda se requiere una buena formación matemática, que va mucho más allá del alcance de la carrera de física en muchas universidades. Sin embargo, la explicación de los conceptos básicos de la mecánica cuántica no es tan difícil. Estos conceptos básicos incluyen, en primer lugar, el significado físico de la cuantificación, el principio de incertidumbre y la función de onda.
El significado físico de la discreción de los estados en el microcosmos está asociado, en primer lugar, con el significado físico de la constante de Planck. La pequeñez de su tamaño determina escala de interacciones en un microcosmos. De hecho, cuando pasamos al macromundo y a los conceptos clásicos, cantidades como la constante de Planck se vuelven insignificantes y en la mayoría de los casos las consideramos cero. En este caso se produce el llamado paso al límite, es decir Los principios de la física clásica pueden considerarse como una versión extrema de la física cuántica, cuando las masas, tamaños y otros parámetros de los macroobjetos, enormes en la escala del micromundo, reducen a cero aquellas interacciones que son significativas en el micromundo. Por tanto, podemos decir que la constante de Planck es el vínculo que une los fenómenos del mundo micro y macro.
Esto se puede ver especialmente bien en el ejemplo de la discreción de estados en el microcosmos. Por ejemplo, la diferencia entre los estados energéticos de un átomo puede ser décimas de electrónvoltio (unidad de energía del microcosmos igual a 1,6·10 -19 J). Basta recordar que para hervir un vaso de agua se necesitan decenas de kilojulios, y queda claro que, desde el punto de vista de la física clásica, ¡esa discreción es absolutamente imperceptible! Por eso podemos hablar de la continuidad de los procesos que nos rodean, a pesar de la discreción, de larga data y constantemente confirmada, de aquellos fenómenos que ocurren en los átomos y los núcleos atómicos.
Por la misma razón, un principio tan fundamental de la física de micromundos como principio de incertidumbre, propuesto por W. Heisenberg en 1927
La siguiente figura explica la necesidad de introducir el principio de incertidumbre en el micromundo y la ausencia de esta necesidad en el macromundo.

De hecho, el grado de influencia de una fuente externa (luz) sobre un macroobjeto (estatua) es inconmensurable con sus parámetros (por ejemplo, masa convertida en energía equivalente). No tiene sentido discutir cómo un fotón de luz incidente puede afectar , por ejemplo, la coordenada de una estatua en el espacio.
Otra cosa es cuando un microobjeto se convierte en objeto de influencia. La energía de un electrón en un átomo es de decenas (rara vez más) de electronvoltios y el grado de impacto es bastante proporcional a esta energía. Así, al intentar medir con precisión cualquier parámetro de un microobjeto (energía, momento, coordenada), nos enfrentaremos al hecho de que el proceso de medición en sí cambiará los parámetros medidos, y con mucha fuerza. Entonces es necesario admitir que con cualquier medición en el microcosmos nunca podremos realizar mediciones precisas. Siempre Habrá un error al determinar los parámetros básicos del sistema. El principio de incertidumbre tiene una expresión matemática en la forma relaciones de incertidumbre, por ejemplo ΔpΔx ≈ ћ, donde Δp es la incertidumbre para determinar el momento y Δx es la incertidumbre para determinar las coordenadas del sistema. Tenga en cuenta que la constante de Planck a la derecha indica los límites de aplicabilidad del principio de incertidumbre, porque en el macrocosmos podemos reemplazarlo con seguridad por cero y realizar mediciones precisas de cualquier cantidad. El principio de incertidumbre lleva a la conclusión de que es imposible establecer con precisión cualquier parámetro del sistema; por ejemplo, no tiene sentido hablar de la ubicación exacta de una partícula en el espacio. En este sentido, cabe señalar que la representación generalizada de un átomo como un conjunto de electrones que giran en órbitas determinadas alrededor del núcleo es simplemente un homenaje a la percepción humana del mundo circundante, la necesidad de tener algún tipo de imágenes visuales en frente a uno mismo. En realidad, no existen trayectorias claras: órbitas en el átomo.
Sin embargo, cabe preguntarse: ¿cuál es entonces la característica principal de los sistemas en el micromundo, si parámetros como la energía, el impulso, el tiempo de interacción (o existencia), las coordenadas no están definidos? Tal cantidad universal es función de onda sistema cuántico.
La función de onda ψ, introducida por Max Born para determinar las características de un sistema cuántico, tiene un significado físico bastante complejo. Otra cantidad que es más clara es el módulo al cuadrado de la función de onda |ψ| 2. Este valor determina, por ejemplo, probabilidad que el sistema cuántico se encuentra en un momento dado. En general, el principio probabilístico es fundamental en la física del micromundo. Cualquier proceso en curso se caracteriza principalmente por la probabilidad de que ocurra con ciertas características.
La función de onda es diferente para diferentes sistemas. Además del conocimiento de la función de onda, para describir correctamente un sistema también se requiere información sobre otros parámetros, por ejemplo, las características del campo en el que se encuentra el sistema y con el que interactúa. El estudio de tales sistemas es precisamente una de las tareas de la mecánica cuántica. De hecho, la física cuántica forma un lenguaje con el que describimos nuestros experimentos y resultados en el estudio del micromundo, más general que la teoría clásica. Al mismo tiempo, es importante comprender que la física cuántica no anula la física clásica, sino que la contiene como su caso límite. Al pasar de microobjetos a objetos macroscópicos ordinarios, sus leyes se vuelven clásicas y, por tanto, la física cuántica marca los límites de aplicabilidad de la física clásica. La transición de la física clásica a la física cuántica es una transición a un nivel más profundo de consideración de la materia.
Los procesos que ocurren en el microcosmos se refieren a fenómenos que se encuentran casi por completo más allá de los límites de la percepción sensorial. Por tanto, los conceptos que opera la teoría cuántica y los fenómenos que considera suelen carecer de claridad. , inherente a la física clásica. Con el desarrollo de la teoría cuántica, se revisaron ideas aparentemente obvias y familiares sobre partículas y ondas, descripciones discretas y continuas, estadísticas (probabilísticas) y dinámicas. La física cuántica se ha convertido en el paso más importante en la construcción de una imagen física moderna del mundo. Permitió predecir y explicar una gran cantidad de fenómenos diferentes, desde procesos que ocurren en átomos y núcleos atómicos hasta efectos macroscópicos en sólidos; sin él es imposible, como parece ahora, comprender el origen del Universo. El espectro de la física cuántica es amplio: desde partículas elementales hasta objetos cósmicos. Sin la física cuántica, no sólo las ciencias naturales, sino también la tecnología moderna son impensables.

FÍSICA ATÓMICA

En 1885, J. J. Thomson descubrió el electrón, el primer objeto del microcosmos. Se sentó el comienzo para el surgimiento de una nueva rama de la ciencia: la física atómica. Ya a principios del siglo XX existían varios modelos de la estructura del átomo, de los cuales el más famoso pertenecía al propio J. J. Thomson. Según este modelo, el átomo era una carga positiva localizada en un pequeño volumen, en el que, como pasas en un pastelito, había electrones. Este modelo explicó una serie de efectos observados, pero no pudo explicar otros, en particular, la aparición de espectros atómicos lineales. En 1911, el compatriota de Thomson, Ernest Rutherford, intentó responder a la pregunta sobre la estructura del átomo.
El diseño experimental fue simple: se colocó una fuente, una sustancia radiactiva que emite núcleos de helio, en un bloque de plomo. Las partículas cargadas atravesaron la fina lámina de oro y se dispersaron al interactuar con los átomos de oro. Luego, las partículas dispersas chocaron contra una pantalla recubierta con una sustancia en la que provocaron centelleos (llamaradas). La idea era que si el modelo atómico de Thomson fuera correcto, la interacción se produciría aproximadamente por igual en todos los ángulos a lo largo de la trayectoria de las partículas. De hecho, la mayoría de las partículas golpean la pantalla e interactúan débilmente con el material de la lámina. Pero una pequeña parte (unas 8 partículas de cada mil) experimentó una fuerte dispersión HACIA ATRÁS, como si chocara con algún tipo de carga concentrada en el medio del átomo. Después de numerosos experimentos, Rutherford concluyó que el modelo de Thomson era incorrecto. Propuso un modelo, más tarde llamado planetario. En el centro, en un pequeño volumen, se concentra toda la carga positiva (núcleo), los electrones se ubican a su alrededor.

El modelo de Rutherford era bueno, pero aún no respondía varias preguntas. Por ejemplo, ¿cómo se produce la radiación atómica (luminiscencia)? ¿En qué circunstancias los átomos emiten diferentes fotones de luz? ¿De qué depende esto? ¿Está relacionada la emisión de átomos con el comportamiento de los electrones en su interior? Las respuestas a estas preguntas las dio dos años más tarde el destacado físico danés Niels Henrik David Bohr.


La imagen de N. Bohr en el billete de 500 coronas danesas.

Bohr desarrolló el modelo planetario, sugiriendo que cada electrón en un átomo tiene un estado de energía fijo (que puede describirse de manera muy aproximada como si el electrón estuviera en alguna órbita). Mientras el átomo está en el estado de energía más bajo, no puede irradiar. Al recibir energía del exterior, los electrones pueden cambiar su estado energético (pasar a otra órbita) o incluso abandonar el átomo (ionización). Al regresar a su lugar (o a su órbita), el exceso de energía se libera en forma de radiación característica (un fotón con cualquier energía). El átomo “según Bohr” respondió a todas las preguntas que surgieron tras la creación de los primeros modelos atómicos. El estudio experimental de los átomos confirmó con éxito el modelo de Bohr y, dicho sea de paso, las predicciones cuánticas sobre la discreción de las energías en el átomo. En 1922, Niels Bohr recibió el Premio Nobel por sus trabajos sobre la estructura de los átomos y su radiación.
Ya en los años 20 del siglo pasado, el átomo estaba bien estudiado. El éxito también se vio facilitado por el hecho de que la conexión entre los componentes del átomo (el núcleo y los electrones) se llevó a cabo gracias al conocido potencial de Coulomb. A finales de los años 20 surgió la teoría cuántica, que describía varios átomos y sus patrones de comportamiento.
Los átomos son sistemas cuánticos eléctricamente neutros con dimensiones características del orden de 10 -10 m Cada átomo contiene un núcleo en el que se concentra la carga positiva del átomo y casi toda la masa (más del 99,9%) del átomo. La carga negativa se distribuye entre los electrones, su número es igual al número de partículas nucleares (protones) cargadas positivamente en el núcleo. Cuando se aplica a un átomo cierta energía, llamada energía de ionización, uno de los electrones abandona el átomo. La parte restante con carga positiva se llama ion, y este proceso es la ionización. El proceso inverso se llama recombinación y va acompañado de la emisión de un fotón con una energía correspondiente a la diferencia de energías del átomo antes y después de la recombinación.

La ionización es un proceso que ocurre constantemente a nuestro alrededor. Las fuentes de ionización son la radiación cósmica, diversos instrumentos y dispositivos y fuentes radiactivas.
Sobre la base de las propiedades de los átomos descritas anteriormente, funcionan una gran cantidad de dispositivos técnicos. Un ejemplo que encontramos todos los días son las lámparas fluorescentes. Es el brillo del gas resultante de la recombinación de iones lo que provoca la emisión de luz en estos dispositivos.
En los años 50 del siglo pasado, como resultado del estudio de las propiedades de la emisión estimulada de fotones de varios átomos, se desarrollaron amplificadores de radiación óptica (láseres). (de la abreviatura Amplificación de luz mediante emisión estimulada de radiación - amplificación de luz por emisión estimulada). Un láser no es un dispositivo óptico como los legendarios escudos de espejo de Arquímedes, sino un dispositivo cuántico que utiliza la estructura de los niveles atómicos para amplificar ópticamente la radiación. La principal ventaja de un láser es la alta monocromaticidad (es decir, todos los fotones emitidos tienen casi la misma longitud de onda) de la radiación que genera. Es por esta razón que los láseres se utilizan ampliamente en la actualidad en la electrónica y la tecnología industrial y de consumo, la medicina y otros campos.

FÍSICA DEL NÚCLEO ATÓMICO

En 1911, Ernest Rutherford propuso su modelo del átomo, en cuyo centro había un objeto con unas dimensiones de aproximadamente 10 -15 - 10 -14 m, que contenía casi toda la masa del átomo. Este objeto fue nombrado núcleo atómico. Sin embargo, no es de extrañar que el estudio del núcleo atómico se iniciara mucho antes, a finales del siglo XIX. Es cierto que en aquella época las propiedades de los núcleos atómicos se atribuían a átomos cuya estructura se desconocía con precisión.

EN 1896 Antoine Becquerel, al estudiar la radiación de los átomos de algunos metales pesados, llegó a la conclusión de que las partículas que emiten, a diferencia de la luz, tienden a penetrar sustancias densas. Después de 3 años, continuando con experimentos con sustancias radiactivas, Ernest Rutherford colocó mineral de uranio en un campo magnético y descubrió que el haz primario se dividía en 3 partes, un tipo de partículas se desviaba hacia el polo norte del imán, la segunda, hacia el sur. y el tercero transcurrió sin cambios. Sin conocer aún la naturaleza de estas radiaciones, Rutherford las nombró en honor a las tres primeras letras del alfabeto griego: α, β y γ. Además de Becquerel y Rutherford, también realizaron estudios similares los cónyuges Curie, Pierre y Marie (Sklodowska-Curie). Marie Curie hizo una gran contribución al estudio de la radiactividad en los núcleos atómicos, fue la primera en obtener radio metálico y estuvo entre los científicos que crearon la física nuclear experimental. Es la única científica que ha recibido dos premios Nobel (en química y física).
Sin embargo, el verdadero progreso en el desarrollo de la física del núcleo atómico se produjo después de la creación de la mecánica cuántica. Después de todo, después de 1911-13. Rutherford y Bohr descubrieron la estructura del átomo, surgió la pregunta: ¿cuál es la estructura del núcleo atómico? Rutherford intentó responder a esta pregunta dirigiendo en 1918-1921. experimentos para estudiar núcleos atómicos ligeros. Fue él quien por primera vez en 1919 llevó a cabo reacción nuclear y abierto protón

14 N + 4 He → 17 O + p

El nitrógeno, al interactuar con los núcleos de helio (partículas α), se convirtió en oxígeno e hidrógeno. De hecho, Rutherford fue el primero en lograr lo que soñaban los alquimistas medievales: la transformación de una sustancia en otra.

La emisión de un protón del núcleo confirmó la idea de la presencia de protones en el núcleo. Al mismo tiempo, quedó claro que las masas de los núcleos son mucho mayores que si estuvieran formados por el número requerido de protones. Entonces surgió la idea del modelo protón-electrón del núcleo, los electrones en el núcleo compensaban la carga de algunos de los protones que estaban allí, como dicen, "por peso".
Los éxitos de la mecánica cuántica muy pronto llevaron al hecho de que la posibilidad de la existencia de electrones en los núcleos estaba en duda: de acuerdo con el principio de incertidumbre, un electrón colocado en un núcleo debería tener demasiada energía y no podía mantenerse allí. . En 1931, Heisenberg, Ivanenko y Majorana, independientemente uno del otro, propusieron la idea de un "protón neutro", una partícula pesada sin carga ubicada en el núcleo atómico. La claridad final llegó en 1932, cuando James Chadwick descubrió neutrón– una partícula neutra con una masa aproximadamente igual a la masa de un protón. Así, la moderna modelo protón-neutrón núcleo atómico.
La principal deficiencia en nuestro conocimiento del núcleo atómico es la falta de una forma exacta. potencial nuclear, que une nucleones. Resolver el problema de crear una teoría completa del núcleo es lo más importante en física nuclear. Al mismo tiempo, sabemos mucho sobre la estructura del núcleo atómico.
El núcleo atómico es un objeto con dimensiones del orden de 10 a 15 m, que consta de dos tipos de partículas: protones y neutrones. Sus masas son aproximadamente 1,7·10 -27 kg y el neutrón es un 0,14% más pesado que el protón. Debido a la similitud en las propiedades (excepto por la presencia de carga), ambas partículas a menudo se denominan con la palabra " nucleón».
Actualmente se conocen aproximadamente 3.400 núcleos atómicos. 330 de ellos son estables, el resto puede transformarse espontáneamente en otros núcleos (radiactivos) en un tiempo bastante corto. Los núcleos que tienen el mismo número de protones pero diferente número de neutrones se llaman isótopos el mismo elemento. Por ejemplo, el hidrógeno tiene tres isótopos: el propio hidrógeno, el deuterio y el tritio radiactivo. Pero el estaño tiene más de 30 isótopos, la mayoría de ellos radiactivos.
El núcleo atómico es un sistema cuántico que obedece las leyes de la física cuántica. El núcleo atómico tiene una estructura energética discreta. Es cierto que no tiene una estructura "planetaria", como en un átomo, pero también existen diferentes posiciones energéticas de los nucleones, llamadas niveles de energía. Al recibir una porción de energía, los nucleones en el núcleo pasan a un estado de energía superior y, al regresar, emiten energía en forma de fotones de longitud de onda corta. Estos fotones nucleares suelen denominarse γ -cuantos. Al alcanzar la energía llamada energía de separación de nucleones, el núcleo puede expulsar un nucleón, cambiando su composición y propiedades. El número de nucleones de diferentes tipos en el núcleo y su estado energético determinan las propiedades de los núcleos atómicos y características más fundamentales. Por ejemplo, la abundancia de elementos en el Universo se explica precisamente por las características cuánticas de los núcleos atómicos.
Cuando los nucleones se combinan en núcleos, se observa un efecto interesante: la masa del núcleo resultante resulta ser ligeramente (aproximadamente un 1%) menor que la masa de sus nucleones constituyentes. La diferencia entre la masa de los nucleones y la masa del núcleo contribuye al enlace de los nucleones en el núcleo y por eso se llama energía de unión

E св = ZМ p с 2 + (A-Z)М n с2 − М i с 2,

donde Z es la carga nuclear, A es número de masa(número de nucleones en el núcleo)

La energía de enlace es una cantidad extremadamente importante que también determina muchas propiedades de los núcleos. Una cantidad igualmente importante es energía de enlace específica, es decir. relación entre la energía de enlace y el número de nucleones


Dependencia de la energía de enlace específica del número de nucleones.

Cabe señalar que esta dependencia tiene un máximo claro en la región del núcleo de 56 Fe (por eso también se le llama “máximo de hierro”). Esta circunstancia, sin exagerar, es de enorme importancia práctica.

A finales de los años 30 del siglo pasado, durante el estudio de los núcleos pesados, se estableció un patrón de disminución gradual de la energía de enlace específica. Como consecuencia, a medida que este valor disminuye, el núcleo se vuelve más inestable y “suelto”. Además, bajo cierto impacto, puede comenzar a expulsar nucleones o incluso desmoronarse. En 1939, los físicos alemanes Otto Hahn y Fritz Strassman, irradiando sales de uranio con neutrones térmicos, descubrieron el bario entre los productos de la reacción. Esto significa que bajo muy poca influencia (la energía de los neutrones térmicos corresponde a la energía de las moléculas de gas a temperatura ambiente), uno de los isótopos de uranio es capaz de dividirse. Sin embargo, lo principal no era esto, sino el hecho de que, como se desprende del diagrama anterior, los núcleos fragmentados resultantes tendrán una energía de enlace específica mucho mayor, es decir, estarán más firmemente conectados. Por tanto, durante la fisión habrá una diferencia de energía y esta diferencia se liberará. La siguiente década y media puso este descubrimiento en práctica. El primero se lanzó en 1942. reactor nuclear(EE.UU.), el primero fue volado en 1945 bomba nuclear(EE.UU.), en 1954, se inauguró la primera central nuclear (URSS).

¿Cómo se recupera en la práctica la energía de la fisión? Imaginemos que tenemos una cantidad suficiente de una muestra de una sustancia que se fisiona con un pequeño impacto (neutrones térmicos). Tras el primer acto de fisión, además de fragmentar núcleos, se liberarán varios neutrones con una energía muy superior a la de los neutrones térmicos. Dividirán los núcleos que encuentren en el camino, como resultado de este proceso se formarán nuevos neutrones en cada nuevo núcleo dividido, que a su vez dividirán nuevos núcleos, etc. El proceso será de naturaleza similar a una avalancha y por esta razón se llama reacción en cadena división.
Un proceso similar se lleva a cabo en una carga nuclear y conduce a una liberación colosal de energía en un tiempo corto (varios milisegundos). La explosión de una carga de varios kilogramos, por ejemplo de 239 Pu, es similar a la explosión de varios cientos de kilotones (!) de un explosivo convencional.
Sin embargo, existe una manera de extender este proceso en el tiempo. Si observa el diagrama de una reacción en cadena, puede ver que un factor importante es la cantidad de neutrones que dividen los núcleos. Por lo tanto, colocando una sustancia capaz de capturar neutrones (absorbedor) en el material fisionable, es posible ralentizar este proceso lo suficiente como para poder eliminar la energía liberada, obligándolo, por ejemplo, a calentar agua hasta que hierva y utilizarla. vapor para hacer girar la turbina de una central eléctrica (CN). Las centrales nucleares modernas utilizan carbono (grafito) como absorbente.
Si ahora observamos la región de los núcleos que se encuentra a la izquierda del “máximo de hierro”, notaremos que su energía de enlace específica, en promedio, resulta ser incluso menor que la de los núcleos en el máximo mismo. Por tanto, para los núcleos ligeros, es posible un proceso inverso a la fisión: la fusión. En este caso, como en el caso de la fisión, se liberará energía. Las reacciones de síntesis incluyen, por ejemplo, la fusión de núcleos de deuterio para formar helio.

2 H + 2 H → 3 Él + norte


Reacción termonuclear

El problema, como es fácil de ver, es que en todos los casos tenemos que lidiar con la fusión de objetos con carga similar, los llamados Barrera de Coulomb, para superarlo todavía necesitas gastar energía. Esto se logra más fácilmente calentando las sustancias sintetizadas a temperaturas muy altas (millones de grados). En condiciones terrestres, esto sólo es posible durante una explosión nuclear. Así, al colocar una carga nuclear en una capa de elementos ligeros, es posible obtener una reacción de fusión incontrolada o (debido a las altas temperaturas resultantes), reacción termonuclear. Por primera vez se llevó a cabo una reacción de este tipo (la explosión de una bomba termonuclear) en 1953 (URSS).
En la naturaleza, las reacciones termonucleares ocurren en las estrellas, donde existen todas las condiciones para "romper" la barrera de Coulomb. Además, la compresión gravitacional más fuerte también favorece la reacción de fusión con la formación de elementos más pesados, hasta el hierro.
El problema de la realización de la fusión termonuclear controlada sigue sin resolver y es uno de los más acuciantes para la física del núcleo atómico, ya que permite utilizar combustible barato en cantidades casi ilimitadas sin consecuencias nocivas para el medio ambiente.
Como ya se señaló, la composición del núcleo atómico determina en gran medida sus propiedades. Una de las características nucleares más destacadas que influye en el comportamiento de los núcleos es la relación entre neutrones y protones en los núcleos atómicos. Esto se ve mejor en el llamado diagrama NZ.


Diagrama N-Z de núcleos atómicos.

Puede ver varias áreas notables en el gráfico. Uno de ellos es la parte central, una estrecha franja de núcleos marcados en negro. Este es el llamado “valle de la estabilidad”, una región de núcleos estables que no están sujetos a desintegración. A medida que aumenta el número de neutrones (a la derecha del valle de estabilidad), se localizan los núcleos marcados en azul. Cuando hay un exceso de neutrones, la energía del núcleo aumenta y es posible “volver” al valle de la estabilidad convirtiendo uno de los neutrones en un protón.

norte → pag + mi - + mi.

Este proceso se llama desintegración β-menos. Un neutrón se convierte en un protón, un electrón y electrónico. Un neutrón puede experimentar esta desintegración fuera de los núcleos. Como resultado de tal desintegración, el núcleo aumenta su carga y avanza hacia la región de estabilidad.
La región roja es la región de los núcleos con exceso de protones. Implementan el proceso inverso:

p → n + mi + + ν mi

llamado Decaimiento β-plus. El protón se convierte en neutrón, positrón y neutrino electrónico (las dos últimas partículas son las “antípodas” del electrón y el antineutrino). Cabe señalar que dado que la masa de un protón es menor que la masa de un neutrón, dicha desintegración ocurre solo en los núcleos, en estado libre el protón es estable.
El área amarilla en el diagrama es el área de núcleos pesados ​​e inestables. Se caracterizan por otro tipo de desintegración: la emisión de partículas α (núcleos de 4 He) o desintegración α, Este tipo de desintegración conduce a una disminución tanto de la carga como del número de masa y al "movimiento" del núcleo hacia la región de núcleos más ligeros. A veces esto conduce a una cadena de decadencia. Por ejemplo,

226 Ra → 222 Rn + 4 Él; 222 Rn → 208 Po + 4 He; 208 Po → 204 Pb + 4 He,

donde el último ya es un núcleo estable.
En muchos casos, el núcleo resultante de la desintegración tiene un exceso de energía y se libera emitiendo un cuanto γ, lo que ocurre transición γ en el núcleo (a veces no del todo correctamente llamado desintegración γ).
Todas las desintegraciones nucleares se caracterizan por características propias asociadas a la probabilidad de desintegración, el tipo de partículas emitidas y sus energías. Sin embargo, existen leyes generales de decadencia que se establecieron durante el trabajo de Becquerel y Curie. El principal es ley de desintegración radiactiva.

norte(t) = norte 0 mi -λt ,

donde N es el número de núcleos radiactivos en la muestra en un momento dado, N 0 es el número de núcleos radiactivos en un momento inicial determinado y λ es la llamada constante de desintegración, que caracteriza la probabilidad de desintegración. La constante de caída no es muy conveniente para el uso práctico, por lo que a menudo se usa otro valor, T 1/2 - media vida, que caracteriza el tiempo durante el cual el número de núcleos activos se reduce a la mitad. La constante de desintegración y la vida media están relacionadas por la relación

Varios núcleos de fuentes radiactivas pueden tener vidas medias que van desde milisegundos hasta miles de millones de años. Además, una característica importante es la actividad de la fuente (o su masa), que caracteriza la intensidad de la descomposición en un momento dado. A nuestro alrededor hay constantemente varios tipos de núcleos radiactivos, y en el cuerpo humano hay dos isótopos radiactivos, 40 K y 14 C.

PARTÍCULAS FISICAS

La física de partículas es quizás una de las ramas más dinámicas de la física. Como mínimo, es difícil nombrar cualquier otra área de las ciencias naturales en la que las ideas sobre el mundo que nos rodea hace 40 o 50 años hubieran sido tan diferentes de las que tenemos ahora. Esto se debe, en primer lugar, a los cambios en las ideas sobre las partículas fundamentales y las interacciones que se produjeron durante este tiempo en el curso de los estudios experimentales y teóricos de la materia. ¿Cuáles son los principios básicos de la física de partículas ahora?
Partículas fundamentales
− un conjunto de partículas que actualmente son los componentes elementales de la materia. En los años 20 del siglo pasado sólo existían dos de estas partículas (y partículas en general): el protón y el electrón. Ya en los años 50, el número total de partículas conocidas se acercaba a las dos docenas y muchas de ellas se consideraban sin estructura. Ahora el número total de partículas es de cientos, pero sólo unas pocas son verdaderamente fundamentales. Todas las partículas fundamentales se pueden dividir en varios grupos grandes.
quarks
. Según los conceptos modernos, este es el componente principal de la materia; en masa, constituyen más del 95% de toda la materia visible. Los quarks se dividen en 6 tipos (sabores), cada uno de los cuales tiene sus propias propiedades y diferencias con los demás. Este tu(arriba), d(abajo), s(extraño), C(encanto), b(abajo) y t(arriba). Los quarks tienen carga fraccionaria, igual a 1/3 o 2/3 de la carga de un electrón (protón). Cada uno de los quarks tiene su propio antipartícula- un antiquark, idéntico en masa a un quark, pero opuesto en muchas otras características (por ejemplo, que tiene la carga eléctrica opuesta). Además, los quarks tienen una característica especial: color, del que carecen todas las demás partículas (se dice que son incoloras). Los quarks tienen tres colores: rojo, azul Y verde.
Por supuesto, no debes pensar que el color de los quarks es un efecto visible a simple vista. El color se refiere a una característica especial expresada en el comportamiento de los quarks durante diversas interacciones entre ellos. El nombre en este caso es condicional, así como a esta característica se le podría llamar, por ejemplo, sabor, o se podría utilizar cualquier otro término.
Es fácil calcular que el número total de quarks (incluidos los antiquarks y los colores) es 36. Todas las partículas pesadas estructurales conocidas se forman a partir de estas 36 partículas. La combinación de tres quarks se forma. bariones, y el conjunto de pares quark-antiquark, mesones. Los bariones también incluyen los conocidos protones y neutrones. Los bariones y mesones se combinan bajo el término general. hadrones. De todos los hadrones, sólo el protón es estable; todos los demás hadrones se desintegran y se convierten en otras partículas.
leptones
. Este es otro grupo de partículas, cuya principal diferencia con los hadrones es su falta de estructura, es decir. Los leptones no están formados por otras partículas, sino que son elementales. Los leptones se dividen en cargados: electrón, muón Y taon y neutral - electrónico, muónico Y secreto neutrino. Teniendo en cuenta las antipartículas, el número total de leptones es 12. Los leptones no forman ninguna combinación, a excepción de los electrones que forman los átomos. El electrón es el único leptón cargado estable. La estabilidad de todos los tipos de neutrinos ahora está en duda.
Portadores de interacción
. El número total de interacciones es 4. Este fuerte(actuando entre quarks y hadrones), electromagnético, débil(que actúa entre casi todas las partículas, pero se manifiesta especialmente claramente en la interacción de los leptones) y gravitacional. Cada interacción es llevada a cabo por un campo, que se representa como una corriente de partículas portadoras. El portador de la interacción fuerte es gluón, electromagnético - cuántico gamma, débil - tres tipos bosones intermedios(W - , W + y Z) y gravitacional – gravitón(Sin embargo, la última partícula sólo se predice a partir de consideraciones teóricas). Todos los transportistas tienen sus propias propiedades y cada uno participa en sus propias interacciones.
En cuanto al resto de partículas, en la interacción fuerte sólo participan hadrones y gluones; en electromagnético: partículas cargadas y cuantos gamma; en los débiles, todo excepto los portadores de otras interacciones; en gravitacional - partículas con masa. La aparición de una masa de partículas está asociada a otro campo especial, que se llama campo de Higgs, y las partículas que lo transportan son bosones de Higgs.

Hasta principios de los años 60 del siglo pasado, todas las partículas conocidas en ese momento se consideraban sin estructura. Sin embargo, gracias al progreso en el desarrollo de las principales herramientas experimentales: los aceleradores de partículas, ya a finales de los años 50 surgieron suposiciones sobre la estructura de los nucleones. Al realizar experimentos en un acelerador de electrones, el físico estadounidense Robert Hofstadter descubrió que al dispersar electrones sobre neutrones, se puede ver que los electrones interactúan con el "interior" del neutrón como si tuviera algún tipo de carga oculta, distribuida de forma compleja en su interior. . Hofstadter sugirió que esto podría deberse a la presencia de ciertos portadores de carga eléctrica dentro del neutrón sin carga. Unos años más tarde se llevaron a cabo experimentos similares en otros laboratorios.

Basándose en los datos de estos experimentos y estudiando la sistemática de las partículas descubiertas en ese momento, otro físico estadounidense, Murray Gell-Mann, planteó en 1963 la hipótesis de que el protón y el neutrón se construyen a partir de partículas más pequeñas, a las que llamó quarks. Inicialmente, Gell-Mann introdujo sólo dos quarks: tu Y d Sin embargo, luego un mayor número de partículas abiertas con diferentes propiedades se vieron obligadas a realizar ajustes en el modelo, aumentando su número primero a 3 y 4, y luego a 6. La hipótesis de los quarks encontró muchos problemas en su desarrollo. En primer lugar, era psicológicamente difícil percibir la existencia de partículas con una carga inferior a la de un electrón y, en segundo lugar, las partículas descubiertas a finales de los años 60 se interpretaron en el modelo de los quarks de tal manera que esto podía ir en contra de la teoría básica. Principios de la mecánica cuántica. Para resolver este problema, se introdujo una característica especial (número cuántico) de los quarks: el color. En tercer lugar, el problema del modelo de quarks fue que todos los intentos de detectar quarks en estado libre no tuvieron éxito. Esto provocó el rechazo del modelo entre muchos científicos, porque sólo la confirmación experimental de una hipótesis la transfiere de la categoría de hipótesis a la categoría de verdades físicas. Así, en 1969, M. Gell-Mann recibió el Premio Nobel, pero en la redacción del premio “Por sus contribuciones y descubrimientos en la clasificación de partículas elementales y sus interacciones” no figuraba la palabra “quark”.
Sólo después de experimentos en DESY (Alemania), Fermilab (EE.UU.) y el Centro Europeo de Investigación Nuclear (CERN) a finales de los años 80 fue posible observar efectos que indicaban la presencia de partículas con carga fraccionada. El primer Premio Nobel, en cuya formulación estaba presente la palabra "quark", fue otorgado a y, y e y en 1990. Por esa misma época se explicó el problema de la observación de los quarks en estado libre. La especificidad de la interacción de los quarks entre sí hace que este procedimiento sea fundamentalmente imposible (el llamado confinamiento), sólo es posible la observación indirecta de los efectos de los quarks.
Por el momento, existe una rama separada de la física teórica bien desarrollada que estudia gluones y quarks: cromodinámica cuántica. Esta sección resume el progreso de la teoría cuántica en su aplicación al “espacio de color” específico de quarks y gluones.
Los hadrones, partículas formadas a partir de quarks, incluyen actualmente más de 400 partículas (y antipartículas). Todos ellos, excepto el protón y el neutrón (que son estables en los núcleos), tienen una vida útil de no más de un microsegundo y se desintegran en otras partículas (en última instancia, estables). Varias partículas tienen masas varias veces mayores que la masa de los nucleones. Entre los hadrones hay partículas eléctricamente neutras y las hay cargadas, incluidas las que tienen carga de +2 y -2 (en unidades de carga electrónica). La diversidad de partículas pesadas permite estudiar los patrones de su interacción con diversos campos y, en última instancia, obtener una comprensión correcta de los patrones de construcción de nuestro mundo.
Los leptones no pueden presumir de tanta diversidad como los hadrones. Su número total (incluidas las antipartículas) es sólo 12. El leptón cargado más ligero, el electrón, fue descubierto en 1895, su antipartícula (positrón) en 1934, el muón más pesado en 1962 y el último, un taón con una masa más de 3.000 veces mayor que la del electrón, en 1975. Sin embargo, los más interesantes hoy en día son los leptones sin carga: los neutrinos.

A finales de los años 20 del siglo pasado, se llevó a cabo un intenso estudio de varios tipos de desintegraciones radiactivas. Al estudiar la desintegración β, los científicos encontraron una situación paradójica: los electrones tenían energías diferentes cada vez, aunque durante la desintegración, que resultó en la formación de dos partículas

toda la energía de desintegración debe dividirse proporcionalmente entre el electrón y el núcleo atómico, es decir Los electrones deben tener una energía fija. ¡Llegó al punto que incluso Niels Bohr estaba dispuesto a admitir que la desintegración β viola la ley de conservación de la energía! La solución la encontró el destacado físico alemán Wolfgang Pauli. Sugirió que junto con el electrón aparece otra partícula sin carga (un pequeño neutrón), que durante la desintegración sale volando sin registro, llevándose cada vez una porción diferente de energía. La idea propuesta por Pauli resolvió brillantemente la situación, la ley de conservación de la energía permaneció inquebrantable y la aparición de una nueva partícula explicó la situación con la "pérdida de energía". Sin embargo, durante mucho tiempo el neutrino (nombre propuesto por Enrico Fermi) siguió siendo una “partícula de papel”.

El progreso en el estudio experimental de los neutrinos se asocia principalmente con el nombre del destacado físico (italiano de nacimiento, que se mudó a la URSS en 1950) Bruno Pontecorvo. En 1944, Pontecorvo, realizando un estudio teórico de las posibles propiedades de los neutrinos, propuso un método eficaz para detectar esta partícula. La fuente, según Pontecorvo, podría ser un proceso en el que los núcleos radiactivos se desintegran intensamente. Un poco más tarde, Pontecorvo propuso utilizar un reactor nuclear como fuente artificial de neutrinos. Ya a principios de los años 50 se comenzó a trabajar en el registro de neutrinos (en ese momento se suponía que los neutrinos no tenían antipartícula). El primer experimento para detectar (anti)neutrinos fue el experimento de Frederick Reines y Clyde L. Cowan, Jr., quienes lograron registrar antineutrinos de reactores en 1957. La siguiente etapa en el estudio de esta partícula fue el registro de neutrinos solares, realizado por Raymond Davis Jr. en 1967 en la mina Homestake (EE.UU.). Ya entonces quedó claro que la interacción de los neutrinos con la materia ocurre tan raramente que su registro efectivo requiere grandes volúmenes de material de registro y un largo tiempo de medición. Uno de los experimentos con neutrinos más exitosos en la instalación de Kamiokande (Japón), que duró varios años de trabajo con un enorme tanque con una capacidad de varias decenas de miles de toneladas de agua, dio como resultado varios neutrinos por año. Además, además de tiempo, realizar tales experimentos también requiere grandes costos financieros. En acertada expresión de B. Pontecorvo, “La física de partículas elementales es una ciencia cara...”.
¿A qué se debe el interés moderno por los neutrinos? La mayor capacidad de penetración de estas partículas permite obtener información sobre objetos que de otro modo serían inaccesibles para el estudio. La gama de aplicaciones aquí es enorme: desde información sobre procesos en galaxias distantes y cúmulos de galaxias hasta la geolocalización de neutrinos de la Tierra. Actualmente se están poniendo en marcha grandes proyectos para registrar neutrinos astrofísicos: telescopios de neutrinos de gran volumen, en los que se utiliza agua de mar o hielo como sustancia de registro. Está previsto construir dos telescopios con un volumen de 1 km 3 en los hemisferios norte (Mediterráneo) y sur (Antártico).


Telescopio de neutrinos ANTARES

El problema de la masa de los neutrinos también sigue sin resolverse. Sorprendentemente, ésta es quizás la única partícula de la que es imposible decir si tiene masa o no. En los últimos años, se han depositado grandes esperanzas para resolver este problema en la observación de las llamadas oscilaciones de neutrinos, transiciones espontáneas de neutrinos de un tipo a otro.
A pesar de la presencia de diversos métodos de investigación moderna, la herramienta principal desde los años 40 del siglo pasado sigue siendo aceleradores de partículas cargadas. Cualquier acelerador es, en el sentido literal de la palabra, un microscopio que permite observar profundamente la materia. De hecho, para observar un objeto en el microcosmos, es necesario utilizar radiación con una longitud de onda acorde a su tamaño. Y dado que, basándonos en las propiedades ondulatorias de las partículas, podemos obtener

donde λ es la longitud de onda, ћ es la constante de Planck, c es la velocidad de la luz y E es la energía, entonces para una mayor "ampliación" de nuestro "microscopio" es necesario aumentar la energía de las partículas. Actualmente, existen diferentes tipos de aceleradores, principalmente aceleradores de protones y electrones. El principio de funcionamiento de un acelerador lineal estándar, por ejemplo, es extremadamente sencillo y consiste en que cuando un electrón (o protón) atraviesa una diferencia de potencial, gana energía.

Es por eso que la unidad de energía utilizada en la física nuclear y de partículas se llama “electronvoltio”, esta es la energía que adquiere un electrón al pasar por una diferencia de potencial de 1 Voltio. Por supuesto, en los aceleradores modernos, la aceleración se lleva a cabo mediante un campo electromagnético alterno, que "hace oscilar" las partículas en diferentes áreas. La energía electrónica máxima alcanzada hoy en los aceleradores de electrones es de 100 GeV (10 11 eV), y en los aceleradores de protones, 3,5 TeV (3,5 10 12 eV). El último valor corresponde a la energía de protones alcanzada en el mayor acelerador de protones moderno: Gran Colisionador de Hadrones(LHC) en el CERN.


Representación esquemática del complejo de aceleradores del CERN en un mapa geográfico.

Este complejo acelerador más grande es un anillo superconductor de más de 27 kilómetros de largo, que permite “girar” protones a energías de 7 TeV. Con tal energía de colisión de protones (y la colisión, por supuesto, aumenta aún más la producción de energía), es posible observar todo tipo de reacciones con la formación de diversas partículas, incluidas aquellas con grandes masas. La mayoría de los experimentos planeados en el colisionador están relacionados con la prueba de predicciones. Modelo estandar− un conjunto de supuestos teóricos que describen la estructura de la materia. La confirmación o refutación de estas hipótesis dará a la ciencia la oportunidad de avanzar, resolviendo los problemas que enfrenta la humanidad hoy.

Preguntas de autoevaluación

  1. ¿Cuál es la diferencia fundamental entre los métodos de estudio del micromundo y del macromundo?
  2. ¿Cuál es el significado físico de la constante de Planck?
  3. ¿Es posible medir simultáneamente con precisión la coordenada y el momento de una partícula en el microcosmos?
  4. Dé un ejemplo de energía discreta en un sistema cuántico.
  5. ¿Cuál es la principal característica de un sistema cuántico?
  6. Nombra el experimento que sentó las bases para la comprensión moderna de la estructura atómica.
  7. ¿Cuál es el tamaño aproximado de un átomo?
  8. ¿Cuál es la razón por la que los átomos emiten fotones?
  9. ¿Qué es la ionización?
  10. ¿Cuál es el tamaño aproximado de un núcleo atómico?
  11. ¿Qué partículas forman el núcleo atómico?
  12. ¿Qué es la energía de enlace nuclear?
  13. ¿Por qué se fisionan los núcleos pesados?
  14. ¿Por qué las reacciones de fusión nuclear se llaman termonucleares?
  15. ¿Qué es la desintegración alfa?
  16. Nombra tres grupos de partículas fundamentales.
  17. Enumera los tipos de quarks.
  18. ¿Cuántos quarks están formados por un protón y un neutrón?
  19. ¿Qué es un neutrino?
  20. Enumere los tipos de interacciones fundamentales.

Una breve historia del estudio de las partículas elementales

La primera partícula elemental descubierta por los científicos fue el electrón. Un electrón es una partícula elemental que lleva una carga negativa. Fue descubierto en 1897 por J. J. Thomson. Más tarde, en 1919, E. Rutherford descubrió que entre las partículas expulsadas de los núcleos atómicos había protones. Luego se descubrieron los neutrones y los neutrinos.

En 1932, K. Anderson, mientras estudiaba los rayos cósmicos, descubrió los positrones, los muones y los mesones K.

Desde principios de los años 50, los aceleradores se han convertido en la principal herramienta para estudiar partículas elementales, lo que ha permitido descubrir una gran cantidad de partículas nuevas. Las investigaciones han demostrado que el mundo de las partículas elementales es muy complejo y sus propiedades son inesperadas e impredecibles.

Partículas elementales en la física del micromundo.

Definición 1

En sentido estricto, las partículas elementales son partículas que no están formadas por otras partículas. Pero en la física moderna se utiliza una comprensión más amplia de este término. Por tanto, las partículas elementales son las partículas más pequeñas de materia que no son átomos ni núcleos atómicos. La excepción a esta regla es el protón. Por eso las partículas elementales se llaman partículas subnucleares. La parte predominante de estas partículas son sistemas compuestos.

Las partículas elementales participan en todos los tipos fundamentales de interacción: fuerte, gravitacional, débil y electromagnética. La interacción gravitacional, debida a las pequeñas masas de las partículas elementales, a menudo no se tiene en cuenta. Todas las partículas elementales existentes actualmente se dividen en tres grandes grupos:

  • bosones. Se trata de partículas elementales que llevan interacciones electrodébiles. Estos incluyen un cuanto de radiación electromagnética, un fotón, que tiene una masa en reposo igual a cero, lo que determina que la velocidad de propagación de las ondas electromagnéticas en el vacío es la velocidad máxima de propagación de la influencia física. La velocidad de la luz es una de las constantes físicas fundamentales, su valor es 299.792.458 m/s.
  • leptones. Estas partículas elementales participan en interacciones electromagnéticas y débiles. Actualmente, hay 6 leptones: electrón, muón, neutrino muónico, neutrino electrónico, leptón τ pesado y el neutrino correspondiente. Todos los leptones tienen espín ½. Cada leptón corresponde a una antipartícula, que tiene la misma masa, el mismo espín y otras características, pero difiere en el signo de la carga eléctrica. Hay un positrón, que es la antipartícula de un electrón, un muón, que tiene carga positiva, y tres antineutrinos, que tienen carga leptónica.
  • hadrones. Estas partículas elementales participan en interacciones fuertes, débiles y electromagnéticas. Los hadrones son partículas pesadas cuya masa es 200.000 veces la de un electrón. Este es el grupo más grande de partículas elementales. Los hadrones, a su vez, se dividen en bariones: partículas elementales con espín ½ y mesones con espín entero. Además, existen las llamadas resonancias. Este es el nombre que se le da a los estados excitados de corta duración de los hadrones.

Propiedades de las partículas elementales.

Cualquier partícula elemental tiene un conjunto de valores discretos y números cuánticos. Las características comunes de absolutamente todas las partículas elementales son las siguientes:

  • peso
  • toda la vida
  • carga eléctrica

Nota 1

Según su vida útil, las partículas elementales son estables, cuasiestables e inestables.

Las partículas elementales estables son: electrón, cuya vida útil es de 51021 años, protón - más de 1031 años, fotón, neutrino.

Cuasiestables son partículas que se desintegran como resultado de interacciones electromagnéticas y débiles; la vida útil de las partículas elementales cuasiestables es de más de 10 a 20 s.

Las partículas elementales inestables (resonancias) se desintegran durante interacciones fuertes y su vida útil es de $10^(-22) – 10^(-24)$ s.

Los números cuánticos de las partículas elementales son cargas leptónicas y bariónicas. Estos números son valores estrictamente constantes para todo tipo de interacciones fundamentales. Para los neutrinos leptónicos y sus antipartículas, las cargas leptónicas tienen signos opuestos. Para los bariones, la carga bariónica es 1; para sus correspondientes antipartículas, la carga bariónica es -1.

Una característica de los hadrones es la presencia de números cuánticos especiales: “extrañeza”, “belleza”, “encanto”. Los hadrones comunes son el neutrón, el protón y el mesón π.

Dentro de diferentes grupos de hadrones, existen familias de partículas que tienen masas similares y propiedades similares con respecto a la interacción fuerte, pero difieren en la carga eléctrica. Un ejemplo de esto es el protón y el neutrón.

La capacidad de las partículas elementales para sufrir transformaciones mutuas, que se producen como resultado de interacciones electromagnéticas y otras interacciones fundamentales, es su propiedad más importante. Este tipo de transformación mutua es el nacimiento de un par, es decir, la formación de una partícula y una antipartícula al mismo tiempo. En el caso general, se forma un par de partículas elementales con cargas bariónicas y leptónicas opuestas.

Es posible la formación de pares positrón-electrón y pares de muones. Otro tipo de transformación mutua de partículas elementales es la aniquilación de un par como resultado de la colisión de partículas con la formación de un número finito de fotones. Como regla general, la formación de dos fotones ocurre con un espín total de partículas en colisión igual a cero, y tres fotones con un espín total igual a 1. Este ejemplo es una manifestación de la ley de conservación de la paridad de carga.

Bajo ciertas condiciones es posible la formación de un sistema unido de positronio e-e+ y muonio µ+e-. Esta condición puede ser la baja velocidad de las partículas en colisión. Estos sistemas inestables se denominan átomos similares al hidrógeno. La vida útil de los átomos similares al hidrógeno depende de las propiedades específicas de la sustancia. Esta característica permite utilizarlos en química nuclear para un estudio detallado de la materia condensada y para estudiar la cinética de reacciones químicas rápidas.

Los cuerpos físicos que nos rodean, incluso los mismos, son en última instancia distinguibles. Muchas veces decimos: “son tan parecidas como dos gotas de agua”, aunque estamos seguros de que dos gotas de agua por muy parecidas que sean se pueden distinguir. Pero en relación con los electrones, la palabra "similitud" no es adecuada. Aquí estamos hablando de identidad completa.

Cada bola de un montón de bolas completamente idénticas todavía tiene algo propio, al menos el lugar que ocupa entre las demás. Es diferente con los electrones. En un sistema de varios electrones es imposible distinguir solo uno: el comportamiento de cada uno de ellos no difiere del de los demás. Algo similar ocurre en nuestro mundo. Por ejemplo, dos ondas con la misma longitud, amplitud y fase son tan idénticas que, una vez superpuestas, no tiene ningún sentido preguntar dónde está una y dónde está la otra. O imaginemos torbellinos que se precipitan unos hacia otros. Después de su colisión, pueden formarse nuevos vórtices y es imposible determinar cuál de los vórtices "recién nacidos" surgió del primero y cuál del segundo.

Resulta que el carácter del electrón no recuerda más a un cuerpo físico, sino a un proceso. Por ejemplo, movimientos ondulatorios. Sin embargo, por varias razones, que se analizarán a continuación, es imposible imaginar un electrón únicamente como una onda.

Cabeza y cola

Después de todo, ¿qué es un electrón? Antes de responder a esta pregunta, recordemos primero el fascinante juego “cara y cruz”. El caso es que el concepto de probabilidad, muy importante para nosotros en el futuro, surge del análisis del juego.

Lanza una moneda diez, veinte, cien veces. Repite una serie de cien lanzamientos muchas veces. Notarás que el número de caras y cruces será casi exactamente el mismo en todas (o casi todas) las series. Esto significa que estamos ante un patrón determinado. Sabiéndolo, puedes estimar la probabilidad de lo que puede suceder o no. Digamos ganar la lotería.

Pero ¿qué tiene todo esto que ver con el microcosmos? El más directo. El objeto de estudio de la mecánica es la probabilidad de que ocurran diversos eventos, por ejemplo, la probabilidad de que aparezcan destellos en un lugar u otro de la pantalla.

Dado que es la probabilidad de dónde y cuándo puede suceder algo, es necesario conocer su distribución en el espacio y el tiempo. La mecánica cuántica estudia dichas distribuciones (los físicos las llaman funciones de onda).

¿Qué es una enfermedad?

Quizás tengas dudas: ¿cómo pueden los cuerpos no físicos ser objeto de investigación en física? Sin embargo, recuerde que el objeto de, por ejemplo, la sociología o la economía es la sociedad o determinadas relaciones sociales que no pueden llamarse objetos. Y el objeto de una ciencia como la medicina es la enfermedad. No son microbios ni humanos, sino una enfermedad, es decir, una violación de las funciones normales del cuerpo humano. Esto tampoco es un objeto. En cuanto a la mecánica clásica, sus objetos, los puntos materiales, no pueden considerarse objetos reales, porque no poseen todo el conjunto de propiedades inherentes a los cuerpos físicos (por ejemplo, color, sabor, olor). Esto es sólo una idealización del cuerpo físico, un objeto. Es cierto que aquí no es difícil ver la correspondencia entre lo que estudia la ciencia y lo que hay en el mundo que nos rodea: la mecánica estudia puntos materiales que corresponden a los cuerpos físicos en el mundo exterior.

Pero, ¿qué corresponde a los objetos del micromundo: los átomos, los núcleos atómicos, así como los electrones y otras partículas elementales? Resulta que no se trata de cuerpos físicos, ni de trozos de materia esparcidos de alguna manera en el espacio, sino de ciertas conexiones probabilísticas entre fenómenos. El micromundo no es un mundo nuevo con objetos sorprendentes por sus propiedades, sino un mundo de conexiones nuevas, previamente desconocidas, entre fenómenos físicos.

No la letra, sino el significado.

De nuevo, una pregunta legítima: ¿existen conexiones entre fenómenos fuera de los cuerpos físicos? Por supuesto que no. Las conexiones entre los fenómenos aparecen y existen sólo en los fenómenos mismos y no pueden existir como algo separado. Pero puedes estudiarlos sin distraerte de los fenómenos. Esto es exactamente lo que hace con éxito la mecánica cuántica. Los fenómenos que estudia ocurren con los cuerpos más comunes: pantallas, mostradores. Sin embargo, estos cuerpos no aparecen en la teoría. Las conexiones entre los fenómenos que estudia la mecánica cuántica son tan complejas que hay que recurrir a conceptos abstractos (como función de onda, distribución de probabilidad, etc.)

¿Son legítimas tales abstracciones? ¿Es posible hablar de la existencia objetiva de conexiones entre fenómenos, considerándolos independientes de los fenómenos? Sí, hacemos esto muy a menudo. Recordemos que podemos hablar del contenido de un libro sin interesarnos en absoluto por las propiedades de la tinta de impresión y del papel sobre el que está impreso. Solo que en este caso lo importante no es cómo se imprimen las letras, ni la forma de estas letras, sino la conexión entre ellas.

¿Qué está pasando en el microcosmos?

Como ya se mencionó, las partículas elementales no se parecen más a objetos, sino a procesos y fenómenos físicos. Ésta es una de las razones de la singularidad del micromundo. Cualquier objeto tiene un cierto grado de permanencia; éste, aunque sólo sea por un período limitado de tiempo, puede considerarse sin cambios. Los procesos y fenómenos son un asunto completamente diferente. Por ejemplo, las ondas constantemente se suman (interfieren) y cambian de forma; durante cualquier interacción con cuerpos extraños u otras ondas, su apariencia no permanece inalterada. Algo parecido ocurre con los microobjetos.

Hagamos un experimento mental

Deje que dos electrones caigan sobre el objetivo. Después de chocar con él, rebotan en diferentes direcciones. Si mide el empujón que experimentó el objetivo, podrá, utilizando la ley de conservación del impulso, determinar la cantidad de electrones después del rebote. Esperemos hasta que los electrones se dispersen a una distancia suficientemente grande y midamos el impulso de uno de ellos. Así, como se conoce la suma de los momentos, también se determina el momento del segundo electrón. Ahora note: ¡esto es muy importante! - que el estado en el que el impulso del electrón tiene un determinado valor y el estado sin un determinado valor del impulso son, desde el punto de vista de la mecánica cuántica, estados diferentes. ¿Resulta que cuando se actúa sobre un electrón (y al medir el impulso, es imposible no actuar sobre una partícula), el estado de otro electrón cambia simultáneamente?

¿Telepatía en electrones?

¡Esto no puede ser verdad! De hecho: después de todo, los electrones están lejos unos de otros y no interactúan; ¿Cómo la acción sobre uno de ellos cambia el estado del otro? ¿Cómo no pensar que estamos ante la transferencia de influencia de un cuerpo a otro de forma casi sobrenatural, es decir, algo así como la telepatía en los electrones?

Sin embargo, se puede dudar de que el estado del segundo electrón haya cambiado realmente mientras estamos encontrando el impulso del primero.

Después de todo, ambos electrones tenían ciertos momentos específicos incluso antes de que empezáramos a medir. Como resultado, solo aprendimos el impulso del segundo electrón, pero no cambiamos su estado de ninguna manera.

A primera vista, estos argumentos son bastante lógicos. Lamentablemente, la mecánica cuántica se basa en una lógica especial. Como afirma, antes del experimento de medir el impulso del primer electrón, ambos electrones no tenían ningún impulso específico.

Para entender qué está pasando, hagamos una pregunta aparentemente absurda: ¿existió cada uno de los electrones por separado? En otras palabras, había un sistema de dos electrones, pero ¿estaba formado por electrones individuales?

Esta pregunta no es tan absurda como parece a primera vista. Un electrón individual en mecánica cuántica se describe mediante una distribución de probabilidad separada. En este caso, podemos decir que el electrón tiene tal o cual probabilidad de estar en un lugar determinado y otra probabilidad de estar en algún otro lugar. Lo mismo puede decirse del momento, la energía y otros parámetros de la partícula.

Las probabilidades que caracterizan a un electrón cambian con el tiempo, independientemente de lo que les suceda a otros electrones (a menos que interactúe con ellos). Sólo en este caso podemos decir que hay un electrón individual, y no su sistema como un todo que no se desmorona. Pero con los electrones en nuestro experimento (el lector tendrá que confiar en mi palabra) la situación es diferente.

Los electrones aparecen y desaparecen.

En la distribución de probabilidad que describe los sistemas después del rebote de nuestros electrones del objetivo, es imposible identificar partes independientes que corresponderían a electrones individuales. Sin embargo, después de realizar un experimento para medir el impulso, surge una situación completamente diferente. A partir de los resultados de los datos obtenidos se puede elaborar una nueva distribución de probabilidad, que se divide en dos partes independientes, de modo que cada una puede considerarse como un electrón independiente.

Esto elimina la paradoja de la "telepatía electrónica". El estado del segundo electrón no cambia en absoluto como resultado de la medición realizada en el primer electrón: después de todo, estos electrones simplemente no existían antes del experimento. Hablar de la aparición y desaparición de electrones suena absurdo si consideramos a los electrones como cuerpos físicos, pero es bastante consistente con la idea de ellos como distribuciones de probabilidad que no tienen la estabilidad de los cuerpos físicos y cambian de experiencia en experiencia.

Cómo sentarse electrón

Y, sin embargo, no es tan fácil negarse a considerar al electrón como un cuerpo ordinario. De hecho, los físicos miden la posición del electrón, su momento y energía. Estas cantidades también caracterizan el estado de los cuerpos físicos ordinarios. Y si es así, ¿significa que en algún sentido todavía es posible caracterizar un electrón por las mismas propiedades que un cuerpo físico, por ejemplo, por su posición en el espacio?

Lamentablemente no. Porque ¿cómo hacer esto? La posición de un electrón en el espacio se puede determinar, por ejemplo, mediante una pantalla centelleante. Está recubierto con una sustancia especial que produce un destello cuando un electrón golpea la pantalla. La aparición de un destello se interpreta como la noticia de que el electrón se encuentra allí en ese momento. Sin embargo, a diferencia de los cuerpos físicos ordinarios, el electrón, desde el punto de vista de un físico, no tiene una posición definida ni antes ni después del destello. Además, mientras no haya pantalla, es imposible hablar de la posición del electrón en un determinado punto del espacio: de la mecánica cuántica se deduce que, en ausencia de pantalla, el electrón se describe mediante una función de onda ". manchado” sobre un área grande. La apariencia de la pantalla cambia abruptamente el estado del electrón; Como resultado, la función de onda se contrae instantáneamente hasta un punto en el que se produce la llamarada.

Fígaro aquí, Fígaro allá...

Esta contracción se denomina "reducción de paquetes de ondas". Sólo como resultado de la reducción el electrón pasa a un nuevo estado, en el que por un instante adquiere una determinada posición en el espacio. En el momento siguiente, el paquete de ondas se extiende de nuevo y el electrón vuelve a perder su posición definida.

Lo mismo (con diferencias que ahora son insignificantes para nosotros) puede decirse de otros parámetros (por ejemplo, momento, energía, momento angular). Por tanto, no todos los parámetros clásicos caracterizan al electrón en sí, sino sólo el proceso de su interacción con el dispositivo de medición. Aparecen en el electrón sólo en el momento de la medición como resultado de la reducción del paquete de ondas. El electrón en sí (y por tanto su comportamiento) se caracteriza únicamente por propiedades probabilísticas escritas en la función de onda. Así, en un experimento en el que un electrón chocaba contra una pantalla, la probabilidad de que se produjera un destello era distinta de cero en todos los puntos de una determinada región del espacio; esta probabilidad podía calcularse de antemano y no dependía de si la pantalla estaba allí. O no.

Más rapido que la luz

Un proceso sorprendente es la reducción del paquete de ondas. Debido a esto, el electrón y otras partículas del micromundo no pueden representarse como movimiento ondulatorio en ningún campo físico. El hecho es que esta reducción (por ejemplo, en el ejemplo anterior, la contracción de la función de onda a un punto en la pantalla) ocurre instantáneamente. Por tanto, la reducción de un paquete de ondas no puede ser un proceso físico N que ocurra en ningún campo. Las acciones instantáneas a distancia contradicen los supuestos fundamentales que subyacen a la teoría de campos. Se sabe, por ejemplo, que cualquier transferencia de energía (e información) en un campo electromagnético se produce a la velocidad de la luz. Según la teoría de la relatividad, la velocidad de la luz es la velocidad máxima de transmisión de efectos físicos (y mensajes) en nuestro mundo.

Sin embargo, la reducción del paquete de ondas no tiene nada de misterioso en su esencia. Seguramente cada uno de ustedes lo ha encontrado en la vida cotidiana. Digamos que compraste un billete de lotería. Tienes ciertas posibilidades de ganar con este billete, digamos. La muy pequeña probabilidad de que esto suceda instantáneamente se convierte en cero o uno cuando unas cuantas vueltas del carrete deciden el problema de una forma u otra.

Tenga en cuenta que, en términos generales, esto queda claro incluso antes de conocer los resultados del sorteo. Hay una reducción instantánea en la distribución de probabilidad, que ocurre en el mismo momento del sorteo y no está asociada con la transmisión de ninguna acción en el espacio.

60% vivos y 40% muertos

La mecánica cuántica distingue estrictamente entre hechos que ya han ocurrido y hechos que predice la teoría. Incluso se describen de diferentes maneras: el primero, en términos de física clásica, y para el segundo, se utiliza una descripción de la mecánica cuántica, es decir, el lenguaje de las distribuciones de probabilidad. Esta circunstancia conduce a interesantes malentendidos.

Imaginemos que se envía un cohete al espacio con algún animal a bordo, por ejemplo. El cohete tiene un dispositivo electrónico que se enciende automáticamente en un momento determinado y libera un electrón. Este electrón, reflejado por el objetivo, golpea la pantalla, y si golpea la mitad derecha, digamos, se activa un dispositivo explosivo que destruye al gato, pero si golpea la mitad izquierda de la pantalla, no pasa nada y el gato regresa a la Tierra vivo e ileso. Lo que realmente sucedió solo se podrá descubrir después de que el cohete haya regresado y sea posible abrir el contenedor con el gato. Veamos qué puede decir la mecánica cuántica sobre el destino del gato antes de que se abriera el contenido del contenedor.

Su conclusión sería algo como esto: el estado del gato sería una superposición de los estados vivo y muerto, donde el gato estaría, digamos, en un 60 por ciento vivo y en un 40 por ciento muerto.

¿Dónde está nuestro error?

A primera vista, tal predicción parece completamente ridícula. De hecho, ¿de qué tipo de superposición de vivos y muertos podemos hablar? ¿Cómo puedes vivir al 60 por ciento y estar muerto al 40 por ciento? La predicción parecerá aún más extraña después de abrir el contenedor. Allí, por supuesto, encontrarán un gato vivo o sus restos, y ningún resultado intermedio.

Basándose en un razonamiento similar, el físico y filósofo húngaro L. Janosi llega a la conclusión de que la mecánica cuántica no describe correctamente lo que sucede en la realidad.

No para adivinar la suerte, sino para contar.

Pero Janosi no tiene en cuenta una circunstancia importante. La mecánica cuántica no pretende describir con precisión lo que está sucediendo; sólo habla de las conclusiones que se derivan de hechos que ya se conocen con certeza. En el experimento del gato imaginario, lo único que sabemos es que en un momento determinado se enciende un determinado dispositivo electrónico. Sobre esta base, es imposible sacar una conclusión sobre exactamente qué eventos seguirán a continuación; sólo se pueden predecir las probabilidades de posibles resultados. Esto es lo que hace la mecánica cuántica. En nuestro caso, sus predicciones tienen el siguiente significado: el gato tiene una probabilidad de 60 sobre 100 de sobrevivir.

Esto es todo lo que se puede decir de antemano sin abrir el contenedor devuelto. Una vez más, la tarea de la mecánica cuántica no es predecir la secuencia de eventos que realmente ocurren, sino simplemente encontrar cómo cambian las probabilidades de que ocurran estos eventos con el tiempo.

No es fácil, porque es inusual.

El microcosmos esconde muchas cosas asombrosas. Él mismo es inusual, sus leyes son inusuales. Esto es precisamente lo que explica la complejidad de la mecánica cuántica: gran parte de ella es difícil de entender utilizando conceptos convencionales. No hay nada que hacer: cuanto más profundamente comprende una persona la naturaleza, más patrones complejos descubre. Y luego tienes que descartar tus ideas habituales. Es difícil. Pero no hay otra manera.