Fisica de once
PRIMER PEIODO
Torque
TORQUE O MOMENTO DE FUERZA (O DE TORSION)
Definición:
Se define por Torque o Momento de rotación a la expresión dada por:
= r x F [1]
donde r es el vector posición en donde es aplicada la fuerza F. El producto “x” representa al producto cruz, el cual como debe recordarse, es un producto vectorial.
Nota: Las unidades de torque, en el Sistema Internacional (S.I.), es [Nm]
De la definición matemática del producto cruz, se tiene:
= r x F = r F sen u [2]
donde u es un vector unitario ( o versor) y cuya dirección y sentido viene dada por la regla de la mano derecha ( o regla del tirabuzón, o sacacorcho o destornillador), como se ve en la siguiente figura:
Además, tanto r como F son Coplanares, es decir están o yacen en un mismo plano.
Interpretación gráfica de esta regla:
Sabemos que los vectores son independientes de algún sistema de coordenadas. Coloque los vectores r y F en un origen común, como se observa en la siguiente figura:
Si usted, usando un destornillador, tratara de hacer girar la cabeza del tornillo (es decir, su abertura), que originalmente está en la dirección de r y tratara de colocarlo en la dirección de F, vale decir, llevar el vector r hacia el vector F (ver figura de arriba), entonces el sentido de giro sería antihorario, y por lo tanto, estaría "desatornillando".
Luego, el versor u estaría saliendo perpendicularmente al plano que contiene tanto a r como a F y hacia afuera.
En tal caso, decimos que u es saliente. En caso contrario, decimos que u es entrante.
Tanto cuando es entrante como saliente se puede representar por los símbolos dados en la siguiente figura:
Retomando la definición de torque, ecuación [2], podemos visualizar que la cantidad
F sen
viene a ser la componente perpendicular de F a lo largo de la dirección de r. Tal componente es la que realiza el torque.. Esto se muestra en la siguiente figura:
CONDICION DE EQUILIBRIO PARA UN CUERPO RIGIDO
Fi= 0 (Equilibrio de Traslación)
i= 0 (Equilibrio de Rotación)
Centro de Gravedad
El centro de gravedad (CG) de un cuerpo es el punto donde se considera aplicado el peso.
Centro de Masa
El centro de masa (CM) de un cuerpo es el punto en el cual al aplicar fuerzas se produce una traslación pura.
Para cuerpos regulares, el centro de masa coincide con el centro de gravedad. APLICACION: La Palanca
La palanca es una barra rígida que puede girar alrededor de un puno fijo llamado: "Punto de Apoyo". El peso que queremos vencer se llama resistencia RLa fuerza aplicada para vencer la resistencia R se denomina: "Fuerza Motriz". Enla figura 9 suponemos que la barra rígida tiene su CG en O. Luego su contribución al torque es nulo.
La palanca se encontrará en equilibrio cuando la suma de los torques de la fuerza F y la resistencia R (mg), con respecto al punto O sea cero (2° Condición de equilibrio). Vale decir:
Fd = Rr (Ley de la Palanca)
2 PERIODO
Mecánica de fluidos, es la parte de la física que se ocupa de la acción de los fluidos en reposo o en movimiento, así como de las aplicaciones y mecanismos de ingeniería que utilizan fluidos. La mecánica de fluidos es fundamental en campos tan diversos como la aeronáutica, la ingeniería química, civil e industrial, la meteorología, las construcciones navales y la oceanografía.
La mecánica de fluidos puede subdividirse en dos campos principales: la estática de fluidos, o hidrostática, que se ocupa de los fluidos en reposo, y la dinámica de fluidos, que trata de los fluidos en movimiento. El término de hidrodinámica se aplica al flujo de líquidos o al flujo de los gasesa baja velocidad, en el que puede considerarse que el gas es esencialmente incompresible. La aerodinámica, o dinámica de gases, se ocupa del comportamiento de los gases cuando los cambios de velocidad y presión son lo suficientemente grandes para que sea necesario incluir los efectos de la compresibilidad.
Entre las aplicaciones de la mecánica de fluidos están la propulsión a chorro, las turbinas, los compresores y las bombas. La hidráulica estudia la utilización en ingeniería de la presión del agua o del aceite.
1.3 PROPIEDADES DE LOS FLUIDOS
Los fluidos, como todos los materiales, tienen propiedades físicas que permiten caracterizar y cuantificar su comportamiento así como distinguirlos de otros. Algunas de estas propiedades son exclusivas de los fluidos y otras son típicas de todas las sustancias. Características como la viscosidad, tensión superficial y presión de vapor solo se pueden definir en los líquidos y gasas. Sin embargo la masa específica, el peso específico y la densidad son atributos de cualquier materia.
1.3.1 Masa especifica, peso específico y densidad.
Se denomina masa específica a la cantidad de materia por unidad de volumen de una sustancia. Se designa por P y se define: P = lim ( m/ v)
v->0
El peso específico corresponde a la fuerza con que la tierra atrae a una unidad de volumen. Se designa por ß. La masa y el peso específico están relacionados por:
ß = gP
Donde g representa la intensidad del campo gravitacional.
Se denomina densidad a la relación que exista entre la masa específica de una sustancia cualquiera y una sustancia de referencia. Para los líquidos se utiliza la masa especifica del agua a 4°C como referencia, que corresponde a 1g/cm3 y para los gases se utiliza al aire con masa especifica a 20°C 1 1,013 bar de presión es 1,204 kg/m3.
1.3.2 Viscosidad.
La viscosidad es una propiedad distintiva de los fluidos. Esta ligada a la resistencia que opone un fluido a deformarse continuamente cuando se le somete a un esfuerzo de corte. Esta propiedad es utilizada para distinguir el comportamiento entre fluidos y sólidos. Además los fluidos pueden ser en general clasificados de acuerdo a la relación que exista entre el esfuerzo de corte aplicado y la velocidad de deformación.
Supóngase que se tiene un fluido entre dos placas paralelas separada a una distancia pequeña entre ellas, una de las cuales se mueve con respecto de la otra. Esto es lo que ocurre aproximadamente en un descanso lubricado. Para que la palca superior se mantenga en movimiento con respecto ala inferior, con una diferencia de velocidades V, es necesario aplicar una fuerza F, que por unidad se traduce en un esfuerzo de corte, ŋ = F / A, siendo A el área de la palca en contacto con el fluido. Se puede constatar además que el fluido en contacto con la placa inferior, que esta en reposo, se mantiene adherido a ella y por lo tanto no se mueve. Por otra parte, el fluido en contacto con la placa superior se mueve ala misma velocidad que ella. Si el espesor del fluido entre ambas placas es pequeño, se puede suponer que la variación de velocidades en su interior es lineal, de modo que se mantiene la proporción:
dv / dy = V/y
1.3.3 Compresibilidad.
La compresibilidad representa la relación entre los cambios de volumen y los cambios de presión a que esta sometido un fluido. Las variaciones de volumen pueden relacionarse directamente con variaciones de la masa específica si la cantidad de masa permanece constante. En general se sabe que en los fluidos la masa especifica depende tanto de la presión como de la temperatura de acuerdo a al ecuación de estado.
1.3.4 Presión de vapor.
Los fluidos en fase liquida o gaseosa dependiendo de las condiciones en que se encuentren. Las sustancias puras pueden pasar por las cuatro fases, desde sólido a plasma, según las condiciones de presión y temperatura a que estén sometidas. Se acostumbra designar líquidos a aquellos materias que bajo las condicione normales de presión y temperatura en que se encuentran en la naturaleza están en esa fase.
Cuando un liquido se le disminuye la presión a la que esta sometido hasta llegar a un nivel en el que comienza a bullir, se dice que alcanzado la presión de vapor. Esta presión depende de la temperatura. Así por ejemplo, para el agua a 100°C, la presión es de aproximadamente de 1 bar, que equivale a una atmósfera normal. La presión de vapor y la temperatura de ebullición están relacionadas y definen una línea que separa y el líquido de una misma sustancia en un grafico de presión y temperatura.
Fig. 04. Presión de vapor y temperatura de ebullición para el caso del agua.
1.3.5 Tensión superficial.
Se ha observado que entre la interfase de dos fluidos que no se mezclan se comportan como si fuera una membrana tensa. La tensión superficial es la fuerza que se requiere para mantener en equilibrio una longitud unitaria de esta película. El valor de ella dependerá de los fluidos en contacto y de la temperatura. Los efectos de la superficial solo apreciables en fenómenos de pequeñas dimensiones, como es el caso de tubos capilares, burbujas, gotas y situaciones similares
HIDROSTÁTICA
Una característica fundamental de cualquier fluido en reposo es que la fuerza ejercida sobre cualquier partícula del fluido es la misma en todas direcciones. Si las fuerzas fueran desiguales, la partícula se desplazaría en la dirección de la fuerza resultante. De ello se deduce que la fuerza por unidad de superficie —la presión— que el fluido ejerce contra las paredes del recipiente que lo contiene, sea cual sea su forma, es perpendicular a la pared en cada punto. Si la presión no fuera perpendicular, la fuerza tendría una componente tangencial no equilibrada y el fluido se movería a lo largo de la pared.
Este concepto fue formulado por primera vez en una forma un poco más amplia por el matemático y filósofo francés Blaise Pascalen 1647, y se conoce como principio de Pascal. Dicho principio, que tiene aplicaciones muy importantes en hidráulica, afirma que la presión aplicada sobre un fluido contenido en un recipiente se transmite por igual en todas direcciones y a todas las partes del recipiente, siempre que se puedan despreciar las diferencias de presión debidas al peso del fluido y a la profundidad.Cuando la gravedad es la única fuerza que actúa sobre un líquido contenido en un recipiente abierto, la presión en cualquier punto del líquido es directamente proporcional al peso de la columna vertical de dicho líquido situada sobre ese punto. La presión es a su vez proporcional a la profundidad del punto con respecto a la superficie, y es independiente del tamaño o forma del recipiente. Así, la presión en el fondo de una tubería vertical llena de agua de 1 cm. de diámetro y 15 m de altura es la misma que en el fondo de un lago de 15 m de profundidad. De igual forma, si una tubería de 30 m de longitud se llena de agua y se inclina de modo que la parte superior esté sólo a 15 m en vertical por encima del fondo, el agua ejercerá la misma presión sobre el fondo que en los casos anteriores, aunque la distancia a lo largo de la tubería sea mucho mayor que la altura de la tubería vertical. Veamos otro ejemplo: la masa de una columna de agua dulce de 30 cm. de altura y una sección transversal de 6,5 cm.2 es de 195 g, y la fuerza ejercida en el fondo será el peso correspondiente a esa masa. Una columna de la misma altura pero con un diámetro 12 veces superior tendrá un volumen 144 veces mayor, y pesará 144 veces más, pero la presión, que es la fuerza por unidad de superficie, seguirá siendo la misma, puesto que la superficie también será 144 veces mayor. La presión en el fondo de una columna de mercurio de la misma altura será 13,6 veces superior, ya que el mercurio tiene una densidad 13,6 veces superior a la del agua.
El segundo principio importante de la estática de fluidos fue descubierto por el matemático y filósofo griego Arquímedes. El principio de Arquímedes afirma que todo cuerpo sumergido en un fluido experimenta una fuerza hacia arriba igual al peso del volumen de fluido desplazado por dicho cuerpo. Esto explica por qué flota un barco muy cargado; el peso del agua desplazada por el barco equivale a la fuerza hacia arriba que mantiene el barco a flote.
El punto sobre el que puede considerarse que actúan todas las fuerzas que producen el efecto de flotación se llama centro de flotación, y corresponde al centro de gravedad del fluido desplazado. El centro de flotación de un cuerpo que flota está situado exactamente encima de su centro de gravedad. Cuanto mayor sea la distancia entre ambos, mayor es la estabilidad del cuerpo.
El principio de Arquímedes permite determinar la densidad de un objeto cuya forma es tan irregular que su volumen no puede medirse directamente. Si el objeto se pesa primero en el aire y luego en el agua, la diferencia de peso será igual al peso del volumen de agua desplazado, y este volumen es igual al volumen del objeto, si éste está totalmente sumergido. Así puede determinarse fácilmente la densidad del objeto (masa dividida por volumen) Si se requiere una precisión muy elevada, también hay que tener en cuenta el peso del aire desplazado para obtener el volumen y la densidad correctos.
Para el autor Gareth Williams la dinámica de fluidos se centra principalmente a determinar la fricción que ofrece el mismo dependiendo del grado de viscosidad del mismo. Los fluidos ideales cuya viscosidad es nula o despreciable, en su comportamiento no se observa esfuerzos de corte y por lo tanto no existen fuerzas de fricción con las paredes de los sólidos.
En este capitulo se mencionaran las obras de Euler y Torricelli , quienes fueron los que contribuyeron al desarrollo de la dinámica de fluidos moderna.
3.2 DINÁMICA DE FLUIDOS O HIDRODINÁMICA
Esta rama de la mecánica de fluidos se ocupa de las leyes de los fluidos en movimiento; estas leyes son enormemente complejas, y aunque la hidrodinámica tiene una importancia práctica mayor que la hidrostática, sólo podemos tratar aquí algunos conceptos básicos.
El interés por la dinámica de fluidos se remonta a las aplicaciones más antiguas de los fluidos en ingeniería. Arquímedes realizó una de las primeras contribuciones con la invención, que se le atribuye tradicionalmente, del tornillo sin fin. La acción impulsora del tornillo de Arquímedes es similar a la de la pieza semejante a un sacacorchos que tienen las picadoras de carne manuales. Los romanos desarrollaron otras máquinas y mecanismos hidráulicos; no sólo empleaban el tornillo de Arquímedes para bombear agua en agricultura y minería, sino que también construyeron extensos sistemas de acueductos, algunos de los cuales todavía funcionan. En el siglo I a.C., el arquitecto e ingeniero romano Vitrubio inventó la rueda hidráulica horizontal, con lo que revolucionó la técnica de moler grano.
A pesar de estas tempranas aplicaciones de la dinámica de fluidos, apenas se comprendía la teoría básica, por lo que su desarrollo se vio frenado. Después de Arquímedes pasaron más de 1.800 años antes de que se produjera el siguiente avance científico significativo, debido al matemático y físico italiano Evangelista Torricelli, que inventó el barómetro en 1643 y formuló el teorema de Torricelli, que relaciona la velocidad de salida de un líquido a través de un orificio de un recipiente, con la altura del líquido situado por encima de dicho agujero. El siguiente gran avance en el desarrollo de la mecánica de fluidos tuvo que esperar a la formulación de las leyes del movimiento por el matemático y físico inglés Isaac Newton. Estas leyes fueron aplicadas por primera vez a los fluidos por el matemático suizo Leonhard Euler, quien dedujo las ecuaciones básicas para un fluido sin rozamiento (no viscoso).
Euler fue el primero en reconocer que las leyes dinámicas para los fluidos sólo pueden expresarse de forma relativamente sencilla si se supone que el fluido es incompresible e ideal, es decir, si se pueden despreciar los efectos del rozamiento y la viscosidad. Sin embargo, como esto nunca es así en el caso de los fluidos reales en movimiento, para Gareth Williams los resultados de dicho análisis sólo pueden servir como estimación para flujos en los que los efectos de la viscosidad son pequeños.
Termodinámica
La termodinámica (del griego θερμo-, termo, que significa "calor"[1] y δύναμις, dinámico, que significa "fuerza")[2] es una rama de la física que estudia los efectos de los cambios de la temperatura, presión y volumen de los sistemas a un nivel macroscópico. También podemos decir que la termodinámica nace para explicar los procesos de intercambio de masa y energía térmica entre sistemas térmicos diferentes. Para tener un mayor manejo especificaremos que calor significa "energía en tránsito" y dinámica se refiere al "movimiento", por lo que, en esencia, la termodinámica estudia la circulación de la energía y cómo la energía infunde movimiento. Históricamente, la termodinámica se desarrolló a partir de la necesidad de aumentar la eficiencia de las primeras máquinas de vapor.
El punto de partida para la mayor parte de las consideraciones termodinámicas son las leyes de la termodinámica, que postulan que la energía puede ser intercambiada entre sistemas en forma de calor o trabajo. También se postula la existencia de una magnitud llamada entropía, que puede ser definida para cualquier sistema. En la termodinámica se estudian y clasifican las interacciones entre diversos sistemas, lo que lleva a definir conceptos como sistema termodinámico y su contorno. Un sistema termodinámico se caracteriza por sus propiedades, relacionadas entre sí mediante las ecuaciones de estado. Éstas se pueden combinar para expresar la energía interna y los potenciales termodinámicos, útiles para determinar las condiciones de equilibrio entre sistemas y los procesos espontáneos.
Con estas herramientas, la termodinámica describe cómo los sistemas responden a los cambios en su entorno. Esto se puede aplicar a una amplia variedad de temas de ciencia e ingeniería, tales como motores, transiciones de fase, reacciones químicas, fenómenos de transporte, e incluso agujeros negros. Los resultados de la termodinámica son esenciales para la química, la física, la ingeniería química, etc, por nombrar algunos.
| |
Leyes de la termodinámica
También conocida como principio de conservación de la energía para la termodinámica, establece que si se realiza trabajo sobre un sistema o bien éste intercambia calor con otro, la energía interna del sistema cambiará. Visto de otra forma, esta ley permite definir el calor como la energía necesaria que debe intercambiar el sistema para compensar las diferencias entre trabajo y energía interna. Fue propuesta por Nicolas Léonard Sadi Carnot en 1824, en su obra Reflexiones sobre la potencia motriz del fuego y sobre las máquinas adecuadas para desarrollar esta potencia, en la que expuso los dos primeros principios de la termodinámica. Esta obra fue incomprendida por los científicos de su época, y más tarde fue utilizada por Rudolf Clausius y Lord Kelvin para formular, de una manera matemática, las bases de la termodinámica.
La ecuación general de la conservación de la energía es la siguiente:
Eentra − Esale = ΔEsistema
Que aplicada a la termodinámica teniendo en cuenta el criterio de signos termodinámico, queda de la forma:
U = Q − W
Segunda ley de la termodinámica
Esta ley regula la dirección en la que deben llevarse a cabo los procesos termodinámicos y, por lo tanto, la imposibilidad de que ocurran en el sentido contrario (por ejemplo, que una mancha de tinta dispersada en el agua pueda volver a concentrarse en un pequeño volumen). También establece, en algunos casos, la imposibilidad de convertir completamente toda la energía de un tipo en otro sin pérdidas. De esta forma, La Segunda ley impone restricciones para las transferencias de energía que hipotéticamente pudieran llevarse a cabo teniendo en cuenta sólo el Primer Principio. Esta ley apoya todo su contenido aceptando la existencia de una magnitud física llamada entropía tal que, para un sistema aislado (que no intercambia materia ni energía con su entorno), la variación de la entropía siempre debe ser mayor que cero.
Debido a esta ley también se tiene que el flujo espontáneo de calor siempre es unidireccional, desde los cuerpos de mayor temperatura hacia los de menor temperatura, hasta lograr un equilibrio térmico.
Existen numerosos enunciados equivalentes para definir este principio, destacándose el de Clausius y el de Kelvin.
Enunciado de Clausius
Diagrama del ciclo de Carnot en función de la presión y el volumen.
En palabras de Sears es: "No es posible ningún proceso cuyo único resultado sea la extracción de calor de un recipiente a una cierta temperatura y la absorción de una cantidad igual de calor por un recipiente a temperatura más elevada".
Enunciado de Kelvin
No existe ningún dispositivo que, operando por ciclos, absorba calor de una única fuente y lo convierta íntegramente en trabajo.Enunciado de Kelvin-Planck.
Tercera ley de la termodinámica
La Tercera de las leyes de la termodinámica, propuesta por Walther Nernst, afirma que es imposible alcanzar una temperatura igual al cero absoluto mediante un número finito de procesos físicos. Puede formularse también como que a medida que un sistema dado se aproxima al cero absoluto, su entropía tiende a un valor constante específico. La entropía de los sólidos cristalinos puros puede considerarse cero bajo temperaturas iguales al cero absoluto. No es una noción exigida por la Termodinámica clásica, así que es probablemente inapropiado tratarlo de “ley”.
Es importante recordar que los principios o leyes de la Termodinámica son sólo generalizaciones estadísticas, válidas siempre para los sistemas macroscópicos, pero inaplicables a nivel cuántico. El demonio de Maxwell ejemplifica cómo puede concebirse un sistema cuántico que rompa las leyes de la Termodinámica.
Asimismo, cabe destacar que el primer principio, el de conservación de la energía, es la más sólida y universal de las leyes de la naturaleza descubiertas hasta ahora por la ciencias.
Ley cero de la termodinámica
El equilibrio termodinámico de un sistema se define como la condición del mismo en el cual las variables empíricas usadas para definir o dar a conocer un estado del sistema (presión, volumen, campo eléctrico, polarización, magnetización, tensión lineal, tensión superficial, coordenadas en el plano x e y) no son dependientes del tiempo. A dichas variables empíricas (experimentales) de un sistema se les conoce como coordenadas térmicas y dinámicas del sistema.
A este principio se le llama del equilibrio termodinámico. Si dos sistemas A y B están en equilibrio termodinámico, y B está en equilibrio termodinámico con un tercer sistema C, entonces A y C están a su vez en equilibrio termodinámico ya que aquí las fuerzas electroestáticas se contradicen. Este principio es fundamental, aun siendo ampliamente aceptado, no fue formulado formalmente hasta después de haberse enunciado las otras tres leyes. De ahí que recibe la posición nula.
Termometría
La termometría se encarga de la medición de la temperatura de cuerpos o sistemas. Para este fin, se utiliza el termómetro, que es un instrumento que se basa en el cambio de alguna propiedad de la materia debido al efecto del calor; así se tiene el termómetro de mercurio y de alcohol, que se basan en la dilatación, los termopares que deben su funcionamiento al cambio de la conductividad eléctrica, los ópticos que detectan la variación de la intensidad del rayo emitido cuando se refleja en un cuerpo caliente.
Para poder construir el termómetro se utiliza el Principio cero de la termodinámica, que dice: "Si un sistema A que está en equilibrio térmico con un sistema B, está en equilibrio térmico también con un sistema C, entonces los tres sistemas A, B y C están en equilibrio térmico entre sí".
Demostración de la existencia de la temperatura empírica de un sistema con base en la ley cero
Para dos sistemas en equilibrio termodinámico representados por sus respectivas coordenadas termodinámicas (X1,Y1) y (X2,Y2) tenemos que dichas coordenadas no son función del tiempo, por lo tanto es posible hallar una función que relacionen dichas coordenadas, es decir:
f(x1,x2,y1,y2) = 0
Sean tres sistemas hidrostáticos, A, B, C, representados por sus respectivas termodinámicas: (Pa, Va), (Pb, Vb),(Pc, Vc). Si A y C están en equilibrio debe existir una función tal que:
f1(Pa,Pc,Va,Vc) = 0
Es decir:
Pc = g1(Pa,Va,Vc) = 0
Donde las funciones f1 y g1 dependen de la naturaleza de los fluidos.
Análogamente, para el equilibrio de los fluidos B y C:
f2(Pb,Pc,Vb,Vc) = 0
Es decir:
Pc = g2(Pb,Vb,Vc) = 0
Con las mismas considerciones que las funciones f2 y g2 dependen de la naturaleza de los fluidos.
La condición dada por la ley cero de la termodinámica de que el equilibrio térmico de A con C y de B con C implica asimismo el quilibrio de A y B puede expresarse matemáticamente como:
g1(Pa,Va,Vc) = g2(Pb,Vb,Vc)
Lo que nos conduce a la siguiente expresión:
f3(Pa,Pb,Va,Vb) = 0
Entonces, llegamos a la conclusión de que las funciones g1 y g2 deben ser de naturaleza tal que se permita la eliminación de la variable termodinámica comón Vc. Una posibilidad, que puede demostrarse única, es:
g1 = m1(Pa,Va)n(Vc) + k(Vc)
Asimismo:
g2 = m2(Pb,Vb)n(Vc) + k(Vc)
Una vez canceladas todas las partes que contienen a Vc podemos escribir:
m1(Pa,Va) = m2(Pb,Vb)
Mediante una simple repetición del argumento, tenemos que:
m1(Pa,Va) = m2(Pb,Vb) = m3(Pc,Vc)
Y así sucesivamente para cualquier número de sistemas en equilibrio termodinámico.
Hemos demostrado que para todos los sistemas que se hallen en equilibrio termodinámico entre sí, existen sendas funciones cuyos valores numéricos son iguales para cada uno de dichos sistemas en equlibrio. Este valor numérico puede ser representado con la letra griega θ y será definido como la temperatura empírica de los sistemas en equilibrio termodinámico.
Así, tenemos que todo equilibrio termodinámico entre dos sistemas es equivalente a un equilibrio térmico de los mismos, es decir, a una igualdad de temperaturas empíricas de estos.
Propiedades termométricas
Una propiedad termométrica de una sustancia es aquella que varía en el mismo sentido que la temperatura, es decir, si la temperatura aumenta su valor, la propiedad también lo hará, y viceversa.
Escalas de temperatura
Lo que se necesita para construir un termómetro son puntos fijos, es decir, procesos en los cuales la temperatura permanece constante. Ejemplos de procesos de este tipo son el proceso de ebullición y el proceso de fusión.
Los puntos generalmente utilizados son el proceso de ebullición y de solidificación de alguna sustancia, durante los cuales la temperatura permanece constante.
Existen varias escalas para medir temperaturas, las más importantes son la escala Celsius, la escala Kelvin y la escala Fahrenheit.
Escala Celsius
Para esta escala, se toman como puntos fijos, los puntos de ebullición y de solidificación del agua, a los cuales se les asignan los valores de 100 y 0 respectivamente. En esta escala, estos valores se escriben como 100° y 0°. Esta unidad de medida se lee grado Celsius y se denota por [°C]. El grado Celsius, representado como °C, es la unidad creada por Anders Celsius para su escala de temperatura. Se tomó para el Kelvin y es la unidad de temperatura más utilizada internacionalmente. A partir de su creación en 1750 fue denominado grado centígrado (se escribía °c, en minúscula). Pero en 1948 se decidió el cambio en la denominación oficial para evitar confusiones con la unidad de ángulo también denominada grado centígrado (grado geométrico), aunque la denominación previa se sigue empleando extensamente en el uso coloquial. Hasta 1954 se definió asignando el valor 0 a la temperatura de congelación del agua, el valor 100 a la de temperatura de ebullición —ambas medidas a una atmósfera de presión— y dividiendo la escala resultante en 100 partes iguales, cada una de ellas definida como 1 grado. Estos valores de referencia son muy aproximados pero no correctos por lo que, a partir de 1954, se define asignando el valor 0,01 °C a la temperatura del punto triple del agua y definiendo 1 °C como la fracción 1/273,16 de la diferencia con el cero absoluto.
Conversión de unidades
La magnitud de un grado Celsius (1 °C) es equivalente a la magnitud de un Kelvin (1 K), puesto que esta unidad se define como igual a la primera. Sin embargo, las escalas son diferentes porque la escala Kelvin toma como valor 0 el cero absoluto. Dado que al cero absoluto corresponde un valor de -273,15 °C, la temperatura expresada en °C y K difiere en 273,15 unidades: • La conversión de grados Celsius a grados Fahrenheit se obtiene multiplicando la temperatura en Celsius por 1,8 (9/5) y sumando 32: • Para convertir Fahrenheit a Celsius: •
Escala Kelvin o absoluta
En este caso, la escala fue establecida por la escala kelvin, donde el valor de 0° corresponde al cero absoluto, temperatura en la cual las moléculas y átomos de un sistema tienen la mínima energía térmica posible. Ningún sistema macroscópico puede tener una temperatura inferior. En escala Celsius esta temperatura corresponde a -273 °C. Esta unidad de medida se lee Kelvin y se denota por [K]. Esta unidad se llama también Escala Absoluta y es también la unidad adoptada por el Sistema Internacional de Unidades.
Dado que 0[K] corresponden a -273,15[°C], se puede hallar una fórmula de conversión, entre la escala Celsius y la escala Kelvin, de la siguiente forma:
T = tc + 273,15°
donde la letra T representa la temperatura en Kelvin y la letra tc representa la temperatura en grados Celsius.
Escala Fahrenheit
En esta escala también se utilizaron puntos fijos para construirla, pero en este caso fueron los puntos de solidificación y de ebullición del cloruro amónico en agua. Estos puntos se marcaron con los valores de 0 y 100 respectivamente. La unidad de esta escala se llama grado Fahrenheit y se denota por [°F]. Dado que en escala Celsius, los valores de 0[°C] y 100[°C] corresponden a 32[°F] y 212[°F] respectivamente, la fórmula de conversión de grados Celsius a Fahrenheit es:
tf =
aquí el símbolo tf representa la temperatura en grados Fahrenheit y el símbolo tc representa la temperatura en grados Celsius.
Escala Rankine
Es una escala de temperaturas muy utilizada en los E.E.U.U., y es proporcional a la escala Kelvin. Al igual que esta, presenta un cero en el cero absoluto, por lo que también es una "escala absoluta"
T(ºR) = 1,8 T (K)
Sistema y ambiente
En el estudio de la Termodinámica la atención está dirigida al interior de un sistema, aunque se adopte un punto de vista macroscópico, sólo se consideran aquellas magnitudes de este tipo que tienen relación con el estado interno del sistema. Para poder entender las magnitudes involucradas en este tema, se hace necesario definir los conceptos de sistema y estado de un sistema.
Sistema
Se puede definir un sistema como un conjunto de materia, que está limitado por una superficie, que le pone el observador, real o imaginaria. Si en el sistema no entra ni sale materia, se dice que se trata de un sistema cerrado, o sistema aislado si no hay intercambio de materia y energía, dependiendo del caso. En la naturaleza, encontrar un sistema estrictamente aislado es, por lo que sabemos, imposible, pero podemos hacer aproximaciones. Un sistema del que sale y/o entra materia, recibe el nombre de abierto. Ponemos unos ejemplos:
· Un sistema abierto: es cuando existe un intercambio de masa y de energía con los alrededores; es por ejemplo, un coche. Le echamos combustible y él desprende diferentes gases y calor.
· Un sistema cerrado: es cuando no existe un intercambio de masa con el medio circundante, sólo se puede dar un intercambio de energía; un reloj de cuerda, no introducimos ni sacamos materia de él. Solo precisa un aporte de energía que emplea para medir el tiempo.
· Un sistema aislado:es cuando no existe el intercambio ni de masa y energía con los alrededores; ¿Cómo encontrarlo si no podemos interactuar con él?. Sin embargo un termo lleno de comida caliente es una aproximación, ya que el envase no permite el intercambio de materia e intenta impedir que la energía (calor)salga de él.
Medio externo
Se llama medio externo o ambiente a todo aquello que no está en el sistema pero que puede influir en él. Por ejemplo, consideremos una taza con agua, que está siendo calentada por un mechero. Consideremos un sistema formado por la taza y el agua, entonces el medio está formado por el mechero, el aire, etc.
Equilibrio térmico
Toda sustancia por encima de los 0º Kelvin (-273.15º Centígrados) emite calor. Si 2 sustancias en contacto se encuentran a diferente temperatura, una de ellas emitirá más calor y calentará a la más fría. El equilibrio térmico se alcanza cuando ambas emiten, y reciben la misma cantidad de calor, lo que iguala su temperatura.
· Nota: estrictamente sería la misma cantidad de calor por gramo, ya que una mayor cantidad de sustancia emite más calor a la misma temperatura.
Variables termodinámicas
Las variables que tienen relación con el estado interno de un sistema, se llaman variables termodinámicas o coordenadas termodinámicas, y entre ellas las más importantes en el estudio de la termodinámica son:
· la masa
· el volumen
· la densidad
· la presión
· la temperatura
Estado de un sistema
Un sistema que puede describirse en función de coordenadas termodinámicas se llama sistema termodinámico y la situación en la que se encuentra definido por dichas coordenadas se llama estado del sistema.
Equilibrio térmico
Un estado en el cual dos coordenadas termodinámicas independientes X e Y permanecen constantes mientras no se modifican las condiciones externas se dice que se encuentra en equilibrio térmico. Si dos sistemas se encuentran en equilibrio térmico se dice que tienen la misma temperatura. Entonces se puede definir la temperatura como una propiedad que permite determinar si un sistema se encuentra o no en equilibrio térmico con otro sistema.
El equilibrio térmico se presenta cuando dos cuerpos con temperaturas diferentes se ponen en contacto, y el que tiene mayor temperatura cede calor al que tiene más baja, hasta que ambos alcanzan la misma temperatura.
Algunas definiciones útiles en termodinámica son las siguientes.
Foco térmico
Un foco térmico es un sistema que puede entregar y/o recibir calor, pero sin cambiar su temperatura.
Contacto térmico
Se dice que dos sistema están en contacto térmico cuando puede haber transferencia de calor de un sistema a otro.
Procesos termodinámicos
Se dice que un sistema pasa por un proceso termodinámico, o transformación termodinámica, cuando al menos una de las coordenadas termodinámicas no cambia. Los procesos más importantes son:
· Procesos isotérmicos: son procesos en los que la temperatura no cambia.
· Procesos isobáricos: son procesos en los cuales la presión no varía.
· Procesos isócoros: son procesos en los que el volumen permanece constante.
· Procesos adiabáticos: son procesos en los que no hay transferencia de calor alguna.
Por ejemplo, dentro de un termo donde se echan agua caliente y cubos de hielo, ocurre un proceso adiabático, ya que el agua caliente se empezará a enfriar debido al hielo, y al mismo tiempo el hielo se empezará a derretir hasta que ambos estén en equilibrio térmico, sin embargo no hubo transferencia de calor del exterior del termo al interior por lo que se trata de un proceso adiabático.
Rendimiento termodinámico o eficiencia
Un concepto importante en la ingeniería térmica es el de rendimiento. El rendimiento de una máquina térmica se define como:
donde, dependiendo del tipo de máquina térmica, estas energías serán el calor o el trabajo que se transfieran en determinados subsistemas de la máquina.
Teorema de Carnot
Nicolas Léonard Sadi Carnot en 1824 demostró que el rendimiento de alguna máquina térmica que tuviese la máxima eficiencia posible (a las que en la actualidad se denotan con su nombre) y que operase entre dos termostatos (focos con temperatura constante), dependería sólo de las temperaturas de dichos focos. Por ejemplo, el rendimiento para un motor térmico de Carnot viene dado por:
donde Tc y Th son las temperaturas del termostato frío y del termostato caliente, respectivamente, medidas en Kelvin.
Este rendimiento máximo es el correspondiente al de una máquina térmica reversible, la cual es sólo una idealización, por lo que cualquier máquina térmica construida tendrá un rendimiento menor que el de una máquina reversible operando entre los mismos focos.
Dilatación térmica
La dilatación térmica corresponde al efecto de que las sustancias se "agrandan" al aumentar la temperatura. En objetos sólidos, la dilatación térmica produce un cambio en las dimensiones lineales de un cuerpo, mientras que en el caso de líquidos y gases, que no tienen forma permanente, la dilatación térmica se manifiesta en un cambio en su volumen.
Dilatación lineal
Consideremos primero la dilatación térmica de un objeto sólido, cuyas dimensiones lineales se pueden representar por l0 , y que se dilata en una cantidad ΔL. Experimentalmente se ha encontrado que para casi todas las sustancias y dentro de los límites de variación normales de la temperatura, la dilatación lineal ΔL es directamente proporcional al tamaño inicial l0 y al cambio en la temperatura Δt, es decir:
donde
Dilatación superficial
Es el mismo concepto que el de dilatación lineal salvo que se aplica a cuerpos a los que es aceptable y preferible considerarlos como regiones planas; por ejemplo, una plancha metálica. Al serle transmitida cierta cantidad de calor la superficie del objeto sufrirá un incremento de área: ΔA.
donde γ se llama coeficiente de dilatación superficial.
Dilatación volumétrica
La dilatación térmica de un líquido o un gas se observa como un cambio de volumen ΔV en una cantidad de sustancia de volumen V0, relacionado con un cambio de temperatura Δt. En este caso, la variación de volumen ΔV es directamente proporcional al volumen inicial V0 y al cambio de temperatura Δt, para la mayor parte de las sustancias y dentro de los límites de variación normalmente accesibles de la temperatura, es decir:
donde β se llama coeficiente de dilatación volumétrica, medida en la misma unidad que el coeficiente de dilatación lineal 2 alfa.
Se puede demostrar fácilmente usando el álgebra que:
Análogamente se puede obtener el coeficiente de dilatación superficial γ dado por:
3 PERIODO
SONIDO
Sonido
El sonido, en física, es cualquier fenómeno que involucre la propagación en forma de ondas elásticas (sean audibles o no), generalmente a través de un fluido (u otro medio elástico) que este generando el movimiento vibratorio de un cuerpo.
El sonido humanamente audible consiste en ondas sonoras consistentes en oscilaciones de la presión del aire, que son convertidas en ondas mecánicas en el oído humano y percibidas por el cerebro. La propagación del sonido es similar en los fluidos, donde el sonido toma la forma de fluctuaciones de presión. En los cuerpos sólidos la propagación del sonido involucra variaciones del estado tensional del medio.
Representación esquemática del oido. (Azul: ondas sonoras. Rojo: tímpano. Amarillo: Cóclea. Verde: células de receptores auditivos. Purpura: espectro de frecuencia de respuesta de lo oído. Naranja: impulso del nervio.)
La propagación del sonido involucra transporte de energía sin transporte de materia, en forma de ondas mecánicas que se propagan a través de la materia sólida, líquida o gaseosa. Como las vibraciones se producen en la misma dirección en la que se propaga el sonido, se trata de una onda longitudinal.
Física del sonido
La física del sonido es estudiada por la acústica, que trata tanto de la propagación de las ondas sonoras en los diferentes tipos de medios continuos como la interacción de estas ondas sonoras con los cuerpos físicos.
onda sinusoidal; Variación de frecuencia; Abajo podemos ver las frecuencias más altas. El eje horizontal representa el tiempo.
Propagación del sonido
Ciertas características de los fluidos y de los sólidos influyen en la onda de sonido. Es por eso que el sonido se propaga en los sólidos y en los líquidos con mayor rapidez que en los gases. En general cuanto mayor sea la compresibilidad (1/K) del medio tanto menor es la velocidad del sonido. También la densidad es un factor importante en la velocidad de propagación, en general a mayor sea la densidad (ρ), a igualdad de todo lo demás, tanto menor es la velocidad de la propagación del sonido. La velocidad del sonido se relaciona con esas magnitudes mediante:
En los gases, la temperatura influye tanto la compresibilidad como la densidad, de tal manera que el factor de importancia suele ser la temperatura misma.
Para que el sonido se transmita se necesita que las moléculas vibren en torno a sus posiciones de equilibrio.
En algunas zonas de las moléculas de aire, al vibrar se juntan (zonas de compresion)y en otras zonas se alejan (zonas de rarefaccion),esta alteracion de las moléculas de aire es lo que produce el sonido.
Magnitudes físicas del sonido
Como todo movimiento ondulatorio, el sonido puede representarse como una suma de curvas sinusoides con un factor de amplitud, que se pueden caracterizar por las mismas magnitudes y unidades de medida que a cualquier onda de frecuencia bien definida: Longitud de onda (λ), frecuencia (f) o inversa del período (T), amplitud que indica la cantidad de energía que contiene una señal sonora) y no hay que confundir amplitud con volumen o potencia acústica. Y finalmente cuando se considera la superposición de diferentes ondas es importante la fase que representa el retardo relativo en la posición de una onda con respecto a otra.
Sin embargo, un sonido complejo cualquiera no está caracterizado por los parámetros anteriores, ya que en general un sonido cualquiera es una combinación de ondas sonoras que difieren en los cinco parámetros anteriores. La caracterización de un sonido arbitrariamente complejo implica analizar tanto la energía transmitida como la distribución de dicha energía entre las diversas ondas componentes, para ello resulta útil investigar:
- Potencia acústica: El nivel de potencia acústica es la cantidad de energía radiada en forma de ondas por unidad de tiempo por una fuente determinada. La potencia acústica depende de la amplitud.
- Espectro de frecuencias: que permite conocer en qué frecuencias se transmite la mayor parte de la energía.
Velocidad del sonido
Artículo principal: Velocidad del sonido
- El sonido tiene una velocidad de 331,5 m/s cuando: la temperatura es de 0 °C, la presión atmosférica es de 1 atm (nivel del mar) y se presenta una humedad relativa del aire de 0 % (aire seco). Aunque depende muy poco de la presión del aire.
- La velocidad del sonido depende del tipo de material. Cuando el sonido se desplaza en los sólidos tiene mayor velocidad que en los líquidos, y en los líquidos es más veloz que en los gases. Esto se debe a que las partículas en los sólidos están más cercanas.
U.S. Navy F/A-18 Avión rompiendo la barrera del sonido.
Comportamiento de las ondas de sonido a diferentes velocidades
La velocidad del sonido se puede calcular en relación a la temperatura de la siguiente manera:
Donde:
Si la temperatura ambiente es de 15 °C, la velocidad de propagación del sonido es 340 m/s (1224 km/h ). Este valor corresponde a 1 MACH.
Reverberación
La reverberación es la suma total de las reflexiones del sonido que llegan al lugar del oyente en diferentes momentos del tiempo. Auditivamente se caracteriza por una prolongación, a modo de "colasonora", que se añade al sonido original. La duración y la coloración tímbrica de esta cola dependen de: La distancia entre el oyente y la fuente sonora; la naturaleza de las superficies que reflejan el sonido. En situaciones naturales hablamos de sonido directo para referirnos al sonido que se transmite directamente desde la fuente sonora hasta nosotros (o hasta el mecanismo de captación que tengamos). Por otra parte, el sonido reflejado es el que percibimos después de que haya rebotado en las superficies que delimitan el recinto acústico, o en los objetos que se encuentren en su trayectoria. Evidentemente, la trayectoria del sonido reflejado siempre será más larga que la del sonido directo, de manera que -temporalmente- escuchamos primero el sonido seco, y unos instantes más tarde escucharemos las primeras reflexiones (early reflections); a medida que transcurre el tiempo las reflexiones que nos llegan son cada vez de menor intensidad, hasta que desparecen. Nuestra sensación, no obstante, no es la de escuchar sonidos separados, ya que el cerebro los integra en un único precepto, siempre que las reflexiones lleguen con una separación menor de unos 50 milisegundos. Esto es lo que se denomina efecto Haas o efecto de precedencia.
Resonancia
Es el fenómeno que se produce cuando los cuerpos vibran con la misma frecuencia, uno de los cuales se puso a vibrar al recibir las frecuencias del otro. Para entender el fenómeno de la resonancia existe un ejemplo muy sencillo, Supóngase que se tiene un tubo con agua y muy cerca de él (sin éstos en contacto) tenemos un diapasón, si golpeamos el diapasón con un metal, mientras echan agua en el tubo, cuando el agua alcance determinada altura el sonido será mas fuerte; esto se debe a que la columna de agua contenida en el tubo se pone a vibrar con la misma frecuencia que la que tiene el diapasón, lo que evidencia por qué las frecuencias se refuerzan y en consecuencia aumenta la intensidad del sonido. Un ejemplo podria ser el efecto de afinar las cuerdas de la guitarra, puesto que al afinar, lo que se hace es igualar las frecuencias, es decir poner en resnancia el sonido de las cuerdas.
Características o cualidades del sonido
Las cuatro cualidades básicas del sonido son:
- La altura: viene determinada por la frecuencia fundamental de las ondas sonoras (es lo que permite distinguir entre sonidos graves, agudos o medios) medida en ciclos por segundo o hercios (Hz).
Para que los humanos podamos percibir un sonido, éste debe estar comprendido entre el rango de audición de 20 y 20.000 Hz. Por debajo de este rango tenemos los infrasonidos y por encima los ultrasonidos. A esto se le denomina rango de frecuencia audible. Cuanta más edad se tiene, este rango va reduciéndose tanto en graves como en agudos.
Véase también: Tono y altura (música)
- La intensidad: es la cantidad de energía acústica que contiene un sonido. La intensidad viene determinada por la potencia, que a su vez está determinada por la amplitud y nos permite distinguir si el sonido es fuerte o débil.
Los sonidos que percibimos deben superar el umbral auditivo (0 dB) y no llegar al umbral de dolor (140 dB). Esta cualidad la medimos con el sonómetro y los resultados se expresan en decibelios (dB) en honor al científico e inventor Alexander Graham Bell.
Véase también: Intensidad de sonido y sonoridad
En música se escriben así: ``piano pianissimo´´(ppp) mas suave que pianissimo, ``Pianissimo´´ (pp) Muy suave, ``Piano´´ (p) suave, ``Mezzo Piano´´ (mp) medio suave, ``Mezzo Forte´´ (mf) medio fuerte, ``Forte´´ (f) fuerte, ``Fortissimo´´ (ff) Muy fuerte, ``forte fortissimo´(fff) mas fuerte que fortissimo.
- El timbre: es la cualidad que confiere al sonido los armónicos que acompañan a la frecuencia fundamental.
Esta cualidad es la que permite distinguir dos sonidos, por ejemplo, entre la misma nota (tono) con igual intensidad producida por dos instrumentos musicales distintos. Se define como la calidad del sonido. cada cuerpo sonoro vibra de una forma distinta. Las diferencias se dan no solamente por la naturaleza del cuerpo sonoro (madera, metal, piel tensada, etc), sino también por la manera de hacerlo sonar (golpear, frotar, rascar). Una misma nota suena distinta si la toca una flauta, un violín, una trompeta… cada instrumento tiene un timbre que lo identifica o lo diferencia de los demás. Con la voz sucede lo mismo. El sonido dado por un hombre, una mujer, un/a niño/a tienen distinto timbre. El timbre nos permitirá distinguir si la voz es áspera,dulce, ronca o aterciopelada. También influye en la variación del timbre la calidad del material que se utilice. Así pues, el sonido será claro, sordo, agradable o molesto.
- La duración: es la cualidad que determina el tiempo de vibración de un objeto. Por ejemplo, podemos escuchar sonidos largos, cortos, muy cortos, etc. Es el tiempo durante el cual se mantiene un sonido, está determinada por la longitud, que indica el tamaño de una onda, que es la distancia entre el principio y el final de una onda completa (ciclo); según esto podemos decir que por duración los sonidos pueden ser largos o cortos
Óptica
Refracción en distintos medios.
La óptica es la rama de la física que estudia el comportamiento de la luz, sus características y sus manifestaciones. Abarca el estudio de la reflexión, la refracción, las interferencias, la difracción, la formación de imágenes y la interacción de la luz con la materia.
| |
Desarrollo histórico
Reflexión y refracción
En la Edad Antigua se conocía la propagación rectilínea de la luz y la reflexión y refracción. Dos filósofos y matemáticos griegos escribieron tratados sobre óptica: Empédocles y Euclides.
Ya en la Edad Moderna René Descartes consideraba la luz como una onda de presión transmitida a través de un medio elástico perfecto (el éter) que llenaba el espacio. Atribuyó los diferentes colores a movimientos rotatorios de diferentes velocidades de las partículas en el medio.
La ley de la refracción fue descubierta experimentalmente en 1621 por Willebrord Snell. En 1657 Pierre de Fermat anunció el principio del tiempo mínimo y a partir de él dedujo la ley de la refracción.
En la Refraccion el rayo de luz que se atraviesa de un medio transparente a otro, se denomina rayo incidente ; el rayo de luz que se desvía al ingresar al segundo medio transpartente se denomina rayo refractado ; el ángulo en que el rayo incidente, al ingresar al segundo medio, forma con la perpendicular al mismo, se denomina ángulo de incidencia; el ángulo que el rayo incidente forma con el rayo refractado, al desviarse, se denomina ángulo de refraccion
Interferencia y difracción
Interferencia (esquema simulado).
Robert Boyle y Robert Hooke y a dicha teoria la propuso Isaac Newton, los demas descubrieron, de forma independiente, el fenómeno de la interferencia conocido como anillos de Newton. Hooke también observó la presencia de luz en la sombra geométrica, debido a la difracción, fenómeno que ya había sido descubierto por Francesco Maria Grimaldi. Hooke pensaba que la luz consistía en vibraciones propagadas instantáneamente a gran velocidad y creía que en un medio homogéneo cada vibración generaba una esfera que crece de forma regular. Con estas ideas, Hooke intentó explicar el fenómeno de la refracción e interpretar los colores. Sin embargo, los estudios que aclararon las propiedades de los colores fueron desarrollados por Newton que descubrió en 1666 que la luz blanca puede dividirse en sus colores componentes mediante un prisma y encontró que cada color puro se caracteriza por una refractabilidad específica. Las dificultades que la teoría ondulatoria se encontraba para explicar la propagación rectilínea de la luz y la polarización (descubierta por Huygens) llevaron a Newton a inclinarse por la teoría corpuscular, que supone que la luz se propaga desde los cuerpos luminosos en forma de partículas.
Dispersión de la luz en dos prismas de distinto material.
En la época en que Newton publicó su teoría del color, no se conocía si la luz se propagaba instantáneamente o no. El descubrimiento de la velocidad finita de la luz lo realizó en 1675 Olaf Römer a partir de observaciones de los eclipses de Júpiter.
Primeras teorías y otros fenómenos
Por su parte, Hooke fue de los primeros defensores de la teoría ondulatoria que fue extendida y mejorada por Christian Huygens que enunció el principio que lleva su nombre, según el cual cada punto perturbado por una onda puede considerarse como el centro de una nueva onda secundaria, la envolvente de estas ondas secundarias define el frente de onda en un tiempo posterior. Con la ayuda de este principio, consiguió deducir las leyes de la reflexión y refracción. También pudo interpretar la doble refracción del espato de Islandia, fenómeno descubierto en 1669 por Erasmus Bartholinus, gracias a la suposición de la transmisión de una onda secundaria elipsoidal, además de la principal de forma esférica. Durante esta investigación Huygens descubrió la polarización. Cada uno de los dos rayos emergentes de la refracción del espato de Islandia puede extinguirse haciéndolo pasar por un segundo cristal del mismo material, rotado alrededor de un eje con la misma dirección que el rayo luminoso. Fue sin embargo Newton el que consiguió interpretar este fenómeno, suponiendo que los rayos tenían “lados”, propiedad que le pareció una objeción insuperable para la teoría ondulatoria de la luz, ya que en aquella época los científicos sólo estaban familiarizados con las ondas longitudinales.
El prestigio de Newton, indujo el rechazo por parte de la comunidad científica de la teoría ondulatoria, durante casi un siglo, con algunas excepciones, como la de Leonhard Euler. No fue hasta el comienzo del Siglo XIX en que nuevos progresos llevaron a la aceptación generalizada de la teoría ondulatoria. El primero de ellos fue la enunciación por Thomas Young en 1801, del principio de interferencia y la explicación de los colores de películas delgadas. Sin embargo, como fueron expresadas en términos cualitativos no consiguieron reconocimiento generalizado. En esta misma época Étienne-Louis Malus describió la polarización por reflexión, en 1808 observó la reflexión del Sol desde una ventana a través de un cristal de espato de Islandia y encontró que las dos imágenes birrefringentes variaban sus intensidades relativas al rotar el cristal, aunque Malus no intentó interpretar el fenómeno.
Las ondas luminosas como ondas electromagnéticas
Mientras tanto, las investigaciones en electricidad y magnetismo se desarrollaban culminando en los descubrimientos de Michael Faraday. James Clerk Maxwell consiguió resumir todo el conocimiento previo en este campo en un sistema de ecuaciones que establecían la posibilidad de ondas electromagnéticas con una velocidad que podía calcularse a partir de los resultados de medidas eléctricas y magnéticas. Cuando Rudolph Kohlrausch y Wilhelm Weber realizaron estas medidas, la velocidad obtenida resultó no coincidir con la velocidad de la luz. Esto llevó a Maxwell a especular que las ondas luminosas eran electromagnéticas, lo que se verificó experimentalmente en 1888 por Heinrich Hertz.
La teoría cuántica
Pero, incluso la teoría electromagnética de la luz es incapaz de explicar el proceso de emisión y absorción. Las leyes que rigen estos últimos procesos comenzaron a dilucidarse con Joseph von Fraunhofer que descubrió entre 1814-1817 líneas oscuras en el espectro solar. La interpretación como líneas de absorción de las mismas se dio por primera vez en 1861 sobre la base de los experimentos de Robert Wilhelm Bunsen y Gustav Kirchhoff. La luz de espectro continuo del Sol, al pasar por los gases de la atmósfera solar, pierde por absorción, justamente aquellas frecuencias que los gases que la componen emiten. Este descubrimiento marca el inicio del análisis espectral que se base en que cada elemento químico tiene un espectro de líneas característico. El estudio de estos espectros no pertenece exclusivamente al campo de la Óptica ya que involucra la mecánica de los propios átomos y las leyes de las líneas espectrales revelan información, no tanto sobre la naturaleza de la luz como la estructura de las partículas emisoras.
Fizeau demostró después esta convección experimentalmente con la ayuda de flujos de agua. El efecto del movimiento de la fuente luminosa fue estudiado por Christian Doppler, que formuló el principio de su mismo nombre. Hertz fue el primero en intentar generalizar las leyes de Maxwell a objetos en movimiento. Su formulación, sin embargo, entraba en conflicto con algunos experimentos. Otro investigador en este campo fue Hendrik Antoon Lorentz que supuso el éter en estado de reposo absoluto como portador del campo electromagnético y dedujo las propiedades de los cuerpos materiales a partir de la interacción de partículas eléctricas elementales (los electrones). Pudo deducir el coeficiente de convección de Fresnel a partir de su teoría, así como el resto de fenómenos conocidos en 1895. Sin embargo con la mejora de la precisión en la determinación de caminos ópticos, obtenida gracias al interferómetro de Albert Abraham Michelson con el que se descubrió una anomalía: resultó imposible demostrar la existencia de un corrimiento del éter requerida por la teoría del éter estacionario. Esta anomalía fue resuelta por Albert Einstein en 1905 con su teoría especial de la relatividad.
Teorías científicas
Desde el punto de vista físico, la luz es una onda electromagnética. Según el modelo utilizado para la luz, se distingue entre las siguientes ramas, por orden creciente de precisión (cada rama utiliza un modelo simplificado del empleado por la siguiente):
- La óptica geométrica: Trata a la luz como un conjunto de rayos que cumplen el principio de Fermat. Se utiliza en el estudio de la transmisión de la luz por medios homogéneos (lentes, espejos), la reflexión y la refracción.
- La óptica electromagnética u óptica física: Considera a la luz como una onda electromagnética, explicando así la difracción, interferenciareflectancia y transmitancia, y los fenómenos de polarización y anisotropía.
- La óptica cuántica: Estudio cuántico de la interacción entre las ondas electromagnéticas y la materia, en el que la dualidad onda-corpúsculo desempeña un papel crucial.
4 PERIODO
Electricidad
La electricidad (del griego elektron, cuyo significado es ámbar) es un fenómeno físico cuyo origen son las cargas eléctricas y cuya energía se manifiesta en fenómenos mecánicos, térmicos, luminosos y químicos, entre otros.[1] [2] [3] [4] Se puede observar de forma natural en fenómenos atmosféricos, por ejemplo los rayos, que son descargas eléctricas producidas por la transferencia de energía entre la ionosfera y la superficie terrestre (proceso complejo del que los rayos solo forman una parte). Otros mecanismos eléctricos naturales los podemos encontrar en procesos biológicos, como el funcionamiento del sistema nervioso. Es la base del funcionamiento de muchas máquinas, desde pequeños electrodomésticos hasta sistemas de gran potencia como los trenes de alta velocidad, y asimismo de todos los dispositivos electrónicos.[5] Además es esencial para la producción de sustancias químicas como el aluminio y el cloro.
También se denomina electricidad a la rama de la física que estudia las leyes que rigen el fenómeno y a la rama de la tecnología que la usa en aplicaciones prácticas. Desde que, en 1831, Faraday descubriera la forma de producir corrientes eléctricas por inducción —fenómeno que permite transformar energía mecánica en energía eléctrica— se ha convertido en una de las formas de energía más importantes para el desarrollo tecnológico debido a su facilidad de generación y distribución y a su gran número de aplicaciones.
La electricidad en una de sus manifestaciones naturales: el relámpago.
La electricidad es originada por las cargas eléctricas, en reposo o en movimiento, y las interacciones entre ellas. Cuando varias cargas eléctricas están en reposo relativo se ejercen entre ellas fuerzas electrostáticas. Cuando las cargas eléctricas están en movimiento relativo se ejercen también fuerzas magnéticas. Se conocen dos tipos de cargas eléctricas: positivas y negativas. Los átomos que conforman la materia contienen partículas subatómicas positivas (protones), negativas (electrones) y neutras (neutrones). También hay partículas elementales cargadas que en condiciones normales no son estables, por lo que se manifiestan sólo en determinados procesos como los rayos cósmicos y las desintegraciones radiactivas.[6]
La electricidad y el magnetismo son dos aspectos diferentes de un mismo fenómeno físico, denominado electromagnetismo, descrito matemáticamente por las ecuaciones de Maxwell. El movimiento de una carga eléctrica produce un campo magnético, la variación de un campo magnético produce un campo eléctrico y el movimiento acelerado de cargas eléctricas genera ondas electromagnéticas (como en las descargas de rayos que pueden escucharse en los receptores de radio AM).[7]
Debido a las crecientes aplicaciones de la electricidad como vector energético, como base de las telecomunicaciones y para el procesamiento de información, uno de los principales desafíos contemporáneos es generarla de modo más eficiente y con el mínimo impacto ambiental.
Historia de la electricidad
Michael Faraday relacionó el magnetismo con la electricidad.
Configuración electrónica del átomo de cobre. Sus propiedades conductoras se deben a la facilidad de circulación que tiene su electrón más exterior (4s).
La historia de la electricidad como rama de la física comenzó con observaciones aisladas y simples especulaciones o intuiciones médicas, como el uso de peces eléctricos en enfermedades como la gota y el dolor de cabeza, u objetos arqueológicos de interpretación discutible (la batería de Bagdad).[8] Tales de Mileto fue el primero en observar los fenómenos eléctricos cuando, al frotar una barra de ámbar con un paño, notó que la barra podía atraer objetos livianos.[2] [4]
Mientras la electricidad era todavía considerada poco más que un espectáculo de salón, las primeras aproximaciones científicas al fenómeno fueron hechas en los siglos XVII y XVIII por investigadores sistemáticos como Gilbert, von Guericke, Henry Cavendish, Du Fay, van Musschenbroek y Watson. Estas observaciones empiezan a dar sus frutos con Galvani, Volta, Coulomb y Franklin, y, ya a comienzos del siglo XIX, con Ampère, Faraday y Ohm. No obstante, el desarrollo de una teoría que unificara la electricidad con el magnetismo como dos manifestaciones de un mismo fenómeno no se alcanzó hasta la formulación de las ecuaciones de Maxwell (1861-1865).
Los problemas de almacenamiento de electricidad, su transporte a largas distancias y la autonomía de los aparatos móviles alimentados por electricidad todavía no han sido resueltos de forma eficiente. Asimismo, la multiplicación de todo tipo de aplicaciones prácticas de la electricidad ha sido —junto con la proliferación de los motores alimentados con destilados del petróleo— uno de los factores de la crisis energética de comienzos del siglo XXI. Esto ha planteado la necesidad de nuevas fuentes de energía, especialmente las renovables.
Electrostática y electrodinámica
Benjamin Franklin experimentando con un rayo.
La electrostática es la rama de la física que estudia los fenómenos resultantes de la distribución de cargas eléctricas en reposo, esto es, del campo electrostático.[1] Los fenómenos electrostáticos son conocidos desde la antigüedad. Los griegos del siglo V a. C. ya sabían que al frotar ciertos objetos estos adquirían la propiedad de atraer cuerpos livianos. En 1785 el físico francés Charles Coulomb publicó un tratado donde cuantificaba las fuerzas de atracción y repulsión de cargas eléctricas estáticas y describía, por primera vez, cómo medirlas usando una balanza de torsión. Esta ley se conoce en su honor con el nombre de ley de Coulomb.
Durante el siglo XIX se generalizaron las ideas de Coulomb, se introdujo el concepto de campo eléctrico y potencial eléctrico, y se formuló la ecuación de Laplace, que determina el potencial eléctrico en el caso electrostático. Se produjeron también avances significativos en la electrodinámica, que estudia los fenómenos eléctricos producidos por cargas en movimiento. En estos fenómenos aparecen asimismo campos magnéticos, que pueden ser ignorados en el caso de circuitos con corriente eléctrica estacionaria, pero deben ser tomados en cuenta en el caso de circuitos de corriente alterna.
Finalmente, en 1864 el físico escocés James Clerk Maxwell unificó las leyes de la electricidad y del magnetismo en un sistema de cuatro ecuaciones en derivadas parciales conocidas como ecuaciones de Maxwell. Con ellas se desarrolló el estudio de los fenómenos eléctricos y magnéticos, mostrando que ambos tipos son manifestaciones del único fenómeno del electromagnetismo, que incluía también a las ondas electromagnéticas.[10]
Carga eléctrica
Interacciones entre cargas de igual y distinta naturaleza.
La carga eléctrica es una propiedad que poseen algunas partículas subatómicas y que se manifiesta mediante las fuerzas observadas entre ellas. La materia cargada eléctricamente es influida por los campos electromagnéticos siendo, a su vez, generadora de ellos. La interacción entre carga y campo eléctrico es la fuente de una de las cuatro interacciones fundamentales, la interacción electromagnética. La partícula que transporta la información de estas interacciones es el fotón. Estas fuerzas son de alcance infinito y no se manifiestan de forma inmediata, sino que tardan un tiempo
Las dos partículas elementales cargadas que existen en la materia y que se encuentran de forma natural en la Tierra son el electrón y el protón, aunque pueden encontrarse otras partículas cargadas procedentes del exterior (como los muones o los piones). Todos los hadrones (como el protón y el neutrón) además, están constituidos por partículas cargadas más pequeñas llamadas quarks, sin embargo estas no pueden encontrarse libres en la naturaleza.
Cuando un átomo gana o pierde un electrón, queda cargado eléctricamente. A estos átomos cargados se les denomina iones.
Los trabajos de investigación realizados en la segunda mitad del siglo XIX por el premio Nobel de Física Joseph John Thomson, que le llevaron en 1897 a descubrir el electrón, y de Robert Millikan a medir su carga, determinaron la naturaleza discreta de la carga eléctrica.[11]
En el Sistema Internacional de Unidades la unidad de carga eléctrica se denomina culombio (símbolo C) y se define como la cantidad de carga que pasa por una sección en 1 segundo cuando la corriente eléctrica es de 1 amperio. Se corresponde con la carga de 6,24 × 1018 electrones aproximadamente. La carga más pequeña que se encuentra en la naturaleza es la carga del electrón (que es igual en magnitud a la del protón y de signo opuesto): e = 1,602 × 10-19 C (1 eV en unidades naturales).
Fuerza entre cargas
Coulomb fue el primero en determinar, en 1785, el valor de las fuerzas ejercidas entre cargas eléctricas.[12] Usando una balanza de torsión determinó que la magnitud de la fuerza con que se atraen o repelen dos cargas eléctricas puntuales en reposo es directamente proporcional al producto de las magnitudes de cada carga e inversamente proporcional al cuadrado de la distancia que las separa.[13]
donde q1 y q2 son las cargas, r es la distancia que las separa y la constante de proporcionalidad k depende del sistema de unidades.
Una propiedad fundamental de estas fuerzas es el principio de superposición que establece que, cuando hay varias cargas qj, la fuerza resultante sobre una cualquiera de ellas es la suma vectorial de las fuerzas ejercidas por todas las demás. La fuerza
donde
Cuando las cargas están en movimiento aparecen también fuerzas magnéticas. La forma más sencilla de describir el fenómeno es con el uso de campos eléctrico (
En el caso general de cargas distribuidas de manera arbitraria, no es posible escribir expresiones explícitas de las fuerzas. Hay que resolver las ecuaciones de Maxwell, calcular los campos y derivar las fuerzas a partir de las expresiones de la energía electromagnética.[14]
Campos eléctrico y magnético
Líneas de campo de dos cargas eléctricas de igual valor absoluto y signos opuestos.
Los campos eléctrico
Se obtiene una descripción sencilla de estos campos dando las líneas de fuerza o de campo, que son curvas tangentes a la dirección de los vectores de campo. En el caso del campo eléctrico, esta línea corresponde a la trayectoria que seguiría una carga sin masa que se encuentre libre en el seno del campo y que se deja mover muy lentamente.
Normalmente la materia es neutra, es decir, su carga eléctrica neta es nula. Sin embargo, en su interior tiene cargas positivas y negativas y se localizan corrientes eléctricas en los átomos y moléculas, lo cual da lugar a campos eléctricos y magnéticos. En el caso de dos cargas opuestas se generan campos dipolares, como el representado en la figura de la derecha, donde las cargas de igual magnitud y signos opuestos están muy cercanas entre sí. Estos campos dipolares son la base para describir casos tan fundamentales como los enlaces iónicos en las moléculas, las características como disolvente del agua, o el funcionamiento de las antenas entre otros.
Los campos eléctricos y magnéticos se calculan resolviendo las ecuaciones de Maxwell, siendo magnitudes inseparables en general.
Electromagnetismo
Fluido ferroso que se agrupa cerca de los polos de un imán o magneto.
Se denomina electromagnetismo a la teoría física que unifica los fenómenos eléctricos y magnéticos en una sola teoría, cuyos fundamentos son obra de Faraday, pero fueron formulados por primera vez de modo completo por Maxwell. La formulación consiste en cuatro ecuaciones diferenciales vectoriales, conocidas como ecuaciones de Maxwell, que relacionan el campo eléctrico, el campo magnético y sus respectivas fuentes materiales: densidad de carga eléctrica, corriente eléctrica, desplazamiento eléctrico y corriente de desplazamiento.
A principios del siglo XIX Ørsted encontró evidencia empírica de que los fenómenos magnéticos y eléctricos estaban relacionados. A partir de esa base Maxwell unificó en 1861 los trabajos de físicos como Ampère, Sturgeon, Henry, Ohm y Faraday, en un conjunto de ecuaciones que describían ambos fenómenos como uno solo, el fenómeno electromagnético.[11]
Se trata de una teoría de campos; las explicaciones y predicciones que provee se basan en magnitudes físicas vectoriales y son dependientes de la posición en el espacio y del tiempo. El electromagnetismo describe los fenómenos físicos macroscópicos en los que intervienen cargas eléctricas en reposo y en movimiento, usando para ello campos eléctricos y magnéticos y sus efectos sobre la materia. Para la descripción de fenómenos a nivel molecular, atómico o corpuscular, es necesario emplear las expresiones clásicas de la energía electromagnética conjuntamente con las de la mecánica cuántica.
| ||||||||||||
Las ecuaciones de Maxwell describen los campos eléctricos y magnéticos como manifestaciones de un solo campo electromagnético. Además, explican la naturaleza ondulatoria de la luz como parte de una onda electromagnética.[15] Al contar con una teoría unificada consistente que describiera estos dos fenómenos antes separados, se pudieron realizar varios experimentos novedosos e inventos muy útiles, como el generador de corriente alterna inventado por Tesla.[16] El éxito predictivo de la teoría de Maxwell y la búsqueda de una interpretación coherente con el experimento de Michelson y Morley llevó a Einstein a formular la teoría de la relatividad, que se apoyaba en algunos resultados previos de Lorentz y Poincaré.
Esta unificación es fundamental para describir las relaciones que existen entre los campos eléctricos variables que se utilizan en la vida diaria —como la corriente alterna utilizada en las redes eléctricas domésticas— y los campos magnéticos que inducen. Entre otras aplicaciones técnicas, se utiliza para el cálculo de antenas de telecomunicaciones y de circuitos eléctricos o electrónicos en los que hay campos eléctricos y magnéticos variables que se generan mutuamente.
Potencial y tensión eléctrica
Representación esquemática de una resistencia R por la que circula una intensidad de corriente I debido a la diferencia de potencial entre los puntos A y B.
Se denomina tensión eléctrica o voltaje a la energía potencial por unidad de carga que está asociada a un campo electrostático. Su unidad de medida en el SI son los voltios.[17] A la diferencia de energía potencial entre dos puntos se le denomina voltaje. Esta tensión puede ser vista como si fuera una "presión eléctrica" debido a que cuando la presión es uniforme no existe circulación de cargas y cuando dicha "presión" varía se crea un campo eléctrico que a su vez genera fuerzas en las cargas eléctricas. Matemáticamente, la diferencia de potencial eléctrico entre dos puntos A y B es la integral de línea del campo eléctrico:
Generalmente se definen los potenciales referidos a un punto inicial dado. A veces se escoge uno situado infinitamente lejos de cualquier carga eléctrica. Cuando no hay campos magnéticos variables, el valor del potencial no depende de la trayectoria usada para calcularlo, sino únicamente de sus puntos inicial y final. Se dice entonces que el campo eléctrico es conservativo. En tal caso, si la carga eléctrica q tan pequeña que no modifica significativamente
Otra de las formas de expresar la tensión entre dos puntos es en función de la intensidad de corriente y la resistencia existentes entre ellos. Así se obtiene uno de los enunciados de la ley de Ohm:
Cuando por dos puntos de un circuito puede circular una corriente eléctrica, la polaridad de la caída de tensión viene determinada por la dirección convencional de la misma; esto es, del punto de mayor potencial al de menor. En el caso de campos no estacionarios el campo eléctrico no es conservativo y la integral de línea del campo eléctrico contiene efectos provenientes de los campos magnéticos variables inducidos o aplicados, que corresponden a una fuerza electromotriz inducida (f.e.m.), que también se mide en voltios.
La fuerza electromotriz, cuyo origen es la inyección de energía externa al circuito, permite mantener una diferencia de potencial entre dos puntos de un circuito abierto o de producir una corriente eléctrica en un circuito cerrado. Esta energía puede representarse por un campo de origen externo cuya circulación (integral de línea sobre una trayectoria cerrada C)
Corriente eléctrica
Relación existente entre la intensidad y la densidad de corriente.
Se denomina corriente eléctrica al flujo de carga eléctrica a través de un material sometido a una diferencia de potencial. Históricamente, se definió como un flujo de cargas positivas y se fijó el sentido convencional de circulación de la corriente como un flujo de cargas desde el polo positivo al negativo. Sin embargo, posteriormente se observó, gracias al efecto Hall, que en los metales los portadores de carga son electrones, con carga negativa, y se desplazan en sentido contrario al convencional.
A partir de la corriente eléctrica se definen dos magnitudes: la intensidad y la densidad de corriente. El valor de la intensidad de corriente que atraviesa un circuito es determinante para calcular la sección de los elementos conductores del mismo.
- La intensidad de corriente (I) en una sección dada de un conductor (s) se define como la carga eléctrica (Q) que atraviesa la sección en una unidad de tiempo (t):
- La densidad de corriente (j) es la intensidad de corriente que atraviesa una sección por unidad de superficie de la sección (S).
Corriente continua
Rectificador de corriente alterna en continua, con puente de Gratz. Se emplea cuando la tensión de salida tiene un valor distinto de la tensión de entrada.
Se denomina corriente continua (CC en español, en inglés DC, de Direct Current) al flujo de cargas eléctricas que no cambia de sentido con el tiempo. La corriente eléctrica a través de un material se establece entre dos puntos de distinto potencial. Cuando hay corriente continua, los terminales de mayor y menor potencial no se intercambian entre sí. Es errónea la identificación de la corriente continua con la corriente constante (ninguna lo es, ni siquiera la suministrada por una batería). Es continua toda corriente cuyo sentido de circulación es siempre el mismo, independientemente de su valor absoluto.
Su descubrimiento se remonta a la invención de la primera pila voltaica por parte del conde y científico italiano Alessandro Volta. No fue hasta los trabajos de Edison sobre la generación de electricidad, en las postrimerías del siglo XIX, cuando la corriente continua comenzó a emplearse para la transmisión de la energía eléctrica. Ya en el siglo XX este uso decayó en favor de la corriente alterna, que presenta menores pérdidas en la transmisión a largas distancias, si bien se conserva en la conexión de redes eléctricas de diferentes frecuencias y en la transmisión a través de cables submarinos.
Actualmente (2008) se está extendiendo el uso de generadores de corriente continua a partir de células fotoeléctricas que permiten aprovechar la energía solar.
Cuando es necesario disponer de corriente continua para el funcionamiento de aparatos electrónicos, se puede transformar la corriente alterna de la red de suministro eléctrico mediante un proceso, denominado rectificación, que se realiza con unos dispositivos llamados rectificadores, basados en el empleo de diodos semiconductores o tiristores (antiguamente, también de tubos de vacío).[21]
Corriente alterna
Onda senoidal.
Voltaje de las fases de un sistema trifásico. Entre cada una de las fases hay un desfase de 120º.
Esquema de conexión.
Conexión en triángulo y en estrella.
Se denomina corriente alterna (simbolizada CA en español y AC en inglés, de Alternating Current) a la corriente eléctrica en la que la magnitud y dirección varían cíclicamente. La forma de onda de la corriente alterna más comúnmente utilizada es la de una onda sinoidal.[22] En el uso coloquial, "corriente alterna" se refiere a la forma en la cual la electricidad llega a los hogares y a las empresas.
El sistema usado hoy en día fue ideado fundamentalmente por Nikola Tesla, y la distribución de la corriente alterna fue comercializada por George Westinghouse. Otros que contribuyeron al desarrollo y mejora de este sistema fueron Lucien Gaulard, John Gibbs y Oliver Shallenger entre los años 1881 y 1889. La corriente alterna superó las limitaciones que aparecían al emplear la corriente continua (CC), la cual constituye un sistema ineficiente para la distribución de energía a gran escala debido a problemas en la transmisión de potencia.
La razón del amplio uso de la corriente alterna, que minimiza los problemas de trasmisión de potencia, viene determinada por su facilidad de transformación, cualidad de la que carece la corriente continua. La energía eléctrica trasmitida viene dada por el producto de la tensión, la intensidad y el tiempo. Dado que la sección de los conductores de las líneas de transporte de energía eléctrica depende de la intensidad, se puede, mediante un transformador, modificar el voltaje hasta altos valores (alta tensión), disminuyendo en igual proporción la intensidad de corriente. Esto permite que los conductores sean de menor sección y, por tanto, de menor costo; además, minimiza las pérdidas por efecto Joule, que dependen del cuadrado de la intensidad. Una vez en el punto de consumo o en sus cercanías, el voltaje puede ser de nuevo reducido para permitir su uso industrial o doméstico de forma cómoda y segura.
Las frecuencias empleadas en las redes de distribución son 50 y 60 Hz. El valor depende del país.
Corriente trifásica
Se denomina corriente trifásica al conjunto de tres corrientes alternas de igual frecuencia, amplitud y valor eficaz que presentan una diferencia de fase entre ellas de 120°, y están dadas en un orden determinado. Cada una de las corrientes que forman el sistema se designa con el nombre de fase.
La generación trifásica de energía eléctrica es más común que la monofásica y proporciona un uso más eficiente de los conductores. La utilización de electricidad en forma trifásica es mayoritaria para transportar y distribuir energía eléctrica y para su utilización industrial, incluyendo el accionamiento de motores. Las corrientes trifásicas se generan mediante alternadores dotados de tres bobinas o grupos de bobinas, arrolladas en un sistema de tres electroimanes equidistantes angularmente entre sí.
Los conductores de los tres electroimanes pueden conectarse en estrella o en triángulo. En la disposición en estrella cada bobina se conecta a una fase en un extremo y a un conductor común en el otro, denominado neutro. Si el sistema está equilibrado, la suma de las corrientes de línea es nula, con lo que el transporte puede ser efectuado usando solamente tres cables. En la disposición en triángulo o delta cada bobina se conecta entre dos hilos de fase, de forma que un extremo de cada bobina está conectado con otro extremo de otra bobina.
El sistema trifásico presenta una serie de ventajas, tales como la economía de sus líneas de transporte de energía (hilos más finos que en una línea monofásica equivalente) y de los transformadores utilizados, así como su elevado rendimiento de los receptores, especialmente motores, a los que la línea trifásica alimenta con potencia constante y no pulsada, como en el caso de la línea monofásica.
Tesla fue el inventor que descubrió el principio del campo magnético rotatorio en 1882, el cual es la base de la maquinaria de corriente alterna. Él inventó el sistema de motores y generadores de corriente alterna polifásica que da energía al planeta.[23]
Corriente monofásica
Se denomina corriente monofásica a la que se obtiene de tomar una fase de la corriente trifásica y un cable neutro. En España y demás países que utilizan valores similares para la generación y trasmisión de energía eléctrica, este tipo de corriente facilita una tensión de 220/230 voltios, lo que la hace apropiada para que puedan funcionar adecuadamente la mayoría de electrodomésticos y luminarias que hay en las viviendas.
Desde el centro de transformación más cercano hasta las viviendas se disponen cuatro hilos: un neutro (N) y tres fases (R, S y T). Si la tensión entre dos fases cualesquiera (tensión de línea) es de 380 voltios, entre una fase y el neutro es de 220 voltios. En cada vivienda entra el neutro y una de las fases, conectándose varias viviendas a cada una de las fases y al neutro; esto se llama corriente monofásica. Si en una vivienda hay instalados aparatos de potencia eléctrica alta (aire acondicionado, motores, etc., o si es un taller o una empresa industrial) habitualmente se les suministra directamente corriente trifásica que ofrece una tensión de 380 voltios.
Circuitos
Ejemplo de circuito eléctrico.
En electricidad y electrónica se denomina circuito a un conjunto de componentes pasivos y activos interconectados entre sí por conductores de baja resistencia. El nombre implica que el camino de la circulación de corriente es cerrado, es decir, sale por un borne de la fuente de alimentación y regresa en su totalidad (salvo pérdidas accidentales) por el otro. En la práctica es difícil diferenciar nítidamente entre circuitos eléctricos y circuitos electrónicos. Las instalaciones eléctricas domiciliarias se denominan usualmente circuitos eléctricos, mientras que los circuitos impresos de los aparatos electrónicos se denominan por lo general circuitos electrónicos. Esto sugiere que los últimos son los que contienen componentes semiconductores, mientras que los primeros no, pero las instalaciones domiciliarias están incorporando crecientemente no sólo semiconductores sino también microprocesadores, típicos dispositivos electrónicos.
El comportamiento de los circuitos eléctricos que contienen solamente resistencias y fuentes electromotrices de corriente continua está gobernado por las Leyes de Kirchoff. Para estudiarlo, el circuito se descompone en mallas eléctricas, estableciendo un sistema de ecuaciones lineales cuya resolución brinda los valores de los voltajes y corrientes que circulan entre sus diferentes partes.
La resolución de circuitos de corriente alterna requiere la ampliación del concepto de resistencia eléctrica, ahora ampliado por el de impedancia para incluir los comportamientos de bobinas y condensadores. La resolución de estos circuitos puede hacerse con generalizaciones de las leyes de Kirchoff, pero requiere usualmente métodos matemáticos avanzados, como el de Transformada de Laplace, para describir los comportamientos transitorios y estacionarios de los mismos.
Fenómenos termoeléctricos
Sección de un termopar o termocupla.
Se denominan fenómenos termoeléctricos o termoelectricidad a tres fenómenos relacionados entre sí por las relaciones de Thomson, descubiertas por lord Kelvin:[24] el efecto Seebeck, el efecto Peltier y el calor de Thomson.
Cuando dos metales distintos a temperaturas diferentes se ponen en contacto formando una unión bimetálica, entre ambos lados de la unión se genera una fuerza electromotriz. Este fenómeno se denomina efecto Seebeck y es la base del funcionamiento de los termopares, un tipo de termómetro usado en el control del flujo de gas en dispositivos domésticos como cocinas, calefactores y calentadores de agua corriente.
Cuando se hace circular una corriente a través de una unión bimetálica, para mantener constante la temperatura de la unión hay que entregar o extraer calor, según sea el sentido de circulación. Este fenómeno, llamado efecto Peltier, tiene aplicación práctica en dispositivos de refrigeración pequeños, teniendo la ventaja, a diferencia de los refrigeradores basados en la compresión y descompresión de gases, de no tener partes móviles que se desgasten.
Es menos conocido el fenómeno denominado calor de Thomson, descubierto por lord Kelvin. Cuando fluye una corriente a través de un conductor homogéneo de sección transversal constante donde se ha establecido un gradiente de temperatura, para mantener invariable la distribución de temperatura hay que entregar o extraer calor del conductor.[25]
Pila voltaica
Esquema funcional de una pila eléctrica.
Se denomina ordinariamente pila eléctrica a un dispositivo que genera energía eléctrica mediante un proceso químico transitorio, tras el cual cesa su actividad y han de renovarse sus elementos constituyentes, puesto que sus características resultan alteradas durante su funcionamiento. Se trata por ello de un generador primario. La electricidad producida resulta accesible mediante dos terminales que tiene la pila, llamados polos, electrodos o bornes. Uno de ellos es el polo positivo o ánodo y el otro es el polo negativo o cátodo. En español es habitual llamarla así, mientras que a las pilas recargables o acumuladores se les suele llamar baterías.
La primera pila eléctrica fue dada a conocer al mundo por Volta en 1800, mediante una carta que envió al presidente de la Royal Society londinense, por tanto las pilas datan de los primeros tiempos de la electricidad. Aunque la apariencia de una pila sea simple, la explicación de su funcionamiento dista de serlo y motivó una gran actividad científica en los siglos XIX y XX, así como diversas teorías. La demanda creciente que tiene este producto en el mercado sigue haciendo de él objeto de investigación intensa.
El funcionamiento de una pila se basa en el potencial de contacto entre dos sustancias, mediado por un electrolito.[35] Cuando se necesita una corriente mayor que la que puede suministrar un elemento único, siendo su tensión en cambio la adecuada, se pueden añadir otros elementos en la conexión llamada en paralelo. La capacidad total de una pila se mide en amperios-hora (A•h); es el número máximo de amperios que el elemento puede suministrar en una hora. Es un valor que no suele conocerse, ya que no es muy claro dado que depende de la intensidad solicitada y la temperatura.
Pilas de combustible
Pila de hidrógeno. La celda en sí es la estructura cúbica del centro de la imagen.
Artículo principal: Pila de combustible
Una celda, célula o pila de combustible es un dispositivo electroquímico de generación de electricidad similar a una batería, que se diferencia de esta en estar diseñada para permitir el reabastecimiento continuo de los reactivos consumidos. Esto permite producir electricidad a partir de una fuente externa de combustible y de oxígeno, en contraposición a la capacidad limitada de almacenamiento de energía de una batería. Además, la composición química de los electrodos de una batería cambia según el estado de carga, mientras que en una celda de combustible los electrodos funcionan por la acción de catalizadores, por lo que son mucho más estables.
En las celdas de hidrógeno los reactivos usados son hidrógeno en el ánodo y oxígeno en el cátodo. Se puede obtener un suministro continuo de hidrógeno a partir de la electrólisis del agua, lo que requiere una fuente primaria de generación de electricidad, o a partir de reacciones catalíticas que desprenden hidrógeno a partir de hidrocarburos. El hidrógeno puede almacenarse, lo que permitiría el uso de fuentes discontinuas de energía como la solar y la eólica. Sin embargo, el hidrógeno gaseoso (H2) es altamente inflamable y explosivo, por lo que se están desarrollando métodos de almacenamiento en matrices porosas de diversos materiales.[37]
Mediciones eléctricas
Unidades eléctricas
Culombio (C, unidad de carga eléctrica)
Conexión de un amperímetro en un circuito.
La introducción de las magnitudes eléctricas requiere añadir una nueva unidad fundamental a la física: la de carga eléctrica. Esta unidad, que no puede derivarse de las unidades de la mecánica, fue originalmente denominada Coulomb (término castellanizado a culombio, cuyo símbolo es C) en honor a Charles-Augustin de Coulomb, primero que midió directamente la fuerza entre cargas eléctricas. Debido a la gran dificultad de medir directamente las cargas eléctricas con precisión, se ha tomado como unidad básica la unidad de corriente eléctrica, que en el Sistema Internacional de Unidades es el amperio. La unidad de carga resulta entonces una unidad derivada, que se define como la cantidad de carga eléctrica que fluye durante 1 segundo a través de la sección de un conductor que transporta una intensidad constante de corriente eléctrica de 1 amperio:
Voltio (V, unidad de potencial eléctrico y fuerza electromotriz)
El voltio se define como la diferencia de potencial a lo largo de un conductor cuando una corriente con una intensidad de un amperio utiliza un vatio de potencia:
Ohmio (Ω, unidad de resistencia eléctrica)
Un ohmio es la resistencia eléctrica que existe entre dos puntos de un conductor cuando una diferencia de potencial constante de 1 voltio aplicada entre estos dos puntos produce, en dicho conductor, una corriente de intensidad 1 amperio, cuando no haya fuerza electromotriz en el conductor:
Condensador ideal cuya capacidad se expresa en faradios.
Siemens (S, unidad de conductancia eléctrica)
Un siemens es la conductancia eléctrica que existe entre dos puntos de un conductor que tiene un ohmio de resistencia:
Faradio (F, unidad de capacidad eléctrica)
Un faradio es la capacidad de un capacitor entre cuyas armaduras aparece una diferencia de potencial eléctrico de 1 voltio cuando está cargado de una cantidad de electricidad igual a un culombio:[42]
Tesla (T, unidad de densidad de flujo magnético e inductividad magnética)
Un tesla es una inducción magnética uniforme que, repartida normalmente sobre una superficie de un metro cuadrado, produce a través de esta superficie un flujo magnético total de un weber:
Weber (Wb, unidad de flujo magnético)
Un weber es el flujo magnético que, al atravesar un circuito de una sola espira, produce en la misma una fuerza electromotriz de 1 voltio si se anula dicho flujo en 1 segundo por decrecimiento uniforme:
Henrio (H, unidad de inductancia)
Un henrio es la inductancia de un circuito en el que una corriente que varía a razón de un amperio por segundo da como resultado una fuerza electromotriz autoinducida de un voltio:
Instrumentos de medida
Se denominan instrumentos de medidas de electricidad a todos los dispositivos que se utilizan para medir las magnitudes eléctricas y asegurar así el buen funcionamiento de las instalaciones y máquinas eléctricas. La mayoría son aparatos portátiles de mano y se utilizan para el montaje; hay otros instrumentos que son conversores de medida y otros métodos de ayuda a la medición, el análisis y la revisión. La obtención de datos cobra cada vez más importancia en el ámbito industrial, profesional y privado. Se demandan, sobre todo, instrumentos de medida prácticos, que operen de un modo rápido y preciso y que ofrezcan resultados durante la medición.
Galvanómetro
Los galvanómetros son aparatos que se emplean para indicar el paso de corriente eléctrica por un circuito y para la medida precisa de su intensidad. Suelen estar basados en los efectos magnéticos o térmicos causados por el paso de la corriente.[44]
Amperímetros
Amperímetro de pinza.
Un amperímetro es un instrumento que sirve para medir la intensidad de corriente que está circulando por un circuito eléctrico.[45] En su diseño original los amperímetros están constituidos, en esencia, por un galvanómetro cuya escala ha sido graduada en amperios. En la actualidad, los amperímetros utilizan un conversor analógico/digital para la medida de la caída de tensión sobre un resistor por el que circula la corriente a medir. La lectura del conversor es leída por un microprocesador que realiza los cálculos para presentar en un display numérico el valor de la corriente circulante.
Voltímetros
Dos voltímetros digitales.
Un voltímetro es un instrumento que sirve para medir la diferencia de potencial o voltaje entre dos puntos de un circuito eléctrico cerrado pero a la vez abierto en los polos. Los voltímetros se clasifican por su funcionamiento mecánico, siendo en todos los casos el mismo instrumento:
Óhmetro
Óhmetro.
Un óhmetro u ohmímetro es un instrumento para medir la resistencia eléctrica. El diseño de un óhmetro se compone de una pequeña batería para aplicar un voltaje a la resistencia bajo medida, para luego mediante un galvanómetro medir la corriente que circula a través de la resistencia. La escala del galvanómetro está calibrada directamente en ohmios, ya que en aplicación de la ley de Ohm, al ser el voltaje de la batería fijo, la intensidad circulante a través del galvanómetro sólo va a depender del valor de la resistencia bajo medida, esto es, a menor resistencia mayor intensidad de corriente y viceversa.
Multímetro
Multímetro digital donde pueden medirse varias magnitudes eléctricas.
Un multímetro, llamado también polímetro o tester, es un instrumento que ofrece la posibilidad de medir distintas magnitudes en el mismo aparato. Las más comunes son las de voltímetro, amperímetro y óhmetro. Es utilizado frecuentemente por el personal técnico en toda la gama de electrónica y electricidad. Existen distintos modelos que incorporan además de las tres funciones básicas antes citadas otras mediciones importantes, tales como medida de inductancias y capacitancias; comprobador de diodos y transistores; o escalas y zócalos para la medida de temperatura mediante termopares normalizados.
Osciloscopio
Osciloscopio Tektronik.
Se denomina osciloscopio a un instrumento de medición electrónico para la representación gráfica de señales eléctricas que pueden variar en el tiempo, que permite visualizar fenómenos transitorios así como formas de ondas en circuitos eléctricos y electrónicos y mediante su análisis se puede diagnosticar con facilidad cuáles son los problemas del funcionamiento de un determinado circuito. Es uno de los instrumentos de medida y verificación eléctrica más versátiles que existen y se utiliza en una gran cantidad de aplicaciones técnicas. Un osciloscopio puede medir un gran número de fenómenos, si va provisto del transductor adecuado.
Analizador de espectro
Analizador de espectro.
Un analizador de espectro es un equipo de medición electrónica que permite visualizar en una pantalla las componentes espectrales de las señales presentes en la entrada, pudiendo ser éstas cualquier tipo de ondas eléctricas, acústicas u ópticas.
Potencia eléctrica
Se denomina potencia eléctrica (P) a la energía eléctrica consumida por unidad de tiempo. En el Sistema Internacional de Unidades se mide en vatios (W), unidad equivalente a julios por segundo (J/s).
La energía consumida por un dispositivo eléctrico se mide en vatios-hora (Wh), o en kilowatios-hora (kWh). Normalmente las empresas que suministran energía eléctrica a la industria y los hogares, en lugar de facturar el consumo en vatios-hora, lo hacen en kilovatios-hora (kWh). La potencia en vatios (W) o kilovatios (kW) de todos los aparatos eléctricos debe figurar junto con la tensión de alimentación en una placa metálica ubicada, generalmente, en la parte trasera de dichos equipos. En los motores, esa placa se halla colocada en uno de sus costados y en el caso de las bombillas de alumbrado el dato viene impreso en el cristal o en su base.
Cuando se trata de corriente continua (DC) la potencia eléctrica desarrollada en un cierto instante por un dispositivo de dos terminales es el producto de la diferencia de potencial entre dichos terminales y la intensidad de corriente que pasa a través del dispositivo. Esto es:
Cuando el dispositivo es una resistencia de valor R o se puede calcular la resistencia equivalente del dispositivo, a partir de ella la potencia también puede calcularse como
Potencia de cargas reactivas
Relación entre potencias activas, aparentes y reactivas.
Para calcular la potencia de algunos tipos de equipos que trabajan con corriente alterna, es necesario tener en cuenta también el valor del factor de potencia o coseno de phi (cosφ) que poseen. En ese caso se encuentran los equipos que trabajan con carga reactiva o inductiva, es decir, aquellos aparatos que para funcionar utilizan una o más bobinas o enrollado de alambre de cobre, como ocurre, por ejemplo, con los motores eléctricos, o también con los aparatos de aire acondicionado o los tubos fluorescentes.
Las cargas reactivas o inductivas, que poseen los motores eléctricos, tienen un factor de potencia menor que “1” (generalmente su valor varía entre 0,85 y 0,98), por lo cual la eficiencia de trabajo del equipo en cuestión y de la red de suministro eléctrico disminuye cuando el factor se aleja mucho de la unidad, traduciéndose en un mayor gasto de energía y en un mayor desembolso económico.
Potencia activa
Es la potencia que representa la capacidad de un circuito para realizar un proceso de transformación de la energía eléctrica en trabajo. Los diferentes dispositivos eléctricos existentes convierten la energía eléctrica en otras formas de energía tales como: mecánica, lumínica, térmica, química, etc. Esta potencia es, por lo tanto, la realmente consumida por los circuitos. Cuando se habla de demanda eléctrica, es esta potencia la que se utiliza para determinar dicha demanda.
De acuerdo con su expresión, la ley de Ohm y el triángulo de impedancias:
Resultado que indica que la potencia activa es debida a los elementos resistivos.
Aplicaciones de la electricidad
Máquinas eléctricas
En 1831 el físico y químico inglés Michael Faraday, que fue discípulo del químico Humphry Davy, descubrió la inducción electromagnética. El conocimiento de este fenómeno ha permitido obtener energía eléctrica a partir de energía mecánica, lo que ha sido un elemento clave en el desarrollo de la tecnología. El proceso se realiza mediante aparatos denominados dinamos y generadores. En 1870 el belga Zénobe Gramme perfeccionó los inventos de dinamos que existían y reinventó los primeros generadores comerciales a gran escala, que empezaron a funcionar en París en torno a 1870. Su diseño se conoce como la dinamo de Gramme.
También se aplica la inducción electromagnética para la construcción de motores movidos por energía eléctrica, que permiten el funcionamiento de innumerables dispositivos.
Generador eléctrico
Esquema de un alternador.
Nikola Tesla, un inventor serbio-americano, descubrió el principio del campo magnético rotatorio en 1882, el cual es la base de la maquinaria de corriente alterna. También descubrió el sistema de motores y generadores de corriente alterna polifásica que da energía a la sociedad moderna. El generador eléctrico rotativo está destinado a producir fuerzas electromotrices que sean funciones sinusoidales del tiempo. Los alternadores monofásicos producen una sola fuerza electromotriz, los trifásicos producen tres y, en general, los de n fases producen n fuerzas electromotrices.[56] El alternador es una máquina destinada a transformar la energía mecánica en eléctrica, generando, mediante fenómenos de inducción electromagnética, una corriente alterna. Los alternadores están fundados en el principio de que, en un conductor sometido a un campo magnético variable, se crea una tensión eléctrica inducida cuya polaridad depende del sentido del campo y su valor del flujo que lo atraviesa.
Un alternador consta de dos partes fundamentales: un inductor que crea un campo magnético, y un inducido que es atravesado por las líneas de fuerza de dicho campo magnético. El tamaño de los alternadores es muy variable, desde los de tamaño enorme que hay en las centrales termoeléctricas, los medianos que están situados en las aerogeneradores o los pequeños alternadores que llevan instalados los automóviles y demás medios de transporte.
Motor eléctrico
Esquema de un motor eléctrico.
Desde que Faraday describió el proceso de inducción y generación de la corriente eléctrica, se iniciaron experiencias y proyectos que culminaron con el invento y fabricación de los diferentes tipos de motores eléctricos que existen. El paso definitivo lo consiguió el ingeniero Tesla que, en 1887, fabricó el primer motor asíncrono trifásico de corriente alterna. Un motor eléctrico es un dispositivo dinamoeléctrico encargado de transformar energía eléctrica en energía mecánica por medio de la interacción de campos magnéticos.
Los motores eléctricos son ampliamente utilizados en instalaciones industriales y electrodomésticos, por su economía, limpieza, comodidad y seguridad de funcionamiento. Se fabrican desde potencias muy pequeñas hasta grandes potencias, y con velocidades fijas, ajustables o variables. Tanto los motores de corriente alterna como los motores de corriente continua se basan en el mismo principio de funcionamiento, el cuál establece que si un conductor por el que circula una corriente eléctrica se encuentra dentro de la acción de un campo magnético, éste tiende a desplazarse perpendicularmente a las líneas de acción del campo magnético. Por otro lado, cuando pasa corriente eléctrica por un conductor se produce un campo magnético. En consecuencia, si se lo pone dentro de la acción de un campo magnético potente, el producto de la interacción de ambos campos magnéticos hace que el conductor tienda a desplazarse produciendo así la energía mecánica. Dicha energía es comunicada al exterior mediante la rotación de un dispositivo llamado eje, el cual lleva acoplado generalmente una polea de transmisión.
Transformador
Artículo principal: Transformador
Representación esquemática del transformador.
El origen del transformador se remonta a 1851, cuando el físico alemán Heinrich Daniel Ruhmkorff diseñó la llamada bobina de Ruhmkorff, precursora de los transformadores modernos. El transformador es una máquina eléctrica carente de movimiento que permite aumentar o disminuir el voltaje o tensión en un circuito eléctrico de corriente alterna, manteniendo la frecuencia y la potencia con un alto rendimiento. Los transformadores son dispositivos basados en el fenómeno de la inducción electromagnética y están constituidos, en su forma más simple, por dos bobinas devanadas sobre un núcleo cerrado de hierro dulce o hierro silicio. Las bobinas o devanados se denominan primario y secundario, según correspondan a la entrada o salida del sistema en cuestión, respectivamente. El funcionamiento se produce cuando se aplica una fuerza electromotriz alterna en el devanado primario, las variaciones de intensidad y sentido de la corriente alterna crearán un campo magnético variable dependiendo de la frecuencia de la corriente. Este campo magnético variable originará, por inducción, la aparición de una fuerza electromotriz en los extremos del devanado secundario. La relación teórica entre la fuerza electromotriz inductora (Ep), la aplicada al devanado primario y la fuerza electromotriz inducida (Es), la obtenida en el secundario, es directamente proporcional al número de espiras de los devanados primario (Np) y secundario (Ns) .
Esquema funcional de un transformador.
La razón de transformación del voltaje entre el bobinado primario y el secundario depende por tanto del número de ruletas que tenga cada uno. Si el número de vueltas del secundario es el triple del primario. En el secundario habrá el triple de tensión.
Esta particularidad tiene su utilidad para el transporte de energía eléctrica a larga distancia, al poder efectuarse el transporte a altas tensiones y pequeñas intensidades y por tanto con pequeñas pérdidas. El transformador ha hecho posible la distribución de energía eléctrica a todos los hogares, industrias, etc. Si no fuera por el transformador tendría que acortarse la distancia que separa a los generadores de electricidad de los consumidores. El transformador lo encontramos en muchos lugares, en las lámparas de bajo consumo, cargadores de pilas, vehículos, en sótanos de edificios, en las centrales hidroeléctricas y otros generadores de electricidad. Su tamaño puede variar desde muy pequeños a enormes transformadores que pueden pesar más de 500 t.[57]
Máquinas frigoríficas y aire acondicionado
Máquina térmica de frío y calor.
La invención de las máquinas frigoríficas ha supuesto un avance importante en todos los aspectos relacionados con la conservación y trasiego de alimentos frescos que necesitan conservarse fríos para que tengan mayor duración en su estado natural, y en conseguir una climatización adecuada en viviendas y locales públicos. Las máquinas frigoríficas se clasifican en congeladoras y en refrigeradoras. Las de uso industrial están ubicadas en empresas, barcos o camiones que trabajan con alimentos congelados o refrigerados; en el ámbito doméstico se utilizan máquinas conocidas con el nombre de frigorífico y congelador, así como aparatos de aire acondicionado que están presente en muchas viviendas variando en prestaciones y capacidad.
Una máquina frigorífica debe contener como mínimo los cuatro siguientes elementos:
- Compresor: es el elemento que suministra energía al sistema. El refrigerante llega en estado gaseoso al compresor y aumenta su presión.
- Condensador: es un intercambiador de calor, en el que se disipa el calor absorbido en el evaporador (más adelante) y la energía del compresor. En el condensador el refrigerante cambia de fase pasando de gas a líquido.
- Sistema de expansión: el refrigerante líquido entra en el dispositivo de expansión donde reduce su presión y esta a su vez reduce bruscamente su temperatura.
- Evaporador: el refrigerante a baja temperatura y presión pasa por el evaporador, que al igual que el condensador es un intercambiador de temperatura, y absorbe el calor del recinto donde esta situado. El refrigerante líquido que entra al evaporador se transforma en gas al absorber el calor del recinto.
Tanto en el evaporador como en el condensador la transferencia energética se realiza principalmente en forma de calor latente.
Diagrama del ciclo de una bomba térmica simple: 1) condensador, 2) válvula de expansión, 3) evaporador, 4) compresor.
Desde el punto de vista económico, el mejor ciclo de refrigeración es aquel que extrae la mayor cantidad de calor (Q2) del foco frío (T2) con el menor trabajo (W). Por ello, se define la eficiencia de una máquina frigorífica como el cociente Q2/W:
Eficiencia
- Q2: Representa el calor extraído de la máquina frigorífica por los serpentines refrigerantes situados en su interior (congelador).
- W: Es el trabajo realizado por el motor que acciona el compresor.
- Q1: Es el calor cedido a los serpentines (o radiador) refrigerantes exteriores (en la parte posterior del aparato y que se elimina al ambiente por una circulación de aire (natural o forzada con auxilio de un ventilador, caso de los aparatos de aire refrigerado).
La máquina frigorífica se puede utilizar como calentador (véase Ciclo de Carnot). Para ello, basta con hacer que el foco caliente sea la habitación, T1, y el frío el exterior. Es el principio de funcionamiento de la bomba de calor, que es más ventajosa de utilizar que un caldeo por resistencia eléctrica. Esta doble función de producir frío y calor se utiliza en los equipos modernos de aire acondicionado que se instalan en las viviendas.
El ingeniero francés Nicolas Léonard Sadi Carnot fue el primero que abordó el problema del rendimiento de un motor térmico.
En España, todas las empresas que se dedican a las actividades relacionadas con máquinas frigoríficas y climatización se encuadran bajo el concepto de frío industrial y los profesionales dedicados a estas tareas reciben el nombre de frigoristas.[60]
Electroimanes
Electroimán de grandes dimensiones empleado en Fermilab.
Un electroimán es un tipo de imán en el que el campo magnético se produce mediante el flujo de una corriente eléctrica, desapareciendo en cuanto cesa dicha corriente. Fue inventado por el electricista británico William Sturgeon en 1825. Sturgeon podía regular su electroimán, lo que supuso el principio del uso de la energía eléctrica en máquinas útiles y controlables, estableciendo los cimientos para las comunicaciones electrónicas a gran escala.
El tipo más simple de electroimán es un trozo de cable enrollado. Una bobina con forma de tubo recto (parecido a un tornillo) se llama solenoide, y cuando además se curva de forma que los extremos coincidan se denomina toroide. Pueden producirse campos magnéticos mucho más fuertes si se sitúa un «núcleo» de material paramagnético o ferromagnético (normalmente hierro dulce) dentro de la bobina. El núcleo concentra el campo magnético, que puede entonces ser mucho más fuerte que el de la propia bobina.
Producción de calor
Un secador de pelo es un ejemplo doméstico del efecto Joule.
El físico británico James Prescott Joule descubrió en la década de 1860 que si en un conductor circula corriente eléctrica, parte de la energía cinética de los electrones se transforma en calor debido al choque que sufren con las moléculas del conductor por el que circulan, elevando la temperatura del mismo. Este efecto es conocido como efecto Joule en honor a su descubridor. Este efecto fue definido de la siguiente manera: "La cantidad de energía calorífica producida por una corriente eléctrica, depende directamente del cuadrado de la intensidad de la corriente, del tiempo que ésta circula por el conductor y de la resistencia que opone el mismo al paso de la corriente". Matemáticamente se expresa como
donde
Q es la energía calorífica producida por la corriente;
I es la intensidad de la corriente que circula y se mide en amperios;
R es la resistencia eléctrica del conductor y se mide en ohmios;
t es la tiempo el cual se mide en segundos.
Así, la potencia disipada por efecto Joule será:
donde V es la diferencia de potencial entre los extremos del conductor.
La resistencia es el componente que transforma la energía eléctrica en energía calorífica. En este efecto se basa el funcionamiento de los diferentes electrodomésticos que aprovechan el calor en sus prestaciones —braseros, tostadoras, secadores de pelo, calefacciones, etc.— y algunos aparatos empleados industrialmente —soldadores, hornos industriales, etc.— en los que el efecto útil buscado es, precisamente, el calor que desprende el conductor por el paso de la corriente. Sin embargo, en la mayoría de las aplicaciones de la electricidad es un efecto indeseado y la razón por la que los aparatos eléctricos y electrónicos necesitan un ventilador que disipe el calor generado y evite el calentamiento excesivo de los diferentes dispositivos.[66]
Robótica y máquinas CNC
Una de las innovaciones más importantes y trascendentales en la producción de todo tipo de objetos en la segunda mitad del siglo XX ha sido la incorporación de robots, autómatas programables y máquinas guiadas por Control numérico por computadora (CNC) en las cadenas y máquinas de producción, principalmente en tareas relacionadas con la manipulación, trasiego de objetos, procesos de mecanizado y soldadura. Estas innovaciones tecnológicas han sido viables entre otras cosas por el diseño y construcción de nuevas generaciones de motores eléctricos de corriente continua controlados mediante señales electrónicas de entrada y salida y el giro que pueden tener en ambos sentidos, así como la variación de su velocidad, de acuerdo con las instrucciones contenidas en el programa de ordenador que los controla. En estas máquinas se utilizan tres tipos de motores eléctricos: motores paso a paso, servomotores o motores encoder, y motores lineales.[67] La robótica es una rama de la tecnología que estudia el diseño y construcción de máquinas capaces de desempeñar tareas repetitivas, tareas en las que se necesita una alta precisión, tareas peligrosas para el ser humano o tareas irrealizables sin intervención de una máquina. Las ciencias y tecnologías en las que se basa son, entre otras, el álgebra, los autómatas programables, las máquinas de estados, la mecánica, la electrónica y la informática.
Telecomunicaciones
Satélite artificial de comunicaciones.
El término telecomunicación quedó definido en 1973 por la Unión Internacional de Telecomunicaciones (ITU) en los términos siguientes: "Telecomunicación es toda transmisión, emisión o recepción, de signos, señales, escritos, imágenes, sonidos o informaciones de cualquier naturaleza por hilo, radioelectricidad, medios ópticos u otros sistemas electromagnéticos".[71]
La base matemática sobre la que se apoyan las telecomunicaciones fue desarrollada por el físico inglés James Clerk Maxwell. Maxwell, en el prefacio de su obra Treatise on Electricity and Magnetism (1873), predijo que era posible propagar ondas por el espacio libre utilizando descargas eléctricas, hecho que corroboró Heinrich Hertz en 1887, ocho años después de la muerte de Maxwell, y que, posteriormente, supuso el inicio de la era de la comunicación rápida a distancia. Hertz desarrolló el primer transmisor de radio generando radiofrecuencias entre 31 MHz y 1.25 GHz.
Electrónica
Electrónica digital
Detalle de un circuito integrado.
La electrónica es la rama de la física y, fundamentalmente, una especialización de la ingeniería, que estudia y emplea sistemas cuyo funcionamiento se basa en la conducción y el control del flujo microscópico de los electrones u otras partículas cargadas eléctricamente.[80] Mediante el diseño y la construcción de circuitos electrónicos se pueden resolver muchos problemas prácticos. Forma parte de los campos de la ingeniería electrónica, electromecánica y la informática en el diseño de software para su control.
Se considera que la electrónica comenzó con el diodo de vacío inventado por John Ambrose Fleming en 1904. El funcionamiento de este dispositivo está basado en el efecto Edison. Conforme pasaba el tiempo las válvulas de vacío se fueron perfeccionando y mejorando, apareciendo otros tipos de válvulas. Dentro de los perfeccionamientos de las válvulas se encontraba su miniaturización. Pero fue definitivamente con el transistor, aparecido de la mano de John Bardeen, Walter Houser Brattain y William Bradford Shockley de los Laboratorios Bell Telephone en 1948, cuando se permitió aún una mayor miniaturización de los aparatos. El transistor de unión apareció algo más tarde, en 1949, y es el dispositivo utilizado para la mayoría de las aplicaciones de la electrónica. Sus ventajas respecto a las válvulas son entre otras: menor tamaño y fragilidad, mayor rendimiento energético y menores tensiones de alimentación. El transistor no funciona en vacío como las válvulas, sino en un estado sólido semiconductor (silicio), razón por la que no necesitan centenares de voltios de tensión para funcionar. En 1958 se desarrolló el primer circuito integrado, que integraba seis transistores en un único chip. En 1970 se desarrolló el primer microprocesador, Intel 4004.
La eficiencia energética es la relación entre la cantidad de energía consumida de los productos y los beneficios finales obtenidos. Se puede lograr aumentarla mediante la implementación de diversas medidas e inversiones a nivel tecnológico, de gestión y de hábitos culturales en la comunidad.[82]
Los individuos y las organizaciones que son consumidores directos de la energía pueden desear ahorrar energía para reducir costes energéticos y promover la sostenibilidad económica, política y ambiental. Los usuarios industriales y comerciales pueden desear aumentar eficacia y maximizar así su beneficio. Entre las preocupaciones actuales están el ahorro de energía y el efecto medioambiental de la generación de energía eléctrica.
MAGNETISMO
En física, el magnetismo es un fenómeno por el que los materiales ejercen fuerzas de atracción o repulsión sobre otros materiales. Hay algunos materiales conocidos que han presentado propiedades magnéticas detectables fácilmente como el níquel, hierro, cobalto y sus aleaciones que comúnmente se llaman imanes. Sin embargo todos los materiales son influenciados, de mayor o menor forma, por la presencia de un campo magnético.
También el magnetismo tiene otras manifestaciones en física, particularmente como uno de los dos componentes de la onda electromagnética, como, por ejemplo, la luz.
Historia
Los fenómenos magnéticos fueron conocidos por los antiguos griegos. Se dice que por primera vez se observaron en la ciudad de "Magnesia" en Asia Menor, de ahí el término magnetismo. Sabían que ciertas piedras atraían el hierro y que los trocitos de hierro atraídos, atraían a su vez a otros. Estas se denominaron imanes naturales.
El primer filósofo que estudió el fenómeno del magnetismo fue Tales de Mileto, filósofo griego que vivió entre 625 a. C. y 545 a. C.[1] En China, la primera referencia a este fenómeno se encuentra en un manuscrito del siglo IV a. C. titulado Libro del amo del valle del diablo: «La magnetita atrae al hierro hacia sí o es atraída por éste».[2] La primera mención sobre la atracción de una aguja aparece en un trabajo realizado entre los años 20 y 100 de nuestra era: «La magnetita atrae a la aguja».
El científico Shen Kua (1031-1095) escribió sobre la brújula de aguja magnética y mejoró la precisión en la navegación empleando el concepto astronómico del norte absoluto. Hacia el siglo XII los chinos ya habían desarrollado la técnica lo suficiente como para utilizar la brújula para mejorar la navegación. Alexander Neckham fue el primer europeo en conseguir desarrollar esta técnica, en 1187.
El conocimiento del magnetismo se mantuvo limitado a los imanes, hasta que en 1820, Hans Christian Ørsted, profesor de la Universidad de Copenhague, descubrió que un hilo conductor sobre el que circulaba una corriente ejercía una perturbación magnética a su alrededor, que llegaba a poder mover una aguja magnética situada en ese entorno.[3] Muchos otros experimentos siguieron, con André-Marie Ampère, Carl Friedrich Gauss, Michael Faraday y otros que encontraron vínculos entre el magnetismo y la electricidad. James Clerk Maxwell sintetizó y explicó estas observaciones en sus ecuaciones de Maxwell. Unificó el magnetismo y la electricidad en un solo campo, el electromagnetismo. En 1905, Einstein usó estas leyes para comprobar su teoría de la relatividad especial,[4] en el proceso mostró que la electricidad y el magnetismo estaban fundamentalmente vinculadas.
El electromagnetismo continuó desarrollándose en el siglo XX, siendo incorporado en las teorías más fundamentales, como la teoría de campo de gauge, electrodinámica cuántica, teoría electrodébil y, finalmente, en el modelo estándar.
La física del magnetismo [editar]
Magnetismo, electricidad y relatividad especial [editar]
Artículo principal: Electromagnetismo
Como consecuencia de la teoría de la relatividad especial de Einstein, la electricidad y el magnetismo estaban comprendidas como vinculantes. Tanto el magnetismo sin la electricidad como la electricidad sin magnetismo serían incoherentes con la nueva teoría por los efectos como la contracción de la longitud, la dilatación del tiempo y la dependencia de la velocidad en el campo magnético. Sin embargo, cuando ambas fueron tomadas en cuenta, la reciente teoría del electromagnetismo fue totalmente coherente con la relatividad.[5] En particular, un fenómeno que parece como eléctrico para un observador puede parecer magnético para otro, o más generalmente las contribuciones generales de la electricidad y el magnetismo son dependientes del marco de referencia.
Entonces, la "mezcla" de la relatividad especial entre electricidad y magnetismo en una sola dio un fenómeno inseparable llamado electromagnetismo (análogo a lo que la misma teoría "mezcló" al tiempo con el espacio en el espacio-tiempo).
Campos y fuerzas magnéticas [editar]
Artículo principal: campo magnético
El fenómeno del magnetismo es ejercido por un campo magnético, p.e. una corriente eléctrica o un dipolo magnético crea un campo magnético, éste al girar imparte una fuerza magnética a otras partículas que están en el campo.
Para una aproximación excelente (pero ignorando algunos efectos cuánticos, véase electrodinámica cuántica) las ecuaciones de Maxwell (que simplifican la ley de Biot-Savart en el caso de corriente constante) describen el origen y el comportamiento de los campos que gobiernan esas fuerzas. Por lo tanto el magnetismo se observa siempre que partículas cargadas eléctricamente están en movimiento. Por ejemplo, del movimiento de electrones en una corriente eléctrica o en casos del movimiento orbital de los electrones alrededor del núcleo atómico. Estas también aparecen de un dipolo magnético intrínseco que aparece de los efectos cuánticos, p.e. del spin de la mecánica cuántica.
La misma situación que crea campos magnéticos (carga en movimiento en una corriente o en un átomo y dipolos magnéticos intrínsecos) son también situaciones en que el campo magnético causa sus efectos, creando una fuerza. Cuando una partícula cargada se mueve a través de un campo magnético B, se ejerce una fuerza F dado por el producto cruz:
donde
La fuerza magnética no realiza trabajo mecánico en la partícula, esto cambiaría la dirección del movimiento de ésta, pero esto no causa su aumento o disminución de la velocidad. La magnitud de la fuerza es :
Una herramienta para determinar la dirección del vector velocidad de una carga en movimiento, es siguiendo la ley de la mano derecha (véase Regla de la mano derecha).
El físico alemán Heinrich Lenz formuló lo que ahora se denomina la ley de Lenz, ésta da una dirección de la fuerza electromotriz (fem) y la corriente resultante de una inducción electromagnética.
Dipolos magnéticos [editar]
Artículo principal: dipolo magnético
Se puede ver una muy común fuente de campo magnético en la naturaleza, un dipolo. Éste tiene un "polo sur" y un "polo norte", sus nombres se deben a que antes se usaban los magnetos como brújulas, que interactuaban con el campo magnético terrestre, para indicar el norte y el sur del globo.
Un campo magnético contiene energía y sistemas físicos que se estabilizan con configuraciones de menor energía. Por lo tanto, cuando se encuentra en un campo magnético, un dipolo magnético tiende a alinearse solo con una polaridad diferente a la del campo, lo que cancela al campo lo máximo posible y disminuye la energía recolectada en el campo al mínimo. Por ejemplo, dos barras magnéticas idénticas pueden estar una a lado de otra normalmente alineadas de norte a sur, resultando en un campo magnético más pequeño y resiste cualquier intento de reorientar todos sus puntos en una misma dirección. La energía requerida para reorientarlos en esa configuración es entonces recolectada en el campo magnético resultante, que es el doble de la magnitud del campo de un magneto individual. (Esto es porque un magneto usado como brújula interactúa con el campo magnético terrestre para indicar Norte y Sur)
Una alternativa formulada, equivalente, que es fácil de aplicar pero ofrece una menor visión, es que un dipolo magnético en un campo magnético experimenta un torque y una fuerza que puede ser expresada en términos de un campo y de la magnitud del dipolo (p.e. sería el momento magnético dipolar). Para ver estas ecuaciones véase dipolo magnético.
Dipolos magnéticos atómicos [editar]
La causa física del magnetismo en los cuerpos, distinto a la corriente eléctrica, es por los dipolos atómicos magnéticos. Dipolos magnéticos o momentos magnéticos, en escala atómica resultan de dos tipos diferentes del movimiento de electrones. El primero es el movimiento orbital del electrón sobre su núcleo atómico; este movimiento puede ser considerado como una corriente de bucles, resultando en el momento dipolar magnético del orbital. La segunda, más fuerte, fuente de momento electrónico magnético es debido a las propiedades cuánticas llamadas momento de spin del dipolo magnético (aunque la teoría mecánica cuántica actual dice que los electrones no giran físicamente, ni orbitan el núcleo).
El momento magnético general de un átomo es la suma neta de todos los momentos magnéticos de los electrones individuales. Por la tendencia de los dipolos magnéticos a oponerse entre ellos se reduce la energía neta, en un átomo los momentos magnéticos opuestos de algunos pares de electrones se cancelan entre ellos, ambos en un movimiento orbital y en momentos magnéticos de espín. Así, en el caso de un átomo con orbitales electrónicos o suborbitales electrónicos completamente llenos, el momento magnético normalmente se cancela completamente entre ellos y solo los átomos con orbitales electrónicos semillenos tienen un momento magnético, su fuerza depende del número de electrones impares.
La diferencia en la configuración de los electrones en varios elementos determina la naturaleza y magnitud de los momentos atómicos magnéticos, lo que a su vez determina la diferencia entre las propiedades magnéticas de varios materiales. Existen muchas formas de comportamiento magnético o tipos de magnetismo: el ferromagnetismo, el diamagnetismo y el paramagnetismo; esto se debe precisamente a las propiedades magnéticas de los materiales, por eso se ha estipulado una clasificación respectiva de estos, según su comportamiento ante un campo magnético inducido, como sigue:
Puesto que un imán de barra obtiene su ferromagnetismo de los electrones magneticos microscópicos distribuidos uniformemente a través del imán, cuando un imán es partido a la mitad cada una de las piezas resultantes es un imán más pequeño. Aunque se dice que un imán tiene un polo norte y un polo sur, estos dos polos no pueden separarse el uno del otro.Un monopolo - si tal cosa existe -sería una nueva clase fundamentalmente diferente de objeto magnético. Actuaría como un polo norte aislado, no atado a un polo sur, o viceversa. Los monopolos llevarían "carga magnética" análoga a la carga eléctrica. A pesar de búsquedas sistemáticas a partir de 1931 (como la de 2006), nunca han sido observadas, y muy bien podrían no existir.(ref). Milton menciona algunos eventos no concluyentes (p.60) y aún concluye que "no ha sobrevivido en absoluto ninguna evidencia de monopolos magnéticos".(p.3)
Tipos de materiales magnéticos
Existen diversos tipos de comportamiento de los materiales magnéticos: el ferromagnetismo, el diamagnetismo y el paramagnetismo.
En los materiales diamagnéticos, la disposición de los electrones de cada átomo es tal que se produce una anulación global de los efectos magnéticos. Sin embargo, si el material se introduce en un campo inducido, la sustancia adquiere una imantación débil y en el sentido opuesto al campo inductor.
Si se sitúa una barra de material diamagnético en el interior de un campo magnético uniforme e intenso, esta se dispone transversalmente respecto de aquel.
Los materiales paramagnéticos no presentan la anulación global de efectos magnéticos, por lo que cada átomo que los constituye actúa como un pequeño imán. Sin embargo, la orientación de dichos imanes es, en general arbitraria, y el efecto global se anula.
Así mismo, si el material paramagnético se somete a la acción de un campo magnético inductor, el campo magnético inducido en dicha sustancia se orienta en el sentido del campo magnético inductor.
Esto hace que una barra de material paramagnético suspendida libremente en el seno de un campo inductor, se alinee con este.
El magnetismo inducido, aunque débil, es suficiente intenso como para imponer al efecto magnético. Para comparar los tres tipos de magnetismo se emplea la razón entre el campo magnético inducido y el inductor.
Electromagnetos
Un electroimán es un imán hecho de alambre eléctrico bobinado en torno a un material magnético, como el hierro. Este tipo de imán es útil en los casos en que un imán debe estar encendido o apagado, por ejemplo, las grandes grúas para levantar chatarra de automóviles.
Para el caso de corriente eléctrica se desplazan a través de un cable, el campo resultante se dirige de acuerdo con la "mano derecha regla." Si la mano derecha se utiliza como un modelo, y el pulgar de la mano derecha a lo largo del cable de positivo hacia el lado negativo ( "convencional actual", a la inversa de la dirección del movimiento real de los electrones), entonces el campo magnético recapitulación de todo el cable en la dirección indicada por los dedos de la mano derecha. Como puede observarse geométricamente, en caso de un bucle o hélice de cable está formado de tal manera que el actual es viajar en un círculo, a continuación, todas las líneas de campo en el centro del bucle se dirigen a la misma dirección, lo que arroja un 'magnética dipolo ' cuya fuerza depende de la actual en todo el bucle, o el actual en la hélice multiplicado por el número de vueltas de alambre. En el caso de ese bucle, si los dedos de la mano derecha se dirigen en la dirección del flujo de corriente convencional (es decir, el positivo y el negativo, la dirección opuesta al flujo real de los electrones), el pulgar apuntará en la dirección correspondiente al polo norte del dipolo. -->
Magnetos temporales y permanentes [editar]
Un imán permanente conserva su magnetismo sin un campo magnético exterior, mientras que un imán temporal sólo es magnético, mientras que esté situado en otro campo magnético. Inducir el magnetismo del acero en los resultados en un imán permanente sino de hierro pierde su magnetismo cuando la inducción de campo se retira. Un imán temporal como el hierro es un material adecuado para los electroimanes. Magnets son hechas por acariciar con otro imán, la grabación, mientras que fija en un campo magnético opuesta dentro de una solenoide bobina se suministra con una corriente directa. Un imán permanente puede ser la remoción de los imanes de someter a la calefacción, fuertes golpes o, colocarlo dentro de un solenoide se suministra con una reducción de corriente alterna.
Unidades
Unidades del SI relacionadas con el magnetismo [editar]
Tesla [T] = unidad de campo magnetico
Weber [Wb] = unidad de flujo magnetico
Amper [A] = unidad de corriente eléctrica, que genera campos magneticos
No hay comentarios:
Publicar un comentario