TEORÍA RELATIVIDAD - José Repiso Moyano



LO IMPRESCINDIBLE:

Lo imprescindible es que algo para realizarse, para actuar, para funcionar, para su desarrollo, para que exista, NECESITA de la intervención de un actor esencial que es lo que lo inicia, lo que lo continúa, lo que lo lleva a una finalidad -a una acción concreta consecuencial a sus actos-. Sí, es un inductor de su acción.
Para un coche, así, lo imprescindible es una energía que lo induce a ser realmente coche; y antes no, solo con la energía ya es... real su acción específica de coche.

Para el MOVIMIENTO ocurre igual; claro, algo no es movimiento hasta que no hayan: ESPACIO e INTERACCIÓN. Es decir, siempre y cuando haya espacio y algún tipo de interacción, pues -solo así- hay movimiento.
Y, para eso, no hace falta señalar qué tipo de interacción, no, si de la materia oscura, si de tales partículas o si de tales cuerpos celestes; porque, para que exista movimiento, es suficiente espacio e interacción -sea cual sea-: es la base imprescindible.

Una vez ahí, la acción consecuencial de la interacción con el espacio -que va cambiando, aumentando o disminuyendo- se desarrolla de la determinada y única manera que es propia de ese espacio (espacio denso o espacio menos denso o espacio reduciéndose o aumentando con la interacción, esto es, porque siempre el espacio es... el espacio de la interacción, de cualquiera; eso es el espacio, no existe espacio no-espacio o espacio puramente vacío, sin él mismo, pues... eso sería nada pura, o sea, inexistencia y la inexistencia del mismo espacio, ¿lo comprenden?).

Cierto, la interacción está determinada -en consecuencia- a la condición propia del espacio: a tener más inercia o a tener menos inercia. Es, en claro, la condición inercial de un espacio la determinante de la siguiente interacción que haya en ese espacio.

Un punto subatómico muy denso, por ejemplo, va teniendo tan poquísima INERCIA progresivamente -o mucha interacción progresiva- que eso induce o inducirá, en ese ir comprimiendo o reduciendo o consumando o eliminado su propio espacio, a un instante en el cual, por asegurar lo imprescindible siempre de que exista espacio-interacción, ya en el punto extremo de consumado el suyo, ha de crear un nuevo espacio.

Es la inducción extrema -el hecho consecuencial- de: un continuo aumento de la interacción en una continua reducción -o eliminación o consumación- de su propio espacio. Eso es, es la CONSECUENCIA ÚLTIMA -en ese contexto- que no puede prescindir aún de lo imprescindible porque exista ese movimiento mismo; y ha de crear otro espacio, que conllevará -cierto- una nueva condicionalidad.

- Un espacio denso tiene menos inercia y más capacidad para cambiar su estado inmediatamente anterior.

- Un espacio menos denso tiene menor interacción -o menor capacidad o rapidez para cambiar-; todo sucede más lento y, por tanto, más resistencia presenta para cambiar sus estados o sus estados "en reposo". Es decir, tiene más inercia, menor movimiento.

Plano inclinado - Recurso sencillo




¡Hola! Aquí de regreso con otra "artesanía didáctica" o como quieran llamarla.
Esta vez se trata de la aplicación de una máquina simple pero muy eficaz y utilizada por todos y para casi todo: la rampa o plano inclinado.

Según Wikipedia (adaptada a nuestro caso):

El plano inclinado es una máquina simple que consiste en una superficie plana que forma un ángulo agudo (α) con el suelo y se utiliza para elevar cuerpos a cierta altura.

Tiene la ventaja de necesitarse una fuerza menor que la que se emplea si levantamos dicho cuerpo verticalmente, aunque a costa de aumentar la distancia recorrida y vencer la fuerza de rozamiento.

Las leyes que rigen el comportamiento de los cuerpos en un plano inclinado fueron enunciadas por primera vez por el matemático Simon Stevin, en la segunda mitad del siglo XVI.

Para analizar las fuerzas existentes sobre un cuerpo situado sobre un plano inclinado, hay que tener en cuenta la existencia de varios orígenes en las mismas.

En primer lugar se debe considerar la existencia de una fuerza de gravedad, también conocida como peso, que es consecuencia de la masa (M) que posee el cuerpo apoyado en el plano inclinado y tiene una magnitud de M.g con una dirección vertical y representada en la figura por la letra P. Es la que está en las sombras debajo del plano inclinado, pero que se ve perfectamente en el modelo real.

Existe además una fuerza normal (N), también conocida como la fuerza de reacción ejercida sobre el cuerpo por el plano como consecuencia de la tercera ley de Newton, se encuentra en una dirección perpendicular al plano y tiene una magnitud igual a la fuerza ejercida por el plano sobre el cuerpo. En la figura aparece representada por N, y vale M.g.cos(α).

Existe finalmente una fuerza de rozamiento, también conocida como fuerza de fricción (FR), que siempre se opone al sentido del movimiento del cuerpo respecto a la superficie. Su magnitud depende tanto del peso como de las características superficiales del plano inclinado y del cuerpo. Estas características generan un "coeficiente de rozamiento". Al momento de fotografiar el modelo no estaba aún colocada la fuerza de fricción o fuerza de roce, que estaría en la dirección del plano, opuesta al movimiento, y entre el plano y el objeto a mover. Su valor es M.g.cos(α).mu (mu es el coeficiente de rozamiento que habitualmente se obtiene de tablas).

La que aparece indicada como F es la componente del peso paralela al plano inclinado. Su valor es M.g.sen(α). Será la fuerza que solicitará que el cuerpo caiga hacia la Tierra siguiendo la pendiente o inclinación del plano.

Si F no supera a FR, el cuerpo se mantiene en equilibrio.
Si F es mayor que FR, el cuerpo se deslizará hacia abajo por el plano inclinado. 
Para subir el cuerpo se debe realizar una fuerza con una magnitud que iguale o supere la suma de F + FR.

El modelo tiene agregado una sección de un transportador que permite mostrar el valor aproximado de α. Además se ve un triángulo rectángulo aplicado con las medidas de sus catetos (base y altura del triángulo) e hipotenusa (longitud parcial del plano que se corresponde con los catetos indicados).

¿Qué se puede hacer con este modelo fijo de un plano inclinado?

Varios ejercicios son posibles. Por ejemplo:
- Demostrar que sabiendo la altura y el largo del plano, se obtiene fácilmente el valor del ángulo ya que cateto opuesto dividido hipotenusa nos dará el valor del seno y luego podremos obtener con él a qué ángulo corresponde. (no es la única forma de calcularlo). Luego verificaremos que es muy aproximado al que se ve en el transportador.
- Podemos suponer que el cuerpo colocado sobre el plano (en este caso una caja) tiene una masa o peso conocido de antemano (P) y que también sabemos el valor de mu entre la base de la caja y la superficie del plano. Entonces podemos calcular las fuerzas F, FR y N.

Creo que lo más útil del modelo aquí presentado es que permite visualizar las 4 fuerzas que intervienen en este asunto: 
- el peso del cuerpo (P)
- la fuerza resultante paralela al plano (F)
- la fuerza de reacción del plano y perpendicular a él (N)
- la fuerza de fricción que siempre se opone al movimiento (FR)
y también permite ver el valor sexagesimal del ángulo de inclinación del plano.

Ahora voy a agregar al modelo la FR que había olvidado colocar y luego quizá tome otra fotografía del modelo pero ya "completito".
Espero que, como en casos anteriores, sigan enviándome sus propios modelos, observaciones y comentarios a danielgalatro@gmail.com para que todos sigamos aprendiendo Física y al mismo tiempo adquiriendo algunas habilidades artesanales.

Un saludo afectuoso desde Esquel.

Prof. Daniel A. Galatro

PD Aquí tomé una fotografía más como había prometido, con el agregado de la FR que había omitido.
Veremos como queda.



---


Contaminantes de origen minero


La minería en su conjunto produce toda una serie de contaminantes gaseosos, líquidos y sólidos, que de una forma u otra van a parar al suelo. 
Esto sucede ya sea por depósito a partir de la atmósfera como partículas sedimentadas o traídas por las aguas de lluvia, por el vertido directo de los productos líquidos de la actividad minera y metalúrgica, o por la infiltración de productos de lixiviación del entorno minero: aguas provenientes de minas a cielo abierto, escombreras (mineral dumps), etc., o por la disposición de elementos mineros sobre el suelo: escombreras, talleres de la mina u otras edificaciones más o menos contaminantes en cada caso.

¿Cómo actúan las emisiones mineras sobre el suelo? ¿Qué interacciones originan?

La presencia de gases contaminantes de origen minero en la atmósfera constituye sin duda un problema menor frente a los de origen industrial o urbano. Esto es debido a que sus volúmenes, comparados con los emitido por otro tipo de actividades, suelen ser limitados. Las excepciones son las relacionadas con la actividad metalúrgica (sobre todo de sulfuros) o de procesos de combustión directa de carbón. En estos casos, las emisiones gaseosas suelen ser ricas en SO2-SO3, lo que implica la formación de la denominada “lluvia ácida”, cargada en ácidos fuertes como el sulfúrico o el sulfuroso (pasos secuenciales):

SO2 (g) + H2O(l) <=> SO2(l)

SO2(l) + 2H2O(l) <=> H3O+ + HSO3-

HSO3- + H2O(l) <=> H3O+ + SO32-

Al llegar estos ácidos al suelo producen efectos devastadores sobre la vegetación, infiltrándose en el suelo. Cabe destacar también la acción sobre las aguas continentales (lagos), que puede ocasionar la muerte de peces y otros habitantes de esos ecosistemas.

La lluvia ácida puede producir efectos más o menos importantes en función de la alcalinidad del suelo: cuando el suelo contiene abundantes carbonatos tiene una alta capacidad de neutralizar estos efectos, mediante la formación de sulfato cálcico y liberación de CO2. A su vez, el CO2 liberado en el proceso puede combinarse con el agua del suelo produciendo ácido carbónico y bicarbonatos, que en todo caso son menos fuertes que los ácidos derivados del azufre. 

Así pues, en ausencia de agentes neutralizadores (carbonatos) la lluvia ácida acaba produciendo una acidificación del suelo, que degrada y oxida la materia orgánica que contiene, reduciendo considerablemente su productividad agronómica y forestal. Además, puede producir tanto la movilización de algunos componentes a través de la formación de sales solubles, como la inmovilización agronómica de otros, que pueden pasar a formar compuestos insolubles, no biodisponibles.

Por su parte, los vertidos o efluentes líquidos que llegan al suelo pueden tener efectos muy variados en función de su composición.

La disposición de elementos mineros sólidos sobre el suelo puede tener sobre éste efectos variados:

- La de escombreras (mineral dumps) puede inducir la infiltración de aguas de lixiviación, más o menos contaminadas en función de la naturaleza de la mena presente en la escombrera en cuestión. Por ejemplo, mientras hay minerales fácilmente lixiviables (p.ej., pirita, esfalerita), otros son mucho más estables (p.ej., galena). De esta manera, es más fácil introducir en las aguas Zn2+, Cu2+, Fe3+, Fe2+ que Pb2+. También produce un importante efecto de apelmazado del suelo, relacionado con el peso de los materiales acumulados, que cambia completamente el comportamiento mecánico de éste incluso después de retirada la escombrera. Otro efecto es el de recubrimiento, que evita la formación y acumulación de la materia orgánica, y el intercambio de gases con la atmósfera.

- La de los procesos derivados de la lixiviación en pila (heap leaching), comúnmente utilizados para la extracción metalúrgica de uranio, cobre y oro. La mena triturada es dispuesta en agrupamientos rectangulares de unos metros de altura sobre bases impermeables. En el caso del uranio y del cobre las pilas se riegan mediante aspersores con una solución de ácido sulfúrico (en el caso del cobre, se pueden introducir también bacterias de tipo T. ferrooxidans). La química del proceso es similar a la que vimos en el Tema 3 sobre drenaje ácido (ver). En cuanto al oro, su lixiviación se basa en la utilización de compuestos cianurados (normalmente cianuro de sodio). La pila también se riega con aspersores, y el proceso químico es del tipo:

2 Au + 4 CN- + 02 + 2 H2O -> 2 Au[(CN)2]2- + 2 OH- + H2O2

Aunque en todos los casos se utilizan superficies basales impermeables bajo las pilas, las infiltraciones son siempre posibles. Por otra parte, el viento puede formar aerosoles, arrastrando a áreas más o menos alejadas estos productos.

- La de talleres de mina es una de las que tienen un mayor potencial contaminante, derivado de la presencia de hidrocarburos en grandes cantidades: depósitos de combustible para repostar, aceites pesados lubricantes, etc., cuyo vertido accidental suele ser bastante común, y tienen una gran facilidad de flujo y de infiltración en el suelo.

- Otros edificios mineros (lavaderos, polvorines, oficinas, etc.) pueden producir efectos más o menos importantes, en función de factores diversos: existencia de instalaciones anexas, empleo de reactivos más o menos tóxicos, condiciones de almacenamiento de éstos, etc.

En definitiva, la minería puede producir sobre el suelo alteraciones más o menos importantes de carácter físico, físico-químico y químico, que en general ocasionan su infertilidad, o en el peor de los casos, mantienen su fertilidad pero permiten el paso de los contaminantes a la cadena alimenticia, a través del agua, o de la incorporación de los contaminantes a los tejidos de animales o vegetales comestibles.

Vulnerabilidad del suelo ante los contaminantes químicos

Uno de los principales problemas que puede producir la minería es la adición al suelo de una fase líquida. Esta habitualmente presenta una composición muy diferente a la que habitualmente se infiltra en el mismo en ausencia de actividades mineras (agua de lluvia). Las interacciones resultantes pueden ser muy variadas en función de la composición química del fluido, la mineralogía del suelo, y el factor climático (temperaturas medias, abundancia y frecuencia de lluvias).

Los efectos en el suelo en relación con la presencia de contaminantes pueden ser variados, e incluso variar con el tiempo o con las condiciones climáticas. En unos casos los contaminantes se acumulan en formas lábiles, de alta solubilidad, de forma que están disponibles para que los animales y vegetales que viven sobre el mismo puedan captarlos, y sufrir sus efectos tóxicos. También pueden facilitar la contaminación de los acuíferos, ya que las aguas de infiltración pueden incorporar a éstos los contaminantes. Pero también pueden tener un efecto absorbente, actuando como un biofiltro altamente reactivo que facilita la inmovilización de los contaminantes gracias a procesos físicos (filtración), físico-químicos (neutralización), químicos (sorción, precipitación, complejación, degradación química) o biológicos (biodegradación). En este sistema juegan un papel especialmente importante las arcillas, debido a sus propiedades de absorción, adsorción e intercambio iónico. Sin embargo, cuando se supera la capacidad de amortiguación del suelo, éste se convierte de hecho en fuente de contaminación. De igual forma, un cambio en las condiciones climáticas puede producir la reversibilidad del proceso. Por ello a menudo se habla de que la presencia de contaminantes en el suelo constituye una bomba de tiempo química, que aún si en un determinado momento no produce efecto alguno, si puede hacerlo en un futuro. Por ejemplo, si la erosión del mismo induce un transporte de los contaminantes a otras áreas.

Carga Crítica de un suelo: cantidad máxima de un determinado componente que puede ser incorporado a un suelo sin que se produzcan efectos nocivos.

La geodisponibilidad es la consecuencia directa de la actividad minera: al llevar a cabo la explotación minera de un yacimiento, se ponen a disposición del medio geológico unos elementos que antes no lo estaban, o lo estaban de forma mucho más limitada. Cabe destacar, no obstante, que muchos yacimientos minerales, particularmente los de menas sulfuradas, son en sí fuentes naturales de contaminación ambiental. Esto depende en gran medida de si son o no aflorantes, de su profundidad (en especial, si se localizan por encima o por debajo del nivel freático), composición mineralógica, etc.

La biodisponibilidad, por su parte, sería “el grado por el cual un contaminante en una fuente potencial, está disponible para ser tomado por un organismo”. Por ejemplo, muchas plantas tienen la capacidad de absorber determinadas concentraciones de elementos pesados, siempre que se encuentren en el suelo en formas solubles, o asociados a nutrientes básicos.

En definitiva, la minería pone a disposición del medio ambiente una serie de sustancias potencialmente tóxicas, pero que por lo general han de sufrir una serie de transformaciones físicas, químicas y biológicas para que puedan entrar en la biosfera.

Adaptado de

Teoría de conjuntos - recurso sencillo


¡Hola! Aquí estoy nuevamente presentando un recurso sencillo, esta vez para aplicar a las matemáticas o, mejor dicho, a la lógica matemática.

Es muy simple. Tres conjuntos: uno diferenciado en color azul (A), otro en color rojo (B) y un tercero en color verde (C).
La intersecciones están pintadas con los colores de los conjuntos que allí se solapan o superponen.
Será cuestión de hacerlo de dimensiones adecuadas para colocar en la región que corresponda los elementos que pertenezcan solamente a un conjunto, a dos conjuntos o a los tres.
El resto es ingenio.

Para los que me preguntaron cuál era el motivo de las dos perforaciones rectangulares que se ven cerca del centro del círculo (que venían con esta pieza circular de fibrofácil) no se me ocurrió decirles otra cosa que se trataba de permitir la respiración de Venn, que estaba escondido detrás del círculo.
Mal chiste, pero quizá el recurso los haga pensar y combinen su capacidad de matemáticos con su capacidad de artesanos y saquen algo bueno de esto.

Como siempre, consultas, comentarios y demás al pie de este post o por mail a danielgalatro@gmail.com.
Un saludo afectuoso desde Esquel.
Prof. Daniel A.Galatro
---

Teoría de conjuntos - una introducción


La teoría de conjuntos es una rama de las matemáticas que estudia las propiedades de los conjuntos.

Los conjuntos son colecciones abstractas de objetos, consideradas como objetos en sí mismas. Los conjuntos y sus operaciones más elementales son una herramienta básica en la formulación de cualquier teoría matemática.

Los razonamientos y técnicas de la teoría de conjuntos se apoyan en gran medida en la lógica matemática.

El desarrollo histórico de la teoría de conjuntos se atribuye a Georg Cantor, que comenzó a investigar cuestiones conjuntistas "puras" en la segunda mitad del siglo XIX.

Dados unos elementos, unos objetos matemáticos —como números o polígonos por ejemplo—, puede imaginarse una colección determinada de estos objetos, un conjunto.

Cada uno de estos elementos pertenece al conjunto, y esta noción de pertenencia es la relación relativa a conjuntos más básica.

Los propios conjuntos pueden imaginarse a su vez como elementos de otros conjuntos. La pertenencia de un elemento a a un conjunto A se indica como a ∈ A.

Una relación entre conjuntos derivada de la relación de pertenencia es la relación de inclusión. 
Una subcolección de elementos B de un conjunto dado A es un subconjunto de A, y se indica como B ⊆ A.

Los conjuntos numéricos usuales en matemáticas son: el conjunto de los números naturales N, el de los números enteros Z, el de los números racionales Q, el de los números reales R y el de los números complejos C.

Cada uno es subconjunto del siguiente:


Existen unas operaciones básicas que permiten manipular los conjuntos y sus elementos, similares a las operaciones aritméticas, constituyendo el álgebra de conjuntos:

Unión. La unión de dos conjuntos A y B es el conjunto A ∪ B que contiene cada elemento que está por lo menos en uno de ellos.

Intersección. La intersección de dos conjuntos A y B es el conjunto A ∩ B que contiene todos los elementos comunes de A y B.

Diferencia. La diferencia entre dos conjuntos A y B es el conjunto A \ B que contiene todos los elementos de A que no pertenecen a B.

Complemento. El complemento de un conjunto A es el conjunto A∁ que contiene todos los elementos (respecto de algún conjunto referencial) que no pertenecen a A.

Diferencia simétrica La diferencia simétrica de dos conjuntos A y B es el conjunto A Δ B con todos los elementos que pertenecen, o bien a A, o bien a B, pero no a ambos a la vez.

Producto cartesiano. El producto cartesiano de dos conjuntos A y B es el conjunto A × B que contiene todos los pares ordenados (a, b) cuyo primer elemento a pertenece a A y su segundo elemento b pertenece a B.

Cantor partió de la convicción platonista de que era posible “comprimir” una colección o conjunto de objetos y considerarla como un todo (o mejor dicho, como una sola entidad), y al parecer, aceptando implícitamente los supuestos siguientes:

(i) Un conjunto es una reunión de objetos que cumplen con cierta propiedad (llamados los elementos de ese conjunto) y que, por tanto, queda definido por tal propiedad.

(ii) Un conjunto es una sola entidad matemática, de modo que puede a su vez ser contenido por otro conjunto.

(iii) Dos conjuntos que tengan los mismos elementos son iguales. Así, puede decirse que un conjunto está determinado por sus elementos.

El concepto de conjunto se encuentra a un nivel tan elemental que no es posible dar una definición precisa del mismo. Palabras como colección, reunión, agrupación, y algunas otras de significado similar, se usan en un intento de describir a los conjuntos, pero no pueden constituir una definición, pues son simplemente un reemplazo de la palabra conjunto. Con todo, en la teoría intuitiva de conjuntos lo anterior es admisible, y se acepta la existencia de un universo o dominio de objetos a partir del cual se construyen los conjuntos, así como también permite tratar conjuntos como una entidad singular. No es de importancia la naturaleza de los objetos, sino el comportamiento de un conjunto como entidad matemática.

De lo dicho anteriormente, parece natural introducir una relación diádica de pertenencia. El símbolo usual para representar esta relación es el símbolo , una versión de la letra griega (épsilon). Los segundos argumentos de la relación son llamados conjuntos, y los primeros argumentos son llamados elementos.

Así, si la fórmula   se cumple, se dice que es un elemento del conjunto . Si aceptamos que todo es un conjunto, entonces los primeros y segundos argumentos de pertenecen al mismo dominio.
La negación de se escribe .

Algo más sobre conjuntos:

Se puede definir un conjunto:
-por extensión, enumerando todos y cada uno de sus elementos.
-por comprensión, diciendo cuál es la propiedad que los caracteriza.

Un conjunto se suele denotar encerrando entre llaves a sus elementos, si se define por extensión,
o su propiedad característica, si se define por comprensión. Por ejemplo:

A := {1,2,3, ... ,n}
B := {pÎ Z | p es par}

Se dice que A está contenido en B (también que A es un subconjunto de B o que A es una parte de B),
y se denota A Í B, si todo elemento de A lo es también de B, es decir, a Î A Þ a Î B.

Dos conjuntos A y B se dicen iguales, y se denota A = B, si simultáneamente A Í B y B Í A;
esto equivale a decir que tienen los mismos elementos (o también la misma propiedad característica).

El conjunto formado por todos los subconjuntos de uno dado A se llama partes de A, y se denota à (A).
Entonces, la relación B Í A es equivalente a decir B Î Ã (A). 

Ejemplos:

Si A = {a,b} entonces à (A) = {Æ ,{a},{b},A}.
Si a Î A entonces {a} ÎÃ (A).

Cuando en determinado contexto se consideran siempre conjuntos que son partes de uno dado U,
se suele considerar a dicho U como conjunto universal o de referencia.

Fuentes consultadas: diversas en internet.
---
Prof, Daniel Aníbal Galatro
danielgalatro@gmail.com

Conteo en niños de preescolar




El conteo es una de las habilidades numéricas más tempranas en el desarrollo infantil. Sin embargo, no es fácil determinar cómo lo adquiere el niño, en los inicios de estas habilidades se fundan en una comprensión mecánica o en un aprendizaje memorístico carente de sentido.

Si el niño no desarrolla el principio de conteo sería un problema muy grave ya que el niño no sería capaz de tomar decisiones ante problemas que pueden surgir en su vida y ante la sociedad es primordial para su desarrollo educativo, y de vital importancia para que empiece a desarrollar sus habilidades de contar desde muy temprana edad.

Ver un trabajo completo sobre el tema en:
El desarrollo del principio de conteo
En niños de preescolar
http://www.monografias.com/cgi-bin/jump.cgi?ID=179704

Erupciones solares y telecomunicaciones



Una erupción solar es una violenta explosión en la fotósfera del Sol, calentando plasma a decenas de millones de grados kelvin y acelerando los electrones, protones e iones más pesados resultantes a velocidades cercanas a la de la luz. Sus niveles de energía son A,B,C, M y X. La explosión de radiación proviene de la liberación de la energía magnética asociada a las manchas solares y son el evento más explosivo del sistema solar.

Las erupciones solares se dan en tres etapas y estas tienen diferentes consecuencias en la Tierra. 
Lo primero en llegar es la luz, que incluye rayos X y ultravioleta. Esto provoca la ionización de la atmósfera superior de la Tierra, interfiriendo en las comunicaciones de radio. 
Detrás llega la tormenta de radiaciones y se multiplicación de las auroras boreales y australes.

Lo primero que sucedería con una erupción solar de clase X sería que la ionosfera terrestre se calentaría, cambiando su densidad y composición, lo que afectaría a las comunicaciones por radio y a la señal del GPS. Peor aún, puede crear intensas corrientes eléctricas en la ionosfera llamadas electrojets.

La troposfera se cargaría de electricidad de tal manera que hasta el agua de los océanos echaría chispas. Tal cantidad de energía buscaría un camino por donde moverse: de los cables eléctricos a los transformadores, recalentándolos hasta quemarlos.

La sociedad moderna depende de sistemas de alta tecnología, y todas son vulnerables y el gran problema es que no se sabe cuándo será la siguiente tormenta ni su intensidad. Se conoce bien el ciclo solar, se sabe que está a punto de alcanzar su clímax, pero no es posible saber cuándo una erupción solar expulse una eyección de masa coronaria de grado X que pueda cambiar nuestras vidas.

Ver monografía completa en:
Erupciones solares y la era de las telecomunicaciones
Nuestros frágiles satélites
http://www.monografias.com/cgi-bin/jump.cgi?ID=179557
---
**Visita: http://bohemiaylibre.blogspot.com

Recursos sencillos - aparejo potencial


¿Cómo están? Yo continúo mis experiencias simples que combinan lo artesanal con lo propio de una ciencia tan apasionante como la Física.

Hoy el tema es otra de las máquinas simples más primitivas usadas por el ser humano: la polea. Un sencillo dispositivo formado por un disco acanalado que en albañilería suele conocerse como "roldana".

Inicialmente se colocaba solamente uno de estos discos con una soga o cadena apoyada en la canaleta y de ese modo permitía elevar pesos tirando desde la soga. La única ventaja era permitir a quien ejercía la "potencia" colocarse en un lugar conveniente, aunque no disminuía la fuerza que debía realizar. Esta forma de polea llamada "fija" era, de todos modos, útil para resolver algunas situaciones.

Pero el ingenio del hombre comenzó a combinar esa polea fija con otras llamadas "móviles" y construir aparatos (aparejos) como el de la fotografía, que bastante trabajo me llevó armar pero al mismo tiempo me gustó mucho hacerlo.

La resistencia es el peso de la tuerca de bronce que ven debajo de todo. Esa fuerza está aplicada sobre la polea móvil que le sigue hacia arriba. Allí la soga la divide en dos fuerzas iguales. La de la izquierda llega hasta la barra superior que es quien la soporta, mientras que la de la derecha está sostenida de la segunda polea móvil. Ya la fuerza necesaria para elevar la tuerca se ha reducido a la mitad.

Esa segunda polea móvil también divide la fuerza aplicada a ella en dos, una que será sostenida por la barra superior y mientras que la otra se dirigirá a la polea fija donde solamente podemos variar su dirección. Pero, ¡albricias!, la fuerza que deberemos ejercer (potencia) será solamente la cuarta parte del peso de la tuerca que deseamos elevar.

Este sencillo pero ingenioso dispositivo puede tener una, dos o más poleas móviles y así disminuir como queramos la fuerza a aplicar. Y como cada polea móvil divide a la mitad la fuerza que recibe, la potencia necesaria será, en cada caso, 1/2, 1/4, 1/8, etc. de la resistencia original.

Como el denominador de esa fracción es siempre una potencia de 2 elevado al número de poleas móviles que se están utilizando, el aparejo recibe el nombre de "potencial".

Ahora, ¡a trabajar! Es cuestión de buscar elementos por ahí y adaptarlos para que les sirvan de modo de armar algo como lo que yo hice o, seguramente, mucho mejor.

Y, si se animan, intentar armar un aparejo de otro tipo, el llamado "factorial", como lo hizo Arquímedes hace algunos años.

Cualquier consulta, envíenme un mensaje al mail y tendré mucho gusto en responderlo.

Un saludo afectuoso desde Esquel.
Prof. Daniel A. Galatro
danielgalatro@gmail.com

----


Recursos sencillos - Palanca


¡Hola! Aquí estoy nuevamente con mis "artesanías didácticas". Es que no solamente me permiten intentar ejercer creatividad para diseñar un proyecto sencillo sino luego dedicar un tiempo para concretarlo, rodeado de maderitas, cartón, pegamento, pinturas acrílicas, etc.

Esta vez se trata de una palanca de primer género en la que, por tanto, el punto de apoyo se encuentra entre la potencia y la resistencia.

El apoyo es deslizante, por lo que pueden generarse diversas situaciones. La palanca es la madera en forma de tablita que muestra marcas separadas una de otra por una distancia de 1 cm.

El primer desafío es colocar la tablita sobre el apoyo de modo de que quede equilibrada, lo que permite encontrar el centro de masa aproximado de la tablita. Intenté que coincidiera con la marca central y lo logré bastante bien.

Una vez equilibrada la palanca sin cargas, utilicé dados para demostrar que a iguales fuerzas de cada lado, el equilibrio se logra cuando las distancias de cada uno de ellos al centro de la tabla también son iguales.

Es que lo que deben igualarse son los productos de cada peso (fuerza) por la distancia al punto de apoyo.

Realizado este ejercicio inicial que permite familiarizarse con la palanca, lo que resta es crear situaciones moviendo los pesos o variándolos (por ejemplo colocando dos dados de un lado y uno del otro) para luego encontrar el equilibrio del sistema, es decir, que la palanca (tablita) recupere su posición horizontal.

Los invito a armar su propia palanca y, jugando, demostrar un principio elemental de la estática que permitió a los hombres más primitivos armar una máquina simple y así, trabajar menos para lograr, por ejemplo, levantar cargas pesadas.

Espero sus comentarios. Un saludo afectuoso desde Esquel.
Prof. Daniel A. Galatro
danielgalatro@gmail.com
---

Los comienzos del álgebra


La palabra «álgebra» es de origen árabe, deriva del tratado escrito por el matemático persa Muhammad ibn Musa al-Jwarizmi, titulado Kitab al-yabr wa-l-muqabala (en árabe كتاب الجبر والمقابلة) (que significa "Compendio de cálculo por el método de completado y balanceado"), el cual proporcionaba operaciones simbólicas para la solución sistemática de ecuaciones lineales y cuadráticas.Etimológicamente, la palabra «álgebra» جبر ŷabr, proviene del árabe y significa "reducción".

Los orígenes del álgebra se remontan a los antiguos babilonios, que habían desarrollado un avanzado sistema aritmético con el que fueron capaces de hacer cálculos en una forma algebraica. Con el uso de este sistema fueron capaces de aplicar las fórmulas y soluciones para calcular valores desconocidos. Este tipo de problemas suelen resolverse hoy mediante ecuaciones lineales,ecuaciones de segundo grado y ecuaciones indefinidas. Por el contrario, la mayoría de los egipcios de esta época, y la mayoría de la Indiagriegosy matemáticos chinos en el primer milenio antes de Cristo, normalmente resolvían tales ecuaciones por métodos geométricos, tales como los descritos en la matemática Rhind Papyrus, Sulba SutrasElementos de Euclides, y los Nueve Capítulos sobre el Arte de las Matemáticas. El trabajo geométrico de los griegos, centrado en las formas, dio el marco para la generalización de las fórmulas más allá de la solución de los problemas particulares de carácter más general, sino en los sistemas de exponer y resolver ecuaciones.
Las mentes griegas matemáticas de Alejandría y Diofanto siguieron las tradiciones de Egipto y Babilonia, pero el libro Arithmetica de Diophantus está en un nivel mucho más alto. Más tarde, los matemáticos árabes y musulmanes desarrollaron métodos algebraicos a un grado mucho mayor de sofisticación. Aunque los babilonios y Diophantus utilizaron sobre todo los métodos especiales ad hoc para resolver ecuaciones, Al-Khowarizmi fue el primero en resolver ecuaciones usando métodos generales. Él resolvió el indeterminado de ecuaciones lineales, ecuaciones cuadráticas, ecuaciones indeterminadas de segundo orden y ecuaciones con múltiples variables.

Fuente: Wikipedia

---
**Visita: http://bohemiaylibre.blogspot.com

Tornos - Recurso sencillo


Hola, amigos. Aquí he continuado con los proyectos de recursos sencillos para visualizar temas de las ciencias naturales. Esta vez le ha correspondido el turno a la máquina simple que recibe nombres diversos, entre ellos el de "torno".

Siguiendo los conceptos vertidos por Alberto Maiztegui y Jorge Sábato en su "Introducción a la Física" publicada allá por 1951 pero con numerosas reediciones, un torno es una palanca que no tiene apariencia de tal porque se ha modificado de modo que pueda girar y arrollar una soga.

El cuerpo principal es un cilindro que por medio de una manija gira alrededor de un eje fijo. La resistencia es el elemento que queremos elevar y la potencia la ejercemos sobre la manivela lateral.

La condición de equilibrio es la misma que la de una palanca. El producto de la potencia por su brazo (momento de la potencia) debe ser igual al producto de la resistencia por su brazo (momento de la resistencia).

Como la resistencia está aplicada en el punto del cilindro en el cual la soga se separa del mismo, el brazo de la resistencia será la distancia (radio) medida desde ese punto hasta el eje. Más claramente, el brazo de la resistencia será el radio del cilindro, que es variable pues aumenta cuando se van superponiendo vueltas de la soga arrollada.

Aplicamos la potencia en la "manija" de la manivela, por lo que el brazo de la potencia será la distancia desde esa manivela hasta el eje en el que se encuentra el cilindro.

Cuanto menor radio tenga el cilindro, menor será el momento de la resistencia. Cuanto más larga sea la manivela, mayor será el momento de la potencia.

La relación entre el radio de giro de la manivela y el radio de giro del torno nos dará la "multiplicación" de ese torno, es decir, cuánto nos beneficiará su uso para necesitar menor fuerza para elevar un determinado peso.

Como los momentos son iguales, la energía obtenida será igual a la energía entregada, lo que significa que el torno no crea energía.

El torno que he creado artesanalmente tiene unos 20 cm de altura total. Utilicé un cilindro que tenía guardado por ahí aunque era de un radio poco interesante (3 cm) y hubiese preferido algo de menores dimensiones. La manivela tiene un radio de unos 6.5 cm con lo que la multiplicación de ese torno nos da aproximadamente 6,5/3 = 2.16. Esto significa que para levantar un peso de 10 gramos necesitaríamos aplicar una potencia de 4,6 gramos. En fácil, reduce a la mitad la fuerza a utilizar, lo cual no está tan mal.

El torno elegido fue un modelo de "aljibe", dispositivo muy utilizado antiguamente en el campo para sacar agua de un pozo que se inunda en su parte inferior con el agua de las napas freáticas, de la lluvia o de cualquier otra fuente adecuada..

El aljibe (del árabe hispano algúbb, y éste del árabe clásico gubb), es un depósito destinado a guardar agua potable. Lo más común es que no sea un torno sino una simple polea fija, pero como ya saben, esto no trae ventaja mecánica y hay que ejercer tanta potencia (o un poco más) que la resistencia que se desea vencer.

Nuestro aljibe del proyecto tiene un cilindro pues nos permite ejercer menor potencia.

Es justo, pues si no usamos la física para vivir más cómodamente, ¿para qué la estudiamos?

Cualquier duda, comentario, etc., al pie de este post o a danielgalatro@gmail.com.

Un saludo desde Esquel.
Prof. Daniel A. Galatro
---

Conociendo mejor el Berilio



El berilio (Be) es un metal muy liviano que se descubrió en el siglo XVIII y fue producido en cierta cantidad recién a partir de 1916. A causa de sus propiedades singulares como alta tenacidad, liviandad y alta conductividad térmica, ha sido usado en un gran número de aplicaciones industriales y bélicas. Actualmente se utiliza en aleaciones de cobre-berilio, de amplio empleo tecnológico como metal en aplicaciones aeroespaciales y militares y como óxido, principalmente en electrónica.

El polvo y los humos de berilio provocan berilosis, una seria enfermedad crónica de los pulmones, que puede causar la muerte. Casos de esta enfermedad fueron registrados en los empleados de la industria y en las comunidades que las rodean, especialmente antes que se tomaran las medidas de seguridad que ahora se emplean. El riesgo actual es reducido, pues descontando Rusia y China, en el resto del mundo existe una sola planta procesadora de materia prima en USA. Aún así, la Agencia de Protección Ambiental (EPA) estableció límites como un máximo de emisión de10 g de berilio por cada 24 h de trabajo de la industria. Asimismo la EPA considera un límite superior de 130 µg/l de Be para prevenir en la biota acuática efectos agudos y 5,3 µg/l para efectos crónicos. En relación a la salud humana, considera tolerable un máximo de 3,7 ng/l en el agua de beber y un poco más en tejidos de pescados. Como consecuencia de esta toxicidad, las aleaciones de berilio se emplean solamente cuando no pueden ser reemplazadas por otras con prestaciones similares como los bronces fosforados.

Las principales materias primas para obtener berilio son los minerales bertrandita, berilo y helvina, que se encuentran en depósitos comerciales en tobas riolíticas, pegmatitas y skarns respectivamente. El principal productor mundial es EEUU.

Aunque como metal u óxido es nocivo para la salud, combinado en los silicatos es inerte y, en el caso del berilo, puede llegar a formar ejemplares de calidad gema, de magnificencia conocida desde la antigüedad en la esmeralda (verde), aguamarina (azul) o heliodoro (amarillo).

Galliski, Miguel Angel
http://www.cricyt.edu.ar/enciclopedia/terminos/Berilio.htm
---

Energía geotérmica - monografía


Las plantas geotérmicas aprovechan el calor generado por la tierra. A varios kilómetros de profundidad en tierras volcánicas los geólogos han encontrado cámaras magmáticas, con roca a varios cientos de grados centígrados. Además en algunos lugares se dan otras condiciones especiales como son capas rocosas porosas y capas rocosas impermeables que atrapan agua y vapor de agua a altas temperaturas y presión y que impiden que éstos salgan a la superficie. Si se combinan estas condiciones se produce un yacimiento geotérmico.

La energía almacenada en estas rocas se conoce como energía geotérmica. Para poder extraer esta energía es necesaria la presencia de yacimientos de agua cerca de estas zonas calientes. La explotación de esta fuente de energía se realiza perforando el suelo y extrayendo el agua caliente. Si su temperatura es suficientemente alta, el agua saldrá en forma de vapor y se podrá aprovechar para accionar una turbina. Esto posibilita la producción de electricidad a bajo costo y de forma permanente durante un periodo prolongado de tiempo.

Podemos encontrar básicamente tres tipos de campos geotérmicos dependiendo de la temperatura a la que sale el agua:

· La energía geotérmica de alta temperatura existe en las zonas activas de la corteza. Su temperatura está comprendida entre 150 y 400ºC.

· La energía geotérmica de temperaturas medias es aquella en que los fluidos de los acuíferos están a temperaturas menos elevadas, normalmente entre 70 y 150ºC.

· La energía geotérmica de baja temperatura es aprovechable en zonas más amplias que las anteriores; por ejemplo, en todas las cuencas sedimentarias. Es debida al gradiente geotérmico. Los fluidos están a temperaturas de 60 a 80ºC.

La geotermia es una fuente de energía renovable ligada a volcanes, géiseres, aguas termales y zonas tectónicas geológicamente recientes, es decir, con actividad en los últimos diez o veinte mil años en la corteza terrestre. "La actividad volcánica sirve como mecanismo de transporte de masa y energía desde las profundidades terrestres hasta la superficie. Se relaciona con dos tipos de recursos explotables por el ser humano: la energía geotérmica y algunos tipos de yacimientos minerales, que son depósitos de origen magmático e hidrotermal".

Hacen falta inversiones para crear plantas geotérmicas que permitan extraer a través de pozos agua subterránea que se calienta entre 200 y 300ºC, calor que se aprovecha como energía mientras el agua se regresa al acuífero para no desequilibrar al planeta.

En un sistema binario el agua geotérmica pasa a través de un intercambiador de calor, donde el calor es transferido a un segundo líquido que hierve a temperaturas más bajas que el agua. Cuando es calentado, el líquido binario se convierte en vapor, que como el vapor de agua, se expande a través y mueve las hélices de la turbina. El vapor es luego re-condensado y convertido en líquido y utilizado repetidamente. En este ciclo cerrado, no hay emisiones al aire.

Continuar leyendo en:
Generación de energía eléctrica geotérmica
Yacimientos y fuentes geotérmicas. Descripción
http://www.monografias.com/cgi-bin/jump.cgi?ID=178659
---
**Visita: http://bohemiaylibre.blogspot.com

La Tecnología de la Computación



El hombre a través de su proceso evolutivo se ha embarcado en la búsqueda del desarrollo que le permita facilitarle la vida cotidiana, creando infinidades de inventos que han sido de muchísima utilidad.

En este compendio vamos a tratar el resultado obtenido de diversos ideales en pro de un objetivo común, utilizando diferentes técnicas que dieron origen a una máquina que cumpliera diversas funciones.

De esta manera surge la computadora, convirtiéndose en una tecnología convencional de la época. Dándole un giro a la evolución y desarrollo de la humanidad, trayendo consigo múltiples beneficios y del mismo modo ciertas desventajas que influyen de forma negativa en el mundo. Estableciéndose hoy como fundamento principal para el desarrollo y evolución de los seres humanos.

Ver el excelente trabajo completo realizado por Norka Barrios Iselle en en la REPÚBLICA BOLIVARIANA DE VENEZUELA - MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN - MISIÓN RIBAS - ALDEA MANUEL PIAR, haciendo click en:

La tecnología de la computación
Sus aportes a la educación
http://www.monografias.com/cgi-bin/jump.cgi?ID=178622
---

Un toque al sistema métrico decimal


Esta tabla se la debía a mis alumnos desde hace demasiados años. En un principio la dibujaba cada vez que necesitaba entrenarlos en la conversión de medidas de longitud, superficie, volumen, capacidad y peso (o masa). Luego de llegado e instalado en Esquel, en tanto llegaba la necesaria computadora nueva, procedí, como algunos ya saben, a transcribir mucha información a cartulinas excesivamente grandes y difícil de manipular. Y ambos métodos (dibujar cada vez o utilizar un diseño poco sencillo de trasladar) resultaban muy lentos y molestos.

Además, cada vez que se la usaba quedaba escrita y había que borrar los números del ejercicio resuelto para poder reemplazarlos por los del siguiente. Y dije muchas veces que haría un diseño más pequeño (como éste de 19 cm x 27 cm) que permite verla completa desde cierta distancia y también aproximarla para colocar los números correspondientes en los lugares adecuados, que aquí se destacan como pequeños rectángulos amarillos. Y por encima, una lámina plástica que pueda escribirse y borrarse con facilidad, o colocarse sobre ella un papel transparente o traslúcido como el de "calcar" (o "manteca").

Y decidí limitarla a las unidades de cada magnitud, tres de sus múltiplos y tres de sus submúltiplos.

Para avanzar en las lineales (longitud, capacidad y peso) corresponde un "rectángulo" por vez (una cifra por vez), para las de superficie se avanza de a dos cifras por vez, y para las de volumen se va avanzando de a tres cifras.

Sencillo, económico y útil. Y si se lo hace más pequeño (tamaño tarjeta de crédito, por ejemplo) apto "para la cartera de la dama o el bolsillo del caballero".

Es un complemento del otro trabajo en el que incluí las conversiones entre unidades, especialmente la relación entre decímetro cúbico, litro y kilogramo, que ya conocen.

Si les parece, pónganse a dibujar y háganse el propio. Yo seguiré pensando nuevos recursos sencillos y quizá se me ocurra alguno realmente valioso.

Un saludo afectuoso desde Esquel
Prof. Daniel A. Galatro
danielgalatro@gmail.com
(gracias por sus mensajes de aliento que me ayudan a seguir intentando)
---


Nobel para los reprogramadores celulares


El Nobel de Medicina premia a los 'padres' de la reprogramación celular.

El japonés Shinya Yamanaka y el británico John B. Gurdon han sido galardonados con el Premio Nobel de Medicina de 2012. En esta ocasión, el Instituto Karolinska de Suecia ha querido distinguir a ambos científicos por sus aportaciones clave en el ámbito de la reprogramación celular.

"Sus hallazgos han revolucionado nuestro conocimiento sobre cómo se desarrollan las células y los organismos", ha señalado la organización en un comunicado.
"Este premio", continúa el texto, "reconoce a quienes descubrieron que las células maduras, especializadas, pueden reprogramarse para volver a ser células inmaduras, capaces de convertirse en todos los tejidos del cuerpo", subraya.

Desde 1901, la academia sueca concede anualmente esta distinción,dotada con 10 millones de coronas suecas (1,08 millones de euros), a la figura que haya realizado el descubrimiento más importante en el campo de la fisiología o la medicina.

Entre los favoritos para el galardón de 2012 figuraban también David Allis y Michael Grunstein, por sus avances en epigenética. Además, sonaban con fuerza los nombres de Anthony Pawson y Anthony Hunter, quien ya recibió el Premio Príncipe de Asturias en 2004 por sus aportaciones en el conocimiento del crecimiento y división celular.

Sin embargo, finalmente, han sido Yamanaka y Gurdon los elegidos por sus avances que "han hecho cambiar los libros de texto" y "han creado nuevas oportunidades para el estudio de las enfermedades y el desarrollo de métodos para diagnósticos y terapias", tal y como ha avanzado la organización.

Dar marcha atrás al 'reloj' celular

Hasta los años 60, se creía que, en el desarrollo, la especialización de las células era unidireccional. Es decir, que una vez que aparecían las células nerviosas o musculares en un ser vivo, no se podía dar marcha atrás al 'reloj' biológico y volver a convertir este material en células pluripotenciales (capaces de convertirse en cualquier tejido), como las de la etapa embrionaria.

En 1962 Gurdon echó por tierra esa creencia al demostrar, en un experimento en ranas, que una célula madura intestinal podía proporcionar a un organismo primigenio toda la información necesaria para su correcto desarrollo.

Cuatro décadas más tarde, Shinya Yamanaka dio un salto en este camino y demostró que, sin necesidad de manipular embriones, era posible reprogramar células maduras de ratones para que volvieran a su etapa inicial.

Agradecimientos

Al conocer el galardón, el científico japonés ha afirmado que su "objetivo es llevar la tecnología de las células madre a los pacientes, a las clínicas", como ya señaló en una entrevista que concedió a este periódico en 2011.

En una rueda de prensa celebrada en Kioto, Yamanaka, ha asegurado que no habría conseguido el premio de no haber sido por el apoyo de su país natal, Japón. "Era un investigador desconocido. Si no hubiera recibido el apoyo de mi país no habría conseguido el premio. Fue el país de Japón el que obtuvo el premio", ha señalado, antes de atender en directo la felicitación del primer ministro nipón, Yoshihiko Noda, al que ante las cámaras y micrófonos agradeció "el apoyo de todo Japón" y aseguró que continuará esforzándose para avanzar en sus investigaciones.

De hecho, el director del Centro para la Investigación y la Aplicación de Células iPS de la Universidad de Kioto no dedicará mucho tiempo a celebraciones a juzgar por sus palabras: "a partir de la semana que viene debo concentrarme en la investigación y atender a los estudiantes cuyas tesis dirijo".

Gurdon, por su parte, se ha mostrado "inmensamente honrado" por lo que ha calificado como "un espectacular reconocimiento". El biólogo, pionero en el campo de las células madre y la clonación, se ha confesado "encantado" de recibir este premio junto a Yamanaka. "Es particularmente agradable ver cómo simples investigaciones, que buscaban originalmente probar la identidad genética de diferentes tipos de células madre en el cuerpo, se han convertido en una clara posibilidad para la salud humana", señaló Gurdon.

Otros Nobel

En la edición del año pasado, compartieron el premio Bruce A. Beutler, Jules A. Hoffmann y Ralph M. Steinman (fallecido días antes de la concesión del premio) por sus investigaciones en el ámbito de la inmunología y las vacunas.

Por su parte, en 2010 el premiado fue Robert Edwards, que, junto a Patrick Steptoe, hizo posible el desarrollo de la fecundación 'in vitro'.

Desde su fundación, el Nobel de Medicina ha recaído en una sola persona en 38 ocasiones. Dos han sido los galardonados en 31 ocasiones y un grupo formado por tres científicos se ha llevado la distinción en otras 33 ediciones.

En los próximos días se conocerá a los ganadores del premio de Física y de Química, mientras que el viernes se concederá el único Nobel que se otorga y entrega en Oslo, el de la Paz.
---


Química en colores - Recursos sencillos


Después de andar conviviendo con la química a veces intensamente, como por allá en las décadas del 60 y del 70, por estos tiempos la sabiduría de la edad o quizá el Alzheimer me han hecho buscar recursos sencillos para quienes se inician en estas lides como profesores o alumnos.
Aquí les traigo uno de mis trabajitos sobre el tema.

Comencé a realizar "vistas parciales" de la tabla periódica (que quizá puedan combinar con mi "Element City" que ha prendido poco todavía entre mis "seguidores").

En la de la imagen pueden ver los grupos IA y IIA, metales alcalinos y alcalino-térreos, y la casa del administrador (el hidrógeno).

Figuran además sus características principales.

El hidrógeno tiene una electronegatividad mucho más alta (a sus vecinos de los grupos IA y IIA les quita electrones - de a uno - para formar "hidruros"), es gaseoso y viene naturalmente en "pares".

Los alcalinos (IA) son monovalentes (positivos, porque siempre pierden su electrón al combinarse), La causa es la baja atracción que existe entre el núcleo y ese electrón de valencia, lo que también provoca que su tamaño atómico sea grande (el electrón de valencia les queda "lejos"). Su potencial de ionización es bajo (se les quita ese electrón aplicando poca energía) y tienen baja afinidad electrónica (la electronegatividad mínima la tienen el Cesio y el Francio (0,7) y la máxima es la del Litio que solamente llega a 1,0.).

Con el agua forman hidróxidos desprendiendo hidrógeno gaseoso, con el oxígeno óxidos o peróxidos, con los halógenos sales, con el azufre sulfuros, con los ácidos fuertes sales desprendiendo también hidrógeno gaseoso y, como dije, con el hidrógeno gaseoso forman hidruros.

Los alcalino-térreos (IIA) (llamados así porque sus óxidos son parecidos a la tierra común) son bivalentes positivos. No se los encuentra libres en la naturaleza por tener gran actividad química. Su electronegatividad es algo mayor que la de los del IA.
Con los halógenos forman sales, con el oxígeno óxidos, con el azufre sulfuros, con el hidrógeno hidruros y con el agua hidróxidos desprendiendo hidrógeno gaseoso.

Puesto todo esto junto en un único diseño se puede lograr que el alumno fije su atención en estos dos grupos y los analice en forma aislada. Y si hay resultados en su proceso de aprendizaje, se verá al aplicarlo.

Que sea con suerte y con felicidad, porque la Química es realmente bella y nos permite conocer mejor el mundo que habitamos. Y los colores suelen ayudar a ver las cosas de otra manera.

Un saludo afectuoso desde Esquel.
Prof. Daniel A. Galatro
danielgalatro@gmail.com
---


Distribución electrónica - Recurso sencillo


Hace ya unos cuantos años (décadas) tuve la idea de convertir un átomo en un hotel y los electrones en pasajeros. Esto me permitía enseñar de un modo sencillo el tema de la distribución de estos últimos en capas (pisos) y subcapas (tipos de habitación) con dos pasajeros posibles en cada una de ellas: uno durmiendo cabeza arriba y el otro cabeza abajo (o, cuando los alumnos eran mayorcitos, un varón y una mujer).

El método produjo muy buenos resultados y fue utilizado por muchos de mis "seguidores" de todo el mundo, especialmente mexicanos, colombianos y venezolanos, que son mayoría y notablemente fieles.

Voy a refrescar para ellos y a explicar al resto las ideas principales de este "hotel".

El alumno se transformaba en el administrador que, a medida que los pasajeros van ingresando, determina en qué habitación los colocará, según ciertas reglas prefijadas.

El hotel tiene 7 pisos. El número de piso es el número cuántico principal (n). En cada uno de los 4 primeros pisos, la cantidad de habitaciones es el cuadrado de n. (piso 1 = 1; piso 2 = 4; piso 3 = 9; y piso 4 = 16). El piso 5 es igual al 4, el 6 igual al 3 y el 7 igual al 2). 

Pero no todas la habitaciones son iguales: hay del tipo s (suite nupcial); p (primera clase); d (desagradables) y f (fatales). En el piso hay sólo 1 del tipo s pero 3 del tipo p, 5 del tipo d y 7 del tipo f.
Por supuesto que, para que el cliente no se sienta discriminado, cada tipo tiene un código: 0 para las s, 1 para las p, 2 para las d y 3 para las f. Ese código corresponde al número cuántico secundario l (ele) también llamado azimutal.

Dentro de cada tipo se diferencia cada habitación por un número adicional que va desde -1 hasta +1 de la siguiente forma:
tipo s : 0 (única)
tipo p : -1; 0; +1
tipo d : -1; -1/2: 0; +1/2; +1 
tipo f : -1; -2/3: -1/3; 0; +1/3; +2/3; +1
Ese número corresponde al tercer número cuántico llamado magnético (m).

Finalmente, a los pasajeros se los termina de identificar con +1/2 (cabeza arriba) o -1/2 (cabeza abajo).

El orden de instalación de los pasajeros depende de cuánto sea el valor de la suma de n + l (piso + tipo de habitación). Si coinciden dos habitaciones con igual número, se lo ubica en el de < n (piso más bajo disponible).

Eso genera 4 números que identifican unívocamente el lugar en el que está cada pasajero. Por ejemplo, el código 3; - 2; -1/2: -1/2 es exclusivo para quien ocupe en el piso 3 la segunda habitación tipo d y duerme cabeza abajo.

Pese a que se me ha discutido alguna vez la diferenciación de las múltiples usando fracciones, no tiene importancia y puede modificarse ese dato si se lo desea.

Unas reglas más a tener en cuenta. Cuando el tipo de habitación es múltiple, primeramente se coloca un pasajero en cada una de ellas y luego el segundo (regla de multiplicidad de Hund).

Finalmente, el nombre del hotel depende biunívocamente de la cantidad de pasajeros que actualmente lo ocupan. Y, en este modelo, también cada pasajero que llega deja sus valijas en la administración (protón y neutrones).

Pero tenía un problema importante. Cada vez que quería usar el método tenía que construir un nuevo hotel, lo que representaba una pérdida de tiempo en clase que buscaba cómo evitar.
Y en esto trabajé ahora. 

Encontré que si dibujaba un plano del hotel como el que vieron en la primera imagen y colocaba sobre él una hoja transparente (de papel "manteca" o "de calcar), el alumno podía ir rellenando los espacios que en el plano figuran como espacios vacíos:
-Nombre del hotel 
-Símbolo
-Grupo
-Período
-Cantidad de protones
-Cantidad de neutrones
-Electrón (con una flechita hacia arriba o hacia abajo según duerma - en realidad, según sea su cuarto número cuántico: de rotación o de espín - s).

Con el papel transparente (o traslúcido) encima, se verá como la imagen que sigue:


Esto es todo por hoy. Les aseguro que usando este método mis alumnos se divierten y aprenden en dos horas todo lo concerniente a la configuración electrónica, realizan alguna y la comparan con la que figura en la tabla de Mendeleiev. En algunos elementos pesados encontrarán diferencias en las capas más externas pero allí uno puede explicarles que se trata de niveles de energía y, como los electrones no siempre respetan las reglas de llenado, se pasan de una subcapa (orbital) a otro de energía muy parecida.
Como siempre, les deseo que esta explicación les haya sido útil y los saludo afectuosamente.

Prof. Daniel A. Galatro
danielgalatro@gmail.com


El átomo de Bohr


Las primeras aportaciones relevantes de Bohr a la Física contemporánea tuvieron lugar en 1913, cuando, para afrontar los problemas con que había topado su maestro y amigo Rutherford, afirmó que los movimientos internos que tienen lugar en el átomo están regidos por leyes particulares, ajenas a las de la Física tradicional. Al hilo de esta afirmación, Bohr observó también que los electrones, cuando se hallan en ciertos estados estacionarios, dejan de irradiar energía.

En realidad, Rutherford había vislumbrado un átomo de hidrógeno conformado por un protón (es decir, una carga positiva central) y un partícula negativa que giraría alrededor de dicho protón de un modo semejante al desplazamiento descrito por los planetas en sus órbitas en torno al sol. Pero esta teoría contravenía las leyes de la Física tradicional, puesto que, a tenor de lo conocido hasta entonces, una carga eléctrica en movimiento tenía que irradiar energía, y, por lo tanto, el átomo no podría ser estable.

Bohr aceptó, en parte, el modelo de Rutherford, pero lo superó combinándolo con las teorías cuánticas de Max Planck (1858-1947). En los tres artículos que publicó en el Philosophical Magazine en 1913, enunció cuatro postulados: 1) Un átomo posee un determinado número de órbitas estacionarias, en las cuales los electrones no radian ni absorben energía, aunque estén en movimiento. 2) El electrón gira alrededor de su núcleo de tal forma que la fuerza centrífuga sirve para equilibrar con exactitud la atracción electrostática de las cargas opuestas. 3) El momento angular del electrón en un estado estacionario es un múltiplo de h/2p (donde h es la constante cuántica universal de Planck).

Según el cuarto postulado, cuando un electrón pasa de un estado estacionario de más energía a otro de menos (y, por ende, más cercano al núcleo), la variación de energía se emite en forma de un cuanto de radiación electromagnética (es decir, un fotón). Y, a la inversa, un electrón sólo interacciona con un fotón cuya energía le permita pasar de un estado estacionario a otro de mayor energía. Dicho de otro modo, la radiación o absorción de energía sólo tiene lugar cuando un electrón pasa de una órbita de mayor (o menor) energía a otra de menor (o mayor), que se encuentra más cercana (o alejada) respecto al núcleo. La frecuencia f de la radiación emitida o absorbida viene determinada por la relación: E1-E2=hf, donde E1 y E2 son las energías correspondientes a las órbitas de tránsito del electrón.

http://www.biografiasyvidas.com/biografia/b/bohr.htm
---
**Visita: http://bohemiaylibre.blogspot.com

Para aprender la Tabla del 7

Para aquellos a quienes les cuesta recordar las tablas, no estaría mal que les obsequiaran un objeto decorativo como éste, adornado con un comienzo y un final de su gusto.

Entre ambos (el que aquí dice, por ejemplo, "Yo amo Esquel", y el que muestra la cara de Minnie) pueden ir los diez primeros elementos de una tabla de multiplicar. En este caso elegimos la poco simpática "Tabla del 7".

De ese modo la tendrían a la vista en su habitación y así la irían fijando sin un esfuerzo apreciable.

Procuramos que, además, resultara agradable a la vista.

Su altura en el modelo que hicimos es de 30 cm.

danielgalatro@gmail.com

Energías alternativas - dos monografías


La imagen corresponde a la energía eólica que es la que podemos obtener del viento. Pero los trabajos corresponden a otras dos: la mareomotriz y la geotérmica. Esperamos que les sean de utilidad.

La energía mareomotriz como energía renovable
Alternativas en un mundo rico
http://www.monografias.com/cgi-bin/jump.cgi?ID=178672

Generación de energía eléctrica geotérmica
Yacimientos geotérmicos: geotérmica en el mundo
http://www.monografias.com/cgi-bin/jump.cgi?ID=178659
--
**Visita: http://bohemiaylibre.blogspot.com

Múltiplos y Divisores - Primos - Pares - Impares


"Y, ahora, ¿con qué se viene?" - quizá alguno de ustedes se pregunte. Porque de estos intentos de generar aplicaciones reales que permitan facilitar la comprensión de conceptos matemáticos y físicos, de vez en cuando resulta algo nuevo y quizá útil. Como en este caso, si lo ven de ese modo.

En el dibujo, siempre realizado en bases de 14 cm por 14 cm que resultan visibles y manuables, puede verse una distribución especial - no optimizada - de los números naturales excluidos el 0, el 1 y los números primos cuyo menor múltiplo (x 2) supera el 24, límite elegido para esta muestra.

Los números están clasificados en tres grupos: primos (en azul), pares (en rojo) e impares (en verde).
Los relacionan las líneas de color naranja cuando entre dos números hay una relación de multiplicidad o de divisibilidad. Y sobre cada línea hay una cantidad de puntos que coincide con el valor por el cual hay que multiplicar (si se asciende) o dividir (si se desciende).

Por ejemplo, entre el 2 y el 14 hay 7 puntos sobre la línea. Esto significa, evidentemente, el entero por el que hay que multiplicar 2 para obtener 14 o por el que hay que dividir 14 para obtener 2. Y así en todos los casos, respetando que siempre el número de puntos corresponda a un valor "primo" (en este proyecto solamente 2, 3, 5, 7 u 11).

Por supuesto, se enriquecería mucho si se hiciera con los 100 primeros números naturales y entonces podrían incluir varios "primos" más y sus múltiplos. Aquí se puede ver claramente por qué se llaman "primos" (primeros) y que eso hace que para ascender en el dibujo sean los de "comienzo" de cualquier serie.
Y si se incluyera el 1 una línea más abajo, se le daría su calidad de divisor de todos los números primos, aunque no suele aceptarse que todos los números serían múltiplos de 1, tanto los primos como los compuestos.

Sencillito, pero quizá un motivador para los alumnos. A medida que se intente su uso se verá qué valor tiene realmente este proyecto que les dejo para que intentemos ampliar entre todos los recursos didácticos disponibles.

Buena suerte con la experiencia y, como siempre, quedo a su disposición.

Daniel Aníbal Galatro
danielgalatro@gmail.com
Esquel - Chubut - Argentina
---
**Visita: http://bohemiaylibre.blogspot.com