Recibe todas las novedades en tu mail

Nuevo seminario de FLACSO


¿Qué factores intervienen en las llamadas desconcentraciones?

¿Cómo distinguir las fallas propias de toda transmisión de aquellas que atañen a las transmisiones que llamaremos traumáticas?

¿Qué trabajo es posible para que un sujeto ingrese en el proceso de aprendizaje cuando retorna aquello que no pudo ser tramitado?

Más info en:

Qué es un "agujero negro"


Un agujero negro es una región finita del espacio-tiempo, con un campo gravitatorio tan fuerte que ni siquiera la radiación electromagnética puede escapar de su proximidad.

Un campo de estas características puede corresponder a un cuerpo de alta densidad con una masa relativamente pequeña -como la del Sol o menor- que está condensada en un volúmen mucho menor, o a un cuerpo de baja densidad con una masa muy grande, como una colección de millones de estrellas en el centro de una galaxia.

Es un "agujero" porque las cosas pueden caer, pero no salir de él, y es negro porque es la superficie límite del espacio a partir de la cual ninguna partícula puede salir, incluyendo la luz. Cualquier evento que ocurra en su interior queda oculto para siempre para alguien que lo observe desde afuera. Otra forma de decirlo es que un agujero negro es un objeto para el que la velocidad de escape es mayor que la velocidad de la luz, conocido como el último límite de velocidad en el universo.
De una monografía publicada por Roberto

Acerca de la lecto-escritura en la escuela


En el proceso de la lecto-escritura, es importante que el docente tenga presente que la acción de leer es un acto eminentemente privado, es entrar en contacto con la comprensión del todo simbolizado en el texto y exige un esfuerzo de la familia, la escuela y el ambiente socio-cultural donde el individuo se desenvuelve.

Aquí juegan un papel muy importante los medios informativos, las bibliotecas, los clubes de lectura, las casas editoriales y los profesionales de la docencia, quienes recibirán los elementos necesarios que le permitirán lograr a través de un programa de enfoque constructivista, desarrollar las competencias de promoción de la lecto-escritura de una forma efectiva y placentera en los educandos de la segunda etapa de Educación Básica.

De esta manera, el docente y la capacitación que este reciba, se convertirán en ejes de acción para ejecutar las estrategias metodológicas que conducirán al efectivo desarrollo del proceso de lecto-escritura.


De una monografía realizada
por Carlos Manuel Díaz Rodriguez
en monografías.com

Apuntes sobre el ozono


Extraído de una monografía de Aníbal Mejía Julca

OZONO (del griego "ódsein" = oler.
El ozono, conocido en su fórmula química como O3, es una forma alotrópica del oxígeno; es decir es una de las modalidades en que se presenta este gas en la naturaleza.

El ozono concentrado es un gas inestable que a presión y a temperaturas ordinarias se descompone en oxígeno común. Asimismo, desprende un penetrante olor sulfuroso y su coloración es azulada suave.

En la superficie de la Tierra, el O3 actúa como un gas tóxico en vegetales y animales, sin embargo existe en forma natural en la atmósfera superior, constituyendo la "Capa de Ozono".

El ozono (O3), es un componente minoritario de la atmósfera terrestre, sin embargo, es un importante protector de la vida sobre la superficie terrestre debido a que cumple la función de un filtro protector contra la radiación ultravioleta (RUV), principalmente de longitud de onda entre los 280 y 320 nm.

En la llamada zona fotoquímica de la alta atmósfera (sobre 60 Kms.), el O3 se produce al actuar sobre ella los rayos ultravioletas (UV) del Sol, los que fraccionan las moléculas de oxígeno molecular común, O2. Debe entenderse que esta reacción es constante, coexistiendo ambos gases (O2 y O3). Así se genera, a esas alturas, el 99% del ozono; el resto resulta de tormentas eléctricas

Debido al gran crecimiento demográfico que agotan de manera acelerada los recursos del planeta, además que gracias al paralelo crecimiento en la industria, se esta generando mas contaminación.
Este crecimiento industrial trae consigo una serie de problemas de contaminación lo que ocasionan a medida que el tiempo pasa en la destrucción de la capa de ozono cuyo agujero a alcanzado una extensión mucho mayor que el doble de la extensión territorial de los Estados Unidos, y sabiendo que la capa de ozono es la que nos protege de las mortíferas radiaciones ultravioleta proveniente del sol. Hoy por hoy esto se ha convertido en un dolor de cabeza que enfrenta la humanidad.

El ozono es una sustancia gaseosa. En 1781 Van Marum predijo su existencia cuando observó el olor del aire atravesado por descargas eléctricas, pero no fue descubierto hasta 1839 por Christian Schönbein que le dio el nombre de su nombre.

Aunque el ozono fue estudiado por Marignac, Becquerel y Fremi, no se determinó su estructura hasta 1863 cuando J. L. Soret demostró que se trataba de una forma alotrópica del oxígeno (O3).

Su molécula está formada por tres átomos de oxígeno unidos con una geometría angular. De aquí deriva su nombre científico: trioxígeno.

Propiedades físicas del ozono:

Peso molecular (PM).......................................................... 48
Temperatura de condensación.......................................... - 112 º C
Temperatura de fusión..................................................... -192,5 º C
Densidad......................................................................... 1,32
Densidad (líquido a –182 º C)......................................... 1.572 gr/cm 3
Peso del litro de gas (a 0º y 1 atm.)................................. 1,144 gr.

Problema: El niño en la bañera


En una tina (bañera o bañadera), un niño juega con un barquito cargado de tornillos.

Si arroja la carga al agua y deja que el bote siga flotando vacío, ¿el nivel del agua de la bañera subirá o descenderá?

¿Por qué?

Ejemplos de pH de algunas sustancias

Ácido clorhídrico 1 M – pH 0
Jugo gástrico – pH 1
Jugo de limón – pH 2
Vinagre – pH 3
Jugo de naranja – pH 4
Cerveza – pH 5
Leche – pH 6
Agua pura – pH 7
Sangre – pH 8
Agua jabonosa – pH 9
Leche de magnesia – pH 10
Agua de cal – pH 11
Amoníaco – pH 12
Hidróxido de sodio 0,1 M – pH 13
Hidróxido de sodio 1 M – pH 14

Soluciones neutras, ácidas y básicas


Cuando la concentración de protones y de oxhidrilos es la misma, la solución es neutra.

Cuando se añade un ácido al agua pura (neutra) aumenta concentración de protones, y ello da lugar a soluciones ácidas.

Cuando se añade una base al agua pura (neutra) aumenta la concentración de oxhidrilos, y ello da origen a soluciones básicas.

Por tanto, una solución neutra tiene una concentración de iones hidrógeno (protones) igual a 10-7 (10 elevado a la -7 = 0,0000001) moles/litro; una solución ácida tiene una concentración de protones mayor que 10-7; y una solución básica tiene una concentración de protones menor que 10-7.

pH

Para evitar el uso de la notación científica (exponencial) en la expresión de concentraciones de las sustancias, en 1909 el químico Peter Sorensen (1868-1939 postuló la escala de pH (a veces mal llamada “escala de potencial hidrógeno” pues debería quizá denominarse "escala potencial del hidrógeno"), la cual se define como el logaritmo negativo en base 10 de la concentración molar de iones hidrogeniones.

La escala de pH permite conocer el grado de acidez o de basicidad de una sustancia.

pOH

De manera análoga se puede considerar la escala de pOH, que es el logaritmo negativo en base 10 de la concentración molar de iones hidroxilos.

Relación

Si relacionamos lo antes expuesto con estas nuevas escalas,
será neutra una solución de pH = 7 (pOH = 7),
ácida la de pH menor de 7 (pOH mayor a 7), y básica la de pH mayor a 7 (pOH menor que 7).

Por ejemplo, el jugo gástrico tiene un pH aproximadamente igual a 2; el vino común y el jugo de naranjas, 3,5; la orina humana, 6; la sangre, 7,4; y el agua de mar, 8. Mayor el número, menor la acidez.

¿Cómo podemos saber cuál es el pH (acidez) de una sustancia?

A esta "pregunta.com" le damos una "respuesta.com".
http://www.misrespuestas.com/

"Hay distintas formas de medir el pH de una sustancia. La más sencilla es sumergir un papel indicador o tornasol en la solución durante varios segundos y éste cambiará de color según si es ácida (color rosa) o alcalina (color azul). Este método no es tan preciso como otros, pues indica ambiguamente qué tan ácida o qué tan alcalina es la sustancia, pese a la evolución que han experimentado los papeles en cuanto a su exactitud. Otra desventaja que presentan los papeles tornasol es que no pueden ser utilizados para ciertas sustancias, como por ejemplo, aquellas que son muy coloreadas o turbias.


La manera más exacta para la medición del pH, es utilizando un pHmetro y dos electrodos, uno de referencia y otro de cristal. Un pHmetro es un voltímetro que junto con los electrodos, al ser sumergidos en una sustancia, generan una corriente eléctrica. Esta corriente eléctrica dependerá de la concentración de iones de hidrógeno que presente la solución. El pHmetro mide la diferencia de potencial entre el electrodo de referencia (plata) y el de cristal que es sensible a los iones de hidrógeno. Para obtener con exactitud el pH de una sustancia, se debe calibrar el pH con soluciones de valores de pH llamadas buffer que resisten los cambios experimentados por el pH y tiene un valor de pH específico."
 

Disociación del agua


El agua es un electrolito débil que se disocia en un protón y un oxhidrilo. Su constante de disociación es igual al producto de las concentraciones de protones y oxhidrilos, dividido por la concentración del agua no disociada.

Un mol de agua pesa 18 gramos, por lo que en 1 litro de agua (1.000 gramos) habrá 55,55 moles, es decir, la concentración será 55,55 M.

Si multiplicamos la constante de disociación del agua por esa concentración del agua, obtendremos una nueva constante llamada kw , igual al producto de las concentraciones de protones y oxhidrilos, y su valor será de 10-14.

De allí, como por cada protón se produce un oxhidrilo al disociarse el agua, entonces la concentración de protones será igual a la concentración de oxhidrilos, cada una de ellas igual a 10-7.

Electrolitos fuertes y electrolitos débiles


Los electrolitos (iones que pueden conducir la corriente eléctrica) se forman cuando se disuelve un soluto iónico en agua; este se disocia en iones positivos (cationes) y en iones negativos (aniones) que, por tener cargas diferentes, pueden conducir la corriente eléctrica.

Esta característica permite clasificar los solutos en “electrolitos” y “no electrolitos”.

Un electrolito será el que al disociarse da origen a una gran concentración de iones, hecho que permite mayor conductividad eléctrica. Se considera en la práctica que un electrolito fuerte se descompone en un 100%, lo cual impide equilibrios entre sus iones y la molécula correspondiente.

Un electrolito débil se disocia muy poco, de manera que no se produce una suficiente concentración de iones, por lo que no puede haber flujo de corriente eléctrica.

Las sustancias no electrolíticas tienen enlaces covalentes no polares que mantienen su individualidad al no ser disociadas por la acción de fuerzas electrostáticas. Algunas sustancias con enlaces covalentes polares no conducen la corriente eléctrica mientras se encuentran en estado sólido, líquido o gaseoso. Pero si se forma una solución acuosa, disolviéndolas en agua, conducen la corriente eléctrica, lo que indica que se han formado iones.

Ácidos y Bases - Propiedades


Los ácidos fuertes tienden mucho a ceder protones, mientras que las bases fuertes poseen gran tendencia a aceptarlos (Bronsted-Lowry). Así se puede determinar el poder de una sustancia según tienda a donar o a aceptar protones.

Las sustancias que al disociarse conducen la corriente eléctrica se llaman “electrolitos”. La disociación alcanza un equilibrio entre la velocidad de la reacción directa y la velocidad de la reacción inversa. En ese momento puede determinarse una constante de equilibrio que se denomina “constante de disociación” (kd).

Cuando una reacción directa alcanza un equilibrio dinámico con una reacción inversa, la velocidad de formación de productos es igual a la velocidad de formación de los reactivos, y las concentraciones de reactivos y productos permanecen constantes en el tiempo.

Un ácido fuerte y una base fuerte son las sustancias con carácter ácido o básico, que se disocian por completo; al final de la disociación, sólo se hallan los productos de la misma. Un electrolito fuerte no genera un equilibrio, porque su disociación es total, pero algunos ácidos y bases, pese a no disociarse en un 100%, tienen constantes de disociación bastante altas, lo que permite clasificarlos como “electrolitos fuertes”.

De hecho, no todos los ácidos y bases débiles se disocian con la misma intensidad. Para determinar el grado de disociación se emplea la expresión “porcentaje de disociación”.

Ácidos y Bases - Teoría de Lewis


Teoría de Gilbert Lewis

En esta teoría se define como ácido una molécula o un ión que acepta un par solitario de electrones para formar un enlace covalente, y una base como una molécula o ión que puede donar un par solitario de electrones para formar un enlace covalente.

Considera las reacciones como “ácido-base” (neutralización) cuando forman enlaces entre las dos sustancias.

Ácidos y Bases - Teoría de Bronsted y Lowry



Según la teoría de Bronsted-Lowry, un ácido es una sustancia donadora de protones y una base es una sustancia aceptora de protones (un protón es un átomo de H que ha perdido su electrón). Toma en cuenta el solvente, es decir, adiciona cada protón a una molécula de agua, obteniendo así un ión que denomina “hidronio”:

H3O+

La molécula de agua se comporta así como una base porque acepta un protón. Entonces el ión hidronio se comporta como un ácido porque dona un protón, y cualquier anión se comporta como una base cuando acepta ese protón.

Ácidos y Bases - Teoría de Arrhenius


Svante Arrhenius (1859-1927) consideró que un electrolito es una sustancia que, al disolverse en agua, conduce la corriente eléctrica, porque sus moléculas se disocian en iones, es decir, átomos cargados con electricidad.

Puede haber electrolitos fuertes (cuando la disociación es prácticamente total), electrolitos débiles (si se disocia menos del 1% de las moléculas), y no electrolitos (si no se produce la disociación).

Son electrolitos fuertes, el ácido clorhídrico (HCl), el ácido sulfúrico (H2SO4) y el ácido nítrico (HNO3); todos los hidróxidos (excepto el hidróxido de amonio NH4OH) y la mayoría de las sales.
Son electrolitos débiles los ácidos orgánicos, el ácido carbónico y el ácido fosfórico, y bases como el hidróxido de amonio.

No electrolitos son la sacarosa, el etanol, el oxígeno gaseoso y el monóxido de carbono, entre otros.

Según la teoría de Arrhenius, una sustancia que se disocia produciendo iones H+ es un ácido. Una sustancia que se disocia produciendo iones OH- es una base o hidróxido. Las reacciones de neutralización ácido-base, según esta teoría, se pueden escribir de manera molecular, iónica o iónica neta. Esta última sería:

H+ + OH- ---> H2O

Una limitación de la teoría de Arrhenius sobre los ácidos y las bases es el hecho de que en ella no se considera el efecto del solvente en el proceso de ionización.

E pur si muove


Tenía setenta y nueve años de edad y su cabello y su barba eran tan blancos como la espuma. Sus ojos, que miraron al cielo a través de sus telescopios y observaron más que cualquier ser humano desde el principio de los tiempos, estaban apagados por la edad. Su reputación de ser uno de los más brillantes científicos de su tiempo fue la razón de que reyes, reinas disputaran sus servicios. Ahora estaba arrodillado ante el temido tribunal de la Inquisición, obligado a confesar públicamente un error que no era error: " Yo Galileo Galilei..., abandono la falsa opinión... de que el Sol es el centro (del Universo) y está inmóvil....Abjuro, maldigo y detesto los dichos errores". Algunos dicen que cuando el anciano se puso de pie murmuró para sus adentros: "E pur si muove" : Y sin embargo (la Tierra) se mueve (alrededor del Sol).
A veces no es fácil defender una convicción científica. "E pur" (y sin embargo) muchos científicos lo hicieron o lo intentaron hacer. Si hay algo en lo que crees, aunque todos te tilden de tonto o de loco, debes insistir en ello hasta que te convenzan de tu error por la razón y no por la fuerza. Quizá no lo logren, y así lo que crees será lo que todos crean después.

Sistemas materiales: mezclas y soluciones


conceptos fundamentales

SOLUCIONES: Mezclas homogéneas (una sola fase) con composiciones variables. Resultan de la mezcla de dos o más sustancias puras diferentes cuya unión no produce una reacción química sino solamente un cambio físico. Una sustancia (soluto) se disuelve en otra (solvente) formando una sola fase. Los componentes pueden separarse utilizando procedimientos físicos.

MEZCLAS: Mezclas heterogéneas (más de una fase). Resultan de la mezcla de dos o más sustancias puras diferentes cuya unión no produce una reacción química sino solamente un cambio físico.

FASE: Porción de materia con propiedades uniformes. Porción de un sistema separado de los otros por límites físicos.

SOLUTO: Componente de una solución que se encuentra en cantidad menor. Es la fase de menor proporción.

SOLVENTE: Componente de una solución que se encuentra en cantidad mayor. Es la fase de mayor proporción.

SOLUCIÓN ACUOSA: El solvente es el agua. El soluto puede ser un sólido, un líquido o un gas.

TIPOS DE SOLUCIONES:
- Gas en líquido.
- Líquido en líquido.
- Sólido en líquido.
- Gas en gas.
- Líquido en gas.
- Sólido en gas.
- Gas en sólido.
- Líquido en sólido.
- Sólido en sólido.

SOLUBILIDAD: Cantidad máxima de soluto que puede ser disuelta por un determinado solvente. Varía con la presión y con la temperatura. Es un dato cuantitativo.

MISCIBILIDAD: Capacidad de una sustancia para disolverse en otra. Es un dato cualitativo. Separa los pares de sustancias en "miscibles" y "no miscibles".

CURVA DE SOLUBILIDAD: Representación gráfica de la solubilidad de un soluto en determinado solvente (eje y) en función de la temperatura (eje x).

SOLUCIÓN SATURADA: Solución que contiene la máxima cantidad de soluto que el solvente puede disolver a esa presión y esa temperatura. Si se le agrega más soluto no lo disuelve: si es un sólido en un solvente líquido, el exceso precipita; si es un líquido en solvente líquido, el exceso queda separado del solvente por encima o por debajo según su densidad relativa; si es un gas en un solvente líquido, el exceso de soluto escapa en forma de burbujas. En una solución saturada de un sólido en un líquido, el proceso de disolución tiene la misma velocidad que el proceso de precipitación.

SOLUCIÓN NO SATURADA: Solución que contiene una cantidad de soluto menor que la que el solvente puede disolver a esa presión y esa temperatura.

CARACTERÍSTICA GENERAL DE LA SOLUBILIDAD: Como ya fuera descubierto hace varios siglos, "lo similar disuelve a lo similar". Las sustancias iónicas son solubles en solventes iónicos. Las sustancias covalentes son solubles en solventes covalentes.

CASO PARTICULAR. SOLUCIONES DE GASES EN LÍQUIDOS: La solubilidad de un soluto gaseoso en un solvente líquido depende de cuatro factores: a) temperatura; b) presión; c) energía; y d) entropía. Se aplica la llamada "Ley de Henry" que permite conocer la presión parcial del soluto gaseoso en función de su fracción molar y de una constante que depende del gas y de su temperatura.

FACTORES QUE INFLUYEN EN LA VELOCIDAD DE DISOLUCIÓN: a) tamaño de las partículas del soluto; b) naturaleza física del soluto; c) naturaleza física del solvente; d) temperatura; y e) grado de agitación del soluto y del solvente.

MÉTODOS DE SEPARACIÓN DE MEZCLAS HOMOGÉNEAS Y HETEROGÉNEAS: Existen numerosos métodos, la mayoría adaptados a casos especiales de solutos y solventes determinados, bajo condiciones determinadas.
- Disolución (sólido de sólido - uno soluble y el otro no).
- Maceración (sólido de sólido - trituración + disolución).
- Extracción (sólido de sólido - en frío con Soxhlet o en caliente por decocción).
- Lixiviación (sólido de sólido - disolución con arrastre).
- Tamizado (sólido de sólido - a través de mallas de alambre de distintos diámetros).
- Destilación (líquido de líquido - homogénea - por diferencia en el punto de ebullición entre ambos).
- Decantación (líquido de líquido - heterogénea - por diferencia entre la densidad de ambos).
- Evaporación (sólido de líquido - homogénea - se calienta para evaporar el solvente y queda el soluto).
- Cristalización (sólido de líquido - homogénea - se baja la temperatura para que cristalice el sólido - luego se filtra o decanta).
- Filtración (sólido de líquido - heterogénea - se hace pasar a través de un filtro que retenga el sólido pero no el líquido).
- Centrifugación (sólido de líquido - homogénea - se aumenta la aceleración de la gravedad por aumentar la fuerza centrífuga, facilitando la precipitación del sólido).
- Cromatografía (todos los casos - homogénea - se usa una fase móvil y una fija, la móvil viaja sobre la fija y sus componentes se van separando según su facilidad de migración, la que depende de diversos factores, por ejemplo su peso molecular).

EXPRESIÓN DE LAS CONCENTRACIONES DE LAS SOLUCIONES:

Concentración: cantidad de soluto disuelto en una determinada cantidad de solvente, o cantidad de soluto disuelto en una determinada cantidad de solución. Siempre indica una proporción entre soluto y solvente.

Porcentaje en masa (m/m): Cantidad de gramos de soluto disuelto en 100 gramos de solución.

Porcentaje en volumen (V/V): Volumen en mililitros de soluto disuelto en 100 mililitros de solución.

Porcentaje masa a volumen (m/V): Cantidad de gramos de soluto disuelto en 100 mililitros de solución.

Partes por millón (ppm): Cantidad de miligramos de soluto disuelto en 1 litro (ó 1 Kg) de solución.

Formalidad (F): Cantidad de "moles fórmula" de soluto disuelto en 1 litro de solución. Un mol fórmula toma en cuenta la molécula de soluto sin disociar.

Molaridad (M): Cantidad de moles de soluto disuelto en 1 litro de solución. Este concepto de mol se aplica a la molécula de soluto disociada en iones.

Molalidad (m): Cantidad de moles de soluto disuelto en 1 Kg de solvente.

Normalidad (N): Cantidad de equivalentes-gramo de soluto disuelto en 1 litro de solución. Equivalente-gramo es la cantidad de sustancia que reaccionaría con 1,008 gramos de hidrógeno, es decir, con un átomo-gramo de este elemento.

Fracción molar (X): Cantidad de moles de soluto o de solvente con respecto al número total de moles de la solución.

Porcentaje molar (X%): Fracción molar multiplicada por 100.

Hombres nucleares y mujeres biónicas




Daniela Cerqui, antropóloga de la Universidad de Lausanne, Suiza, se pregunta sobre las implicancias y los límites a la incorporación de tecnología al cuerpo humano.


"Hay gente que argumenta que siempre hemos sido ciborgs porque siempre hemos recurrido a la tecnología para solucionar problemas de nuestro cuerpo. Desde este punto de vista, no habría razones para poner límites, porque sería algo natural para nosotros. La pregunta es: ¿qué tan lejos podemos llegar en esta mezcla con la tecnología? ¿Seguimos siendo humanos una vez que reemplazamos todos nuestros órganos con prótesis, algo que se está volviendo cada vez más posible?", cuestiona.


Cerqui pone el énfasis en la necesidad de anticiparse a los avances y de analizar qué valores están detrás. "Nos acostumbramos muy rápidamente a lo que la tecnología nos permite hacer. Y una vez que estamos acostumbrados, nos parece normal. Entonces los debates suelen centrarse en las consecuencias, una vez que estas tecnologías ya están aplicadas. Habría que preguntarse con mayor frecuencia qué clase de sociedad estamos construyendo".

La importancia de las prácticas en laboratorio


La formulación de un problema en Química, a menudo suele ir acompañada explícitamente de una hipótesis, es decir una supuesta respuesta al problema planteado, para lo cual es necesaria una validez experimental. Esta validez experimental de la hipótesis no siempre es evidente, por lo que resulta también necesario deducir interpretaciones lógicas de los resultados experimentales que permitan avalar las conclusiones positivas o no de la hipótesis inicial.

Se pone así de manifiesto, cómo la Química pertenece a las denominadas Ciencias Experimentales y su metodología científica comprende aspectos tales como:


  • Determinación de datos experimentales.


  • Interpretación de éstos datos y organizar coherentemente los resultados.

Por tanto, es preciso que en la enseñanza de la Química se le conceda una gran importancia a la parte experimental y que el curso teórico se complemente con uno de prácticas de laboratorio con un nivel pedagógico adecuado y la incorporación en éste del método científico.

La introducción de la metodología científica en las prácticas de laboratorio de Química Orgánica con el fin de sistematizar su utilización en ésta forma de enseñanza y lograr el incremento de las capacidades de los estudiantes para resolver problemas prácticos, así como en adquirir mayor habilidad en el planeamiento de los experimentos necesarios para la solución del problema y en la interpretación de los resultados que avalen la validez o no de la hipótesis.

Fuente:

Química orgánica. La aplicación del método científico en las prácticas de laboratorio.

http://www.monografias.com/cgi-bin/jump.cgi?ID=41908

Imagen: educa.madrid.org

Kilogramo Patrón Universal


Patrón de medida

Es una unidad de medida elegida para poder comparar con ella cualquier resultado de una medición. Se elige por acuerdo y conveniencia.

El espacio (distancia entre 2 puntos) tiene como unidad patrón internacional el METRO.
El tiempo tiene como unidad patrón internacional el SEGUNDO.
La unidad internacional de masa es el KILOGRAMO patrón.

Masa

La masa es, en realidad, una medida de la "inercia", es decir, de la tendencia de un cuerpo a mantener su estado de movimiento en magnitud y en dirección. Está relacionada con la cantidad y calidad de átomos que lo forman. En condiciones normales es considerada como constante, aunque la teoría de la relatividad (Einstein) permite demostrar que varía con la velocidad con que se mueve (importante solamente para velocidades cercanas a la de la luz).

Un KILOGRAMO MASA es la masa de un cilindro de Platino-Iridio que se guarda en Sèvres (Francia).

Algunos múltiplos y submúltiplos del KILOGRAMO MASA (kg) son:
· la tonelada métrica = 10 a la 3 kg
· el gramo = 10 a la -3 kg (unidad de masa en el sistema cgs).
· el miligramo = 10 a la -6 kg
· la uma (unidad de masa atómica) = 1,66 x 10 a la -27 kg
· la UTM (unidad técnica de masa o unidad de masa en el sistema técnico) = 9,8 Kg

El Metro Patrón Universal


Medir
Es comparar con una unidad patrón previamente elegida.



Metro

Un METRO era, inicialmente (1889), la diezmillonésima parte de la longitud del cuadrante terrestre que va desde el Polo Norte hasta el ecuador, pasando por París. Esa unidad se registró colocando dos marcas sobre una barra de Platino-Iridio.

Las dificultades que originaba la reproducción de esa medida hicieron que en 1960 se definiera al METRO como 1.650.763,73 veces la longitud de onda de la luz anaranjada emitida por el Kriptón-86 encerrado en gas Kriptón cuando se lo somete a una descarga eléctrica. Tampoco era sencilla de reproducir.
En 1983 se redefinió el METRO como la distancia recorrida por la luz en el vacío en 1/299.792.456 segundos (1/c, donde c es la velocidad de la luz en el vacío).
Es la unidad de espacio en los sistemas MKS y técnico.

Longitud

También conocida como “espacio” o “distancia”, es la diferencia de posición de dos puntos. Es unidimensional (importa el largo pero no el ancho ni el alto). Su unidad de medida es el metro.

Algunos múltiplos del METRO (m) son:
· el decámetro (Dm o dam) = 10 m
· el hectómetro (hm) = 100 m
· el kilómetro (km) = 1.000 m

Algunos submúltiplos del METRO (m) son:
· el decímetro (dm) = 0,1 m
· el centímetro (cm) = 0,01 m (unidad de espacio en el sistema cgs).
· el milímetro (mm) = 0,001 m
· el micrón (micra) = 1 milésima de mm
· el milimicrón (milimicra) = 10 a la -9 m
· el ángstrom = 10 a la 10 m

****************************

Ácido DesoxirriboNucleico



Información básica sobre el ácido desoxirribonucleico tomada
de "La identificación de criminales a través del ADN ",
monografía de Osvaldo Castillo
en monografias.com

El ADN es la molécula fundamental de la vida, porque lleva en su estructura la información hereditaria que determina las características y funciones esenciales del organismo.

En 1869, el bioquímico suizo Johann Friedrich Miescher descubre que utilizando enzimas digestivas el núcleo de los glóbulos blancos de la sangre —extraídos de vendas con pus del hospital local— revienta y deja escapar su contenido. Basándose en que provenía del núcleo, Miescher llamó "nucleina" a esa sustancia química, rica en fósforo, que había logrado obtener.
En 1889, otros químicos logran eliminar las proteínas contenidas en la sustancia proveniente del núcleo, purificando así más la "nucleina" y obteniendo una sustancia gomosa y levemente ácida. Por primera vez se habían aislado genes humanos, pero era necesario que pasaran muchos años antes que se descubriera el verdadero significado de esa sustancia.

Denominada más tarde ácido nucleico y hoy reconocido como "ácido desoxirribonucleico", ADN, sólo en 1944, gracias a los trabajos de Oswald Avery, Colin McLeod y Maclyn Macarty, se estableció con certeza que era el responsable de la transmisión hereditaria y no las proteínas como se creía hasta ese momento. Alfred Hershey y Martha Chase confirmaron este descubrimiento en 1951, en base a un experimento hoy ya clásico.

A partir de ese momento, los estudios sobre ADN se multiplicaron y por ello, cuando en 1953 Watson y Crick proponen la estructura tridimensional de éste, lo hacen existiendo ya una gran cantidad de información previa. Más aún, sabido es que sin los trabajos de Linus Pauling y de la Dra. Rosalind Franklin, no habría sido posible elaborar el modelo tridimensional ya conocido. Así, por ejemplo, la hélice como posibilidad de estructura fue propuesta primero por Pauling, sólo que aquí las bases nitrogenadas estaban dirigidas hacia el exterior de la molécula.

Según hoy podemos apreciar, en las células no bacterianas la masa interior se divide entre un núcleo, de forma esférica limitado por una membrana, y el citoplasma que lo rodea. En el núcleo de la célula se encuentra ADN en forma de bastones enrollados, los cromosomas; pero también existe ADN en las mitocondrias, estructuras biológicas de cantidad variable, dispersas en el citoplasma, cuya principal función es producir, transformar y almacenar energía. En el núcleo, la información genética reunida proviene de ambos progenitores; en las mitocondrias, en cambio, dicha información sólo proviene de la madre.

El modelo tridimensional, construido el año 1953 por James Watson y Francis Crick, muestra una cadena muy regular, integrada por dos hebras que forman una doble hélice. Las hebras contienen grupos alternantes de azúcar y fosfato, unidos a su vez a bases nitrogenadas, orientadas hacia el interior de la cadena. La estructura helicoidal se mantiene gracias a enlaces de hidrógeno existentes entre las cuatro diferentes bases: adenina (A), citosina (C), guanina (G), y timina (T).

Las cuatro bases, pertenecientes a las purinas A y G y a las pirimidinas C y T, están unidas a este esqueleto de azúcares y fosfatos en diferente orden, llamado secuencia. Esta variabilidad hace distintas y específicas las moléculas del ADN.

Las bases son las responsables del apareamiento entre las dos hebras que comporten el ADN. El apareamiento es específico, puesto que A se aparea sólo con T y G sólo con C. La especificidad del apareamiento permite deducir la secuencia de una cadena si se conoce la de su compañera. De las secuencias y las cadenas opuestas se dice que son complementarias. La complementariedad de los pares de bases hace que todos los grupos de azúcar y fosfato tengan la misma orientación y permite al ADN tener la misma estructura con cualquier secuencia de bases.

La cantidad presente de estas bases no es proporcionalmente igual en el genoma, existiendo sí, ciertos patrones para cada especie. Fue, sin embargo, el descubrimiento de que siempre el número de moléculas de A era igual al de T y a la inversa, en cualquier especie (proporciones de Chargaff), uno de los elementos que posibilitó la comprensión de la complementariedad de las bases.

La complementariedad del ADN despertó gran interés; se propuso enseguida que las dos cadenas de la doble hélice deben ser consideradas como un par de moldes, positivo y negativo, cada uno de los cuales determina a su complemento, y capaces por tanto de generar dos macromoléculas hijas con secuencias idénticas a las de la macromolécula parental. Si el ADN se replicara así, el proceso podría confirmarse demostrando que las cadenas parentales se separan antes de replicarse y que cada macromolécula hija contiene una de las cadenas parentales.

La identificación de la doble hélice del ADN permitió precisar la hipótesis de un gen para cada proteína. Siguiendo este planteamiento, cada gen representa una cadena polipeptídica compuesta por una serie de aminoácidos (unidad de las proteínas); es decir, la secuencia de ADN que representa una proteína es lo que se denomina gen. La relación existente entre la secuencia de ADN y la secuencia de la proteína responde a lo que hoy se conoce como código genético.

Encuesta sobre el rol actual de la escuela


De una encuesta realizada por Fernando Raúl Morro Cruellas
en la localidad de Pergamino, Prov. de Buenos Aires, Argentina,
incorporada dentro de un estudio de caso a una monografía
publicada por monografías.com

El instrumento utilizado para la medición fue un cuestionario cerrado como el siguiente:

¿Considera usted que la escuela esta cumpliendo actualmente nuevos roles dentro de la estructura social de la que forma parte?
a. SI b. NO c. NS/NC

Si su respuesta es afirmativa, señale entre los siguientes cual es el nuevo rol más frecuente que realiza la escuela actualmente.
La escuela es un ámbito de contención social y afectiva
La escuela reemplaza a otras instituciones en el establecimiento de pautas sociales
La escuela colabora para satisfacer necesidades básicas de la población infantil.
La escuela reemplaza a la familia en funciones esenciales.
Otras:.................................................................................................................

¿Considera apropiado que la escuela cumpla hoy roles que tradicionalmente no le han correspondido?
a. SI b. NO c. NS/NC

El instrumento se aplicó a una muestra heterogénea de 50 individuos ubicados en distintas posiciones sociales.

Conclusiones:

Un 96 % de los encuestados considera que la escuela esta cumpliendo roles nuevos dentro de la estructura social.
Un 58 % afirma que la escuela constituye un ámbito de contención social y afectiva
Un 10 % expresa que la escuela reemplaza a otras instituciones en el establecimiento de pautas sociales.
Un 23 % considera que el rol más frecuente es el de colaborar en la solución de necesidades básicas de la población infantil.
Un 8 % afirma que la escuela reemplaza a la familia en funciones básicas.
Un 67 % considera que es apropiado que la escuela cumpla roles no tradicionales y un 33 % expresa lo contrario.

La ciencia al diván


El académico José Félix Patiño comenta el libro Psicoanálisis y la teoría de la complejidad, cuyo autor es Guillermo Sánchez Medina. Dice el comentarista que en el siglo XXI ya se acepta una inversión del paradigma clásico de la ciencia establecido por la física: lo natural era lo determinista y reversible, lo que obedecía a las leyes de los sistemas lineales, y lo excepcional era lo aleatorio, lo irreversible.

Pero el mundo que nos rodea, dice Patiño, no es geométrico: las nubes no son esferas, las montañas no son conos, los lagos no son círculos. Los fenómenos naturales son impredecibles por las leyes de la física y de las "ciencias duras". Y tampoco lo son nuestras vidas, nuestro comportamiento fisiológico y psicológico, nuestra organización social. Los físicos trabajan con sistemas en equilibrio termodinámico; los médicos con organismos vivos de altos niveles de organización dinámica e interactiva. Los saberes están interrelacionados porque todos están impregnados de complejidad, lo que rompe con la rigidez del positivismo al hacer de cada ciencia un saber inmaculado.

Los saberes pueden ser medidos y cuantificados con toda precisión y su comportamiento es predecible por las leyes de la física clásica; para otros sin embargo, como el Derechos y las ciencias eidéticas, sólo se conoce el azar; su comportamiento se rige por leyes subyacentes todavía carentes de un impacto definitorio como ciencias. Pero es un hecho a estas alturas del siglo XX que a la complejidad del organismo humano se suma la sobrecogedora complejidad del cerebro y de la actividad mental. Todo interrelacionado.

La nueva visión de la ciencia es la de lo que es más común en la naturaleza: los sistemas complejos no lineales, los procesos irreversibles. La biología, la fisiología, la medicina tienen hoy esta perspectiva. A ella llegan ahora la psicología y, como lo plantea Guillermo Sánchez Medina, el psicoanálisis.


Leer más en:


Videotrabajo y Gripe A


La gripe A hace aumentar
las soluciones de telepresencia

Las previsiones de la Administración española no son nada halagüeñas en relación a la repercusión en las empresas del brote de gripe A o H1N1 para el próximo otoño e invierno, con una estimación de 11 millones de personas que se podrían contagiar del virus (30% de la población) y más de 7.000 millones de euros que se dejarán de producir.

En este contexto las corporaciones se están preparando para la enfermedad, tomando medidas orientadas hacia la previsión y la reducción del contagio. Así, se están popularizando cada vez más soluciones que fomentan la disminución de la presencia física en el puesto de trabajo, como la telepresencia o la videoconferencia.

Vnunet.es - Madrid, España

Electrostática


Los griegos descubrieron que al frotar la piel de un animal con un material llamado “ámbar”, éste atrae luego pequeños objetos, por lo menos durante unos instantes. A esta propiedad la llamaron “electrón” (ámbar), y a estos fenómenos les dieron el nombre de “eléctricos”.

Pero los estudios más organizados recién comenzaron en el siglo XVIII con el estadounidense Benjamín Franklin.

No se sabe realmente todavía por qué ocurren esos fenómenos. Se ha llegado a la conclusión de que la fuerza eléctrica es causada por la aparición de cargas eléctricas pero lo que se ignora es por qué en algunos cuerpos aparecen cargas eléctricas y en otros no, y qué son realmente esas cargas eléctricas. Es decir: se conoce más por lo que hacen que por lo que son.

Hay dos clases de carga diferentes. Cargas iguales se repelen y cargas distintas se atraen.

Los cuerpos se cargan porque se rompe el equilibrio natural entre el número de electrones y de protones que, en condiciones normales, son iguales. Cuando un átomo gana o pierde electrones se dice que está “cargado”. Por convención, se llama “positiva” la carga de un protón del núcleo atómico, y “negativa” la carga de un electrón de sus capas exteriores.

En un sistema aislado, la cantidad de carga es constante. La carga no se produce, sino que se redistribuye.

El espacio, el tiempo, la gravedad y otra teoría



Compactación de espacio-tiempo
una teoría

La gravedad NO es tan solo una “curvatura del espacio-tiempo”; es una compactación del espacio.
El proceso es similar al que sucede cuando se mueven las placas tectónicas y estas se comprimen plegándose: la gravedad es un “plegamiento tridimensional” del espacio.
Se podría considerar cómo una goma o jebe flexible, la “telaraña del universo” en donde estuvieron y/o están las estrellas y sistemas.
Si se sabe que el espacio tomar “formas” y que es estirado y retorcido (y hasta “abollado”) con el girar de un planeta, entonces ¿por qué no puede concebir que así como el espacio se “curva, estira y retuerce” (según la física-astronomía moderna) entonces también se COMPACTA?
Si el espacio es capaz de tomar FORMAS entonces también se puede compactar.
Digamos que masa “jala” el espacio que le rodea hacia ella y por tanto dos masas opuestas “jalarán” el espacio que les rodea compactándolo-plegándolo alrededor de ellas, generando en el espacio una “tensión intermedia” y al mismo tiempo generando una descompactación (desplegamiento: menos aceleración G) del espacio de la masa opuesta conforme ambas masas se acercan.
Ambas masas COMPRIMEN el espacio que les rodea ocasionando también un descompresión (descompactación) del espacio opuesto plegado por la otra masa generando así un mutuo desplegamiento, variando las fuerzas y aceleraciones gravitacionales de las masas opuestas conforme se acercan pero también al mismo tiempo compensando las variaciones G.
La ley de Newton de la “acción y reacción” exige que la masa (que es “algo”) genere una reacción en el espacio. Esa reacción es el plegamiento-compactación del espacio, la masa “atrae” el espacio, y la masa NO atrae a la masa directamente sino al espacio que es compactado por la masa opuesta.
Por cuanto dos masas compactan el espacio que le rodea generando así un nivel de “tensión” del espacio intermedio, entonces el espacio buscará la “menor tensión” del espacio entre ambas masas produciendo así la atracción. Esa menor tensión intermedia ocurre en el CONTACTO entre ambas masas. ¿Entonces la gravedad NO reside en la masa sino en el espacio?

http://lpm.worldfreeweb.com/arriztizoc/fisica-gravedad.doc

¿Pasteur o Bechamp? - un debate en el tiempo



BECHAMP, PASTEUR Y LOS MICROBIOS
Pasteur: un Impostor a la Medida de la Oficialidad
Lo que muchos no saben es que Pasteur desarrolló la teoría del monomorfismo con base en el trabajo de otro investigador llamado Antoine Bechamp y que el mismo no comprendió estos hechos hasta mucho tiempo después.
Desde los primeros años del siglo XX varias publicaciones han dado testimonio de esto.
Antoine Bechamp fue un investigador contemporáneo de Pasteur.
Sus estudios cubrían la biología, microbiología, la química y la patología.
Su trabajo fue extensamente documentado en los círculos científicos.
El ahora famoso Pasteur plagió y distorsionó estos descubrimientos y ganó un lugar inmerecido en la historia del pensamiento medico.
Bechamp recogió los puntos fundamentales de su teoría en su libro “Blood and its Third Element” (La Sangre y su Tercer Elemento).
Frente al monomorfismo, Bechamp sostenía que los microorganismos podían desarrollarse a través de varias formas dentro de su ciclo de vida.
Todos los microorganismos participan de esta propiedad.
También descubrió que en la sangre normalmente habitaban microbios que el llamó microzimas y tienen un papel importante en la fisiología.
Estos organismos son llamados genéricamente endobiontes.
Estos organismos cambiaban de forma para adaptarse a cambios del terreno y podían volverse patógenos.
Para Bechamp, esta era la causa de la enfermedad, es decir, la enfermedad siempre viene de adentro.
Bechamp demostró que Pasteur estaba errado ya que durante una infección esos organismos no eran “cogidos” de fuera, venían de adentro.
Esta es la teoría del pleomorfismo.
Claude Bernard, entró en esta discusión argumentando que lo más importante en el proceso de la enfermedad era terreno del paciente.
Los microbios cambian y se desarrollan como resultado de cambios en este terreno en el cual viven.
La enfermedad como proceso biológico se desarrolla dependiendo de este medio interno.
El aspecto determinante terreno es el pH.
A pesar de todo, Pasteur debido a sus influencias y su riqueza logró diseminar estas ideas y ridiculizar la opinión de Bechamp.
Años después Pasteur en su lecho de muerte, reconoció el trabajo de Bechamp y dijo, "Bernard tenía razón , el germen no es nada, el terreno es todo."
Pero este reconocimiento no tuvo trascendencia porque la alopatía necesitaba la teoría del monomorfismo para mantener su castillo teórico.
Abrirle la puerta al pleomorfismo le hubiera significado un gran costo y tal vez un cisma importante.
El trabajo de Bechamp fue ignorado y casi olvidado debido a las denuncias de Pasteur pero finalmente fue salvado gracias al doctor Leverson quien inspirado por los escritos de Bechamp viajo a Francia para encontrarse con él unos meses antes de la muerte de éste.
Luego en un encuentro con la escritora Ethel Douglas Hume, Leverson le compartió sus descubrimientos y ella documentó todos estos datos en su libro “Pasteur Exposed: The False Foundations of Modern Medicine”.
enviado por karmenlidia