31 de diciembre de 2009

La Gravitación Universal - Newton después de Newton


El éxito de la Gravitación Universal


Una vez obtenida la expresión para la fuerza gravitacional entre dos objetos, Newton la empleó para estudiar e interpretar un gran número de fenómenos naturales. Algunos de estos fenómenos son:

Las atracciones gravitacionales entre el Sol y la Tierra causan mareas.
El fenómeno de las mareas oceánicas consiste en la fluctuación del nivel de agua del mar produciendo lo que se llama marea alta y marea baja.
La explicación de este fenómeno la dio el propio Newton al afirmar que la atracción entre el Sol y de la Luna producía estas mareas.
La Luna, al estar mucho más cerca de la Tierra que el Sol, es la causa principal de las mareas. Cuando la Luna está justo encima de un punto dado de la superficie terrestre, ejerce una fuerza de atracción del agua, que, por lo tanto, se eleva sobre su nivel normal. El agua que cubre la porción de Tierra más lejana de la Luna también está sometida a atracción; se forma así otra elevación que proporciona el fundamento de una segunda onda. La cresta de onda situada bajo la Luna se llama marea directa, y la del lado diametralmente opuesto de la Tierra se llama marea opuesta. En ambas crestas, prevalece la condición conocida como de marea alta, mientras que a lo largo de la circunferencia formada por las zonas perpendiculares al eje de mareas directa y opuesta se producen fases de marea baja.

El eje de la Tierra cambia de dirección continua y lentamente
Uno de los mayores exitos de Newton fue lograr explicar el fenómeno de la precesión del eje de rotación de la Tierra.
En la época de Newton ya se conocía bien el hecho de que el eje de rotación de la Tierra no posee una dirección fija en el espacio, sabiendo que gira muy lentamente alrededor de la normal desplazándose su eje de rotación en sentido opuesto.
Este movimiento descripto por el eje de rotación de la tierra se denomina "precesión del eje de la Tierra"
El tiempo que dicho eje tarda en dar una vuelta completa en torno a la normal (periodo de precesión) tiene el valor de 26.000 años

Los planetas experimentan ligeras perturbaciones en sus órbitas elipticas.
Dichas órbitas serían una elipse perfecta si sobre el planeta sólo actuara la fuerza gravitatoria del sol.
Newton, utilizando una vez más su Ley de la Gravitación Universal, demostró que estas variaciones en la órbita de un planeta determinado se deben a las atracciones que los demás planetas ejercen sobre él.

Fragmento de un trabajo realizado por:
Pablo Nicolás Correa-Hernández
Pablohsn6@conectate.com.uy
Montevideo - Uruguay

En Monografías.com
Leer más...

29 de diciembre de 2009

¿A qué edad falleció Diofanto de Alejandría? - Juego de cálculo


Nada se conoce con seguridad sobre su vida salvo la edad a la que falleció, gracias a un epitafio redactado en forma de problema y conservado en la antología griega:


Transeúnte, esta es la tumba de Diofanto: es él quien con esta sorprendente distribución te dice el número de años que vivió. Su niñez ocupó la sexta parte de su vida; después, durante la doceava parte su mejilla se cubrió con el primer bozo. Pasó aún una séptima parte de su vida antes de tomar esposa y, cinco años después, tuvo un precioso niño que, una vez alcanzada la mitad de la edad de su padre, pereció de una muerte desgraciada. Su padre tuvo que sobrevivirle, llorándole, durante cuatro años. De todo esto se deduce su edad.

¿A qué edad murió?
Esperamos tu respuesta en los comentarios.
Leer más...

27 de diciembre de 2009

Datos sobre el cambio climático


El cambio climático está causando ya considerable daño y cientos de millones de pobres están sufriendo las consecuencias.

Los centros de investigaciones más avanzados aseguran que queda muy poco tiempo para evitar una catástrofe irreversible.

James Hansen, del Instituto Goddard de la NASA, asegura que un nivel de 350 partes del dióxido de carbono por millón es todavía tolerable; hoy sobrepasa sin embargo la cifra de 390 y se incrementa a ritmo de 2 partes por millón cada año, rebasando los niveles de hace 600 mil años.

Las últimas dos décadas han sido, cada una de ellas, las más calurosas desde que se tienen noticias del registro. El mencionado gas aumentó 80 partes por millón en los últimos 150 años.

El hielo del Mar Ártico, la enorme capa de dos kilómetros de espesor que cubre Groenlandia, los glaciares de América del Sur que nutren sus fuentes principales de agua dulce, el volumen colosal que cubre la Antártida, la capa que resta del Kilimanjaro, los hielos que cubren el Himalaya y la enorme masa helada de Siberia se están derritiendo visiblemente.

Científicos notables temen saltos cuantitativos en estos fenómenos naturales que originan el cambio. La humanidad puso grandes esperanzas en la Cumbre de Copenhague, después del Protocolo de Kyoto suscrito en 1997, que entró en vigor el año 2005.

El estruendoso fracaso de la Cumbre dio lugar a bochornosos episodios que requieren el debido esclarecimiento.

Dr. Fidel Castro Ruz
tomado de Juventud Rebelde,
domingo, 27 de diciembre de 2009

En la imagen: el Monte Kilimanjaro

Leer más...

5 de diciembre de 2009

Ultimátum a la Tierra


No pocos observadores consideran que la cumbre sobre el cambio climático que este mes se reúne en Copenhague es “la última oportunidad” para sentar las bases de una lucha efectiva contra el recalentamiento del planeta, cuyas consecuencias serán catastróficas. Pero el escepticismo acerca de un resultado positivo supera a las esperanzas, ya que un nuevo acuerdo sólo tendrá sentido si es firmado, y luego ratificado, por los dos principales emisores de gases de efecto invernadero, Estados Unidos y China, cuyos antecedentes en la materia no son precisamente alentadores. Las raíces del problema están en un sistema despilfarrador que sólo valora el beneficio económico y desprecia el costo ecológico.
 
informediplo@eldiplo.org
Le Monde diplomatique
centralita alcatel


codigos descuento

guardamuebles san fernando

lotes navidad

posicionamiento

tarot

Tarot con visa

videncia



diseño web

regalos originales
Leer más...

4 de diciembre de 2009

Origen y composición de la gravedad y la materia oscura - hipótesis


por Eduardo A. Esquivel Rios
en "Consideraciones sobre el origen y composición de la gravedad y la materia oscura".

Hasta la fecha, las investigaciones teóricas y físicas que se han hecho sobre la gravedad no han producido ningún resultado satisfactorio.
Newton explicó como funcionaba la gravedad, pero no su origen y composición.
Kepler tambien explico el funcionamiento de la gravedad aplicada a las órbitas de los planetas.
Einstein también anduvo por las ramas cuando se refería a la gravedad. Se considera que la gravedad esta compuesta por ondas o partículas, como la luz, debido a que interactúa con ésta.
Hawking ideó una teoría llamada de "supercuerdas" para explicar la gravedad, sin embargo esta hipótesis tiene enormes fallos en su sustentación lógica dentro de la física actual.

Adicionalmente tenemos la llamada "Materia oscura", término aplicado por los físicos a un factor para explicar la diferencia de masa "mesurable" existente en el Universo y la masa teórica calculada en base al universo visible.
Aunque hasta la fecha nadie ha comprobado físicamente la existencia de la Materia Oscura, siendo una especulación física, pero necesaria para explicar el balance entropico del universo.


En el artículo publicado recientemente en Internet por Martín Subin y Rodrigo Yañes, titulado "La Gravedad, su génesis y sus reales efectos", estos formulan una hipótesis que concuerda en algunos puntos con nuestros conceptos básicos, como que todo cuerpo genera (la gravedad) hacia el centro de la masa y que el espacio está constituido por algún tipo de materia. Sin embargo, vemos que en este artículo se utilizan fórmulas matemáticas derivadas y modificadas de Newton, Kepler y Schwarzchild, que hacen caer a los autores en especulaciones matemáticas de las características de la gravedad, o de sus efectos, alejándose del concepto del origen o causa de esta fuerza.

Las limitaciones de las observaciones de Subin y Yánez , y la de otros matemáticos físicos, se originan en el uso de conceptos matemáticos sólo válidos para nuestra realidad (Dimensión 1), cuando la gravedad parece ser un fenómeno que se origina de la interacciónconstante de nuestra realidad con una dimensión paralela (Dimensión 2.). en que la materia y el tiempo obedecen otras leyes matemáticas diferentes.

El razonamiento y la lógica profunda de estos conceptos han demostrado que el origen de la gravedad no puede interpretarse correctamente si se tienen limitaciones conceptuales limitadas a la dimensión real. La gravedad, (el "flujo gravitacional") así como la materia oscura, sólo es posible explicarlas aceptando que exista otra dimensión "paralela" o "simultánea", con la que nuestra realidad mantiene un "intercambio de materia" y tiempo constante, en el que, lo que parece ser una diferencia incalculable en el tiempo del paso de la materia de una dimensión a otra de ida y vuelta, es lo que produce el "efecto" de atracción de la masa llamado gravedad, en nuestra realidad.

Es por esto que la "explicación" del fenómeno de la gravedad no puede ser tratado a través de la Física o matemáticas actuales, ya que al ser el proceso una interacción entre dos dimensiones donde se pierde la identidad material y temporal de la materia, la concepción del proceso sólo puede ser hecha por medio de un esquema mental-mecánico.

En base a un esquema de éstos, es que se ha elaborado esta hipótesis sobre el origen de la gravedad.

Consideraciones:

No existe duda que la gravedad es una "fuerza", pero el concepto fundamental es que está relacionada con la masa y la energía. No es posible físicamente que sea una fuerza que "hale" la masa. La acción de "halar" implica una serie de acciones mecánicas y fuerzas imposibles para la física clásica y de que existan a nivel subatómico. No es posible que sea una onda o una partícula, pero depende de éstas.

Por lo tanto debe ser un fenómeno de desplazamiento de masa, o "movimiento" en el que la masa se mueva hacia un punto determinado.

Sin embargo, la materia no se puede (podría) mover libremente en el espacio, ya que éste está limitado por una cantidad fija de masa, que comprende la Masa Física Visible (MFV) y la Masa Física Transicional, (MFT) o Materia Oscura. Esta limitación es dimensional, por supuesto.

La explicación al fenómeno llamado Transición de Masa Interdimensional se da admitiendo que existe una Dimensión paralela, a la que llamamos "Dimension Transicional", que sirve para que la MFV fluya en un proceso que crea el fenómeno llamado gravedad.

La Materia Visible fluye hacia la Dimensión Transicional en una forma continua y permanente, y casi instantánea, ya que el Factor Tiempo (T) es sólo muy levemente afectado por el proceso. Este proceso de movimiento de masa se da través de agujeros negros cuánticos que existen en el núcleo (o el centro) de cada átomo (ANC).

La Materia en transición, en apariencia, al pasar por el agujero negro cuántico pierde masa y energía por lo que se transforma en "Materia oscura". Sin embargo, esta "pérdida" de masa y energía es sólo aparente ya que lo que sucede es que la masa y la energía pasan temporalmente a otra dimensión, dejando de existir en ésta. Debido a que el proceso es continuo y permanente, y carece de factor T, a toda la masa del Universo, para un observador cualquiera, no es posible observar éste movimiento. La masa del Universo, como sucede, se ve como una masa estática con movimiento físico interno.

El concepto de Agujero Negro Cuántico (ANC) es básico en la explicación, ya que este aumenta de diámetro con la masa, y explica porque a mayor masa hay mayor gravedad. Al parecer el tamaño del ANC depende del tipo de átomo y también ésta relacionado con las fuerzas interactuales que mantienen unidos los elementos que forman la materia.

La suma de los ANC en un volumen determinado de masa, es equivalente a la gravedad producida.

La materia en Transición no pasa del U(o) al U(1) en forma íntegra, sino que se descompone en quarks para poder pasar a la Dimensión Transicional, donde se reintegra en un Tiempo negativo que compensa el T positivo que toma el proceso. Allí vuelve a pasar por el mismo proceso y "regresa" a su espacio y tiempo original.

En este proceso una pequeña parte de las partículas transicionales se escapan del agujero negro, permaneciendo en la Dimensión Real, produciendo el efecto llamado "Materia Oscura".

Es posible que el spin atómico sufra un cambio de dirección al pasar de una dimensión a otra, cambiando así sus características físicas temporalmente, por lo que se le relaciona con el magnetismo en un fenómeno no muy explicado actualmente.

La Gravedad se produce porque a mayor masa, el número de eventos se incrementa y la suma del movimiento de transición dimensional aumenta, incrementándose el movimiento de la masa hacia el área de más concentración

Dimensión 2

Esta teoría se basa en la existencia de una Dimensión paralela llamada "Transicional", a la que la Materia Conocida de éste universo fluye en movimiento circular, regresando en un tiempo casi cero al mismo casi espacio, con lo que se produce el efecto gravitacional.

El "peso" de un cuerpo es un efecto de la gravedad en el sentido de la masa, que en el caso de la Tierra, la atracción es en sentido hacia la masa más densa, que es el centro de la tierra. La velocidad de transición quántica interdimensional aumenta con la masa, por lo que la temperatura de ésta también aumenta.

En los planos de interacciones gravitacionales, que son casi infinitos, domina la masa más densa más cercana al punto determinado.

La luz puede ser afectada por la gravedad debido a que el flujo de electrones en forma de onda/particulas también es afectado por el mismo fenómeno, pero por ser de menor masa hay ligeras variaciones en el Factor T y un desplazamiento de la dirección en el espacio, aunque sólo mientras dure el efecto de la masa mayor.

El fenómeno conocido como "Ondas Gravitatoria" es realmente el flujo o movimiento atómico hacia la Dimensión transicional y regreso al mismo espacio/tiempo

Debido a que la Gravedad está relacionada con la masa, y esta se encuentra distribuida en forma irregular por el Universo, las llamadas "Ondas Gravitatorias" no poseen un orden o dirección especificos y existen numerosas interacciones.

Cuando se incrementa la masa artificialmente o por fenómenos cósmicos singulares, los agujeros negros cuanticos se condensan en uno mayor, lo que aumenta la velocidad del flujo cuántico y afecta el factor T, y por lo tanto la masa que se integra pierde estabilidad e incrementa su temperatura.

El Magnetismo existente en algunos metales o el generado artificialmente por inducción eléctrica, se explican por el mismo fenómeno, ya que al aumentarse el flujo de electrones sobre la masa, se afecta el factor temporal de flujo, lo que incrementa la gravedad, o el magnetismo, en el caso de masas pequeñas. Los campos magnéticos artificiales o naturales orientan el spin y aceleran el flujo quántico, incrementando la fuerza magnética.

Se puede simplificar la teoría con un ejemplo. Si tuviéramos un plato grande lleno de canicas, y al plato se le hiciera un agujero en el centro, cada vez que cae una canica se da un movimiento de todas las demás hacia el agujero. Si el agujero es mayor, caerán más canicas a la vez y el movimiento será mayor. Este movimiento sería la fuerza de gravedad.

Debido a la dispersión irregular de la masa en el espacio universal, la gravedad general sufre de interacciones en número casi infinito, aunque, si la teoría del Big Bang es cierta, debe tener una dirección expansiva general, desde la ubicación del átomo original, movimiento que, por supuesto, es imposible de detectar a nivel local.

Resumen:

Tenemos pues que ésta Hipótesis propone que la GRAVEDAD es un fenómeno de Movimiento de Masa de menor a mayor dado por un flujo interdimensional. En este fenómeno se afectan las dimensiones físicas Espacio y tiempo, por lo que solo se puede observar el "efecto" de éste fenómeno, y no su origen o funcionamiento.

Según la hipótesis propuesta, el llamado "Graviton" no existe, ya que la gravedad se produciría por un fenómeno de flujo interdimensional de la materia y no a causa de una partícula subatómica. Determinada.

Los "Campos Magnéticos" se forman debido al efecto acumulado de las áreas de gravedad mas densas. Su forma se debe a que el efecto de la energia sobrante del proceso de transición dimensional forma una onda reflejo permanente de la actividad.

La Materia Oscura es sólo Materia en Transición Interdimensional que se escapa del ANQ, por lo que su masa y energia es casi indetectable. Sin embargo, por la estabilidad y los Factores E y T, ésta masa existe como algo físico permanente y forma parte del Universo conocido.

Esto quiere decir que en nuestro Universo (o Dimensión) no existe el "espacio vacio", ya que todo está ocupado ya sea por materia real o por materia transicional, ambas con una masa cuantificable.

La Gravedad sería un fenómeno universal estático, siendo el efecto de la diferencia temporal incalculable de la transición de la materia entre las dimensiones, ida y vuelta.
 
http://www.monografias.com/trabajos16/gravedad-materia-oscura/gravedad-materia-oscura.shtml?news
Leer más...

España, cuando la energía es viento


por Alvaro Vargas Llosa
en Informe Uruguay

Cuando uno recorre las tierras de Don Quijote en Castilla-La Mancha, lo asalta el espectáculo orgulloso de los parques eólicos que salvarán, con su limpia energía, a Iberia y el planeta.
Lo siguen, ya en Andalucía, el de las granjas solares y los empleos ecológicos del futuro

Nota completa en:
http://www.uruguayinforme.com/news/04122009/04122009_alvaro_vargas_llosa.php
Leer más...

28 de noviembre de 2009

Apuntes sobre Fibra Óptica - Evolución histórica


El principio de la luz guiada a través de un conductor transparente fue físicamente explicado y demostrado a inicios del año 1870 por el físico británico John Tyndall (1820–1893).

Tyndall demostró que la luz puede ser guiada a través de un camino curvo en el agua, pero no fue hasta 10 años después exactamente en el año 1880 cuando Alexander Graham Bell (4 años antes de que descubrieran el Teléfono) inventó y patentó el Foto teléfono, el cual se usó para transmitir señales de voz a distancias de algunos cientos de metros, Bell usó luz solar con intensidad de sonido modulado y la reflejó de un espejo a otro para luego detectarla con un dispositivo de Selenium y la dependencia de las condiciones del tiempo y las aún insensibles foto celdas de Selenium obstaculizaron su aplicación práctica.

Inicialmente las Fibras Ópticas se usaron solamente para conectar centrales telefónicas en áreas de mucho tráfico en grandes ciudades y a medida que la tecnología de las comunicaciones avanzó, las fibras empezaron a penetrar en las redesde larga distancia y ya se tienden en áreas locales entre las centrales telefónicas y el equipo de los clientes, donde muchos nuevos edificios comerciales son cableados con Fibra Óptica para respaldar las redes telefónicas y las redes de cómputo de alta velocidad, lo ideal es que lleguen a todas las casas de los clientes del servicio telefónico y proveer sobre la misma Red de Fibra Óptica servicios de voz y vídeo.


La Fibra Óptica fue introducida primeramente como un reemplazo del Cable de Cobre para intercambio interno y otras conexiones a larga distancia, el primer sistema de Fibra Óptica comercial fue puesto ha operar en el año 1973 con una velocidad de 2Mbps en una conexión de 24km entre Frankfort y Oberursel en Alemania y en el año 1987 el primer cable comercial de larga distancia submarino entró en servicio a una capacidad de 280Mbps entre Francia y Córcega donde la conexión por Fibra Óptica sobre tierra más larga en el mundo opero a 2.5Gbps con sistemas SDH ejecutándose en Australia, entre Brisbane–Melbourne–Perth en 1996. Otras aplicaciones principales de la Fibra Óptica aparecieron en la red de acceso y la primera gran prueba fue usando la misma en la red de acceso en Japón para el año 1978 con un servicio de video a doble vía, una segunda prueba mayor de 4 años de duración se inició en el año 1986 en Berlín con una red de acceso de Fibra Óptica operando a una velocidad de 140Mbps que incluyó intercambios con ATM.

por Virgilio Zuaznabar Mazorra
Evolución de la fibra Óptica en el futuro - Tipología actual y proyecciones.

http://www.monografias.com/cgi-bin/jump.cgi?ID=141817
Leer más...

27 de noviembre de 2009

Cómo se cuenta la ciencia según Ricardo Preve


UN ARGENTINO EN LA NATIONAL GEOGRAPHIC

Siempre trato de hacer algo que tenga una cuota grande de calidad, un trabajo que valga para la sociedad a largo plazo. La posibilidad de utilizar la televisión como herramienta de educación y divulgación científica tiene un gran atractivo y representa un desafío especial”, dice el productor y director Ricardo Preve.



“Lo que buscamos con mi equipo es aplicar la ciencia a la televisión siempre acordándonos que los cineastas y directores somos contadores de cuentos. Y así hay que contar la ciencia: todo tiene que tener un principio, un desarrollo y un final y que la gente quiera saber cómo termina una historia”.
 
Enviado por Gacemail - TEA imagen
Leer más...

13 de noviembre de 2009

Apuntes sobre Radiactividad


La radiactividad o radioactividad es un fenómeno físico natural, por el cual algunos cuerpos o elementos químicos llamados radiactivos, emiten radiaciones que tienen la propiedad de impresionar placas fotográficas, ionizar gases, producir fluorescencia, atravesar cuerpos opacos a la luz ordinaria, etc. Debido a esa capacidad se les suele denominar radiaciones ionizantes (en contraste con las no ionizantes).

Las radiaciones emitidas pueden ser electromagnéticas, en forma de rayos X o rayos gamma, o bien corpusculares, como pueden ser núcleos de Helio, electrones o positrones, protones u otras.


La radiactividad es una propiedad de los isótopos que son "inestables". Es decir que se mantienen en un estado excitado en sus capas electrónicas o nucleares, con lo que para alcanzar su estado fundamental deben perder energía. Lo hacen en emisiones electromagnéticas o en emisiones de partículas con una determinada energía cinética. Esto se produce variando la energía de sus electrones (emitiendo rayos X), sus nucleones (rayo gamma) o variando el isótopo (al emitir desde el núcleo electrones, positrones, neutrones, protones o partículas más pesadas), y en varios pasos sucesivos, con lo que un isótopo pesado puede terminar convirtiéndose en uno mucho más ligero, como el Uranio que con el transcurrir de los siglos acaba convirtiéndose en plomo.

Es aprovechada para la obtención de energía, usada en medicina (radioterapia y radiodiagnóstico) y en aplicaciones industriales (medidas de espesores y densidades entre otras).

La radiactividad puede ser:

Natural: manifestada por los isótopos que se encuentran en la naturaleza.
Artificial o inducida: manifestada por los radioisótopos producidos en transformaciones artificiales.

Radiactividad natural

En 1896 Becquerel descubrió que ciertas sales de uranio emitían radiaciones espontáneamente, al observar que velaban las placas fotográficas envueltas en papel negro. Hizo ensayos con el mineral en caliente, en frío, pulverizado, disuelto en ácidos y la intensidad de la misteriosa radiaciónera siempre la misma. Por tanto, esta nueva propiedad de la materia, que recibió el nombre de radiactividad, no dependía de la forma física o químicaen la que se encontraban los átomos del cuerpo radiactivo, sino que era una propiedad que radicaba en el interior mismo del átomo.


El estudio del nuevo fenómeno y su desarrollo posterior se debe casi exclusivamente al matrimonio Curie, quienes encontraron otras sustancias radiactivas como el torio, polonio y radio. La intensidad de la radiación emitida era proporcional a la cantidad de uranio presente, por lo que dedujo Marie Curie que la radiactividad era una propiedad atómica. El fenómeno de la radiactividad se origina exclusivamente en el núcleo de los átomos radiactivos. Se cree que la causa que lo origina es debida a la interacción neutrón-protón del mismo.

Al estudiar la radiación emitida por el radio se comprobó que era compleja, pues al aplicarle un campo magnético parte de ella se desviaba de su trayectoria y otra parte no.

Pronto se vio que todas estas reacciones provenían del núcleo atómico que describió Rutherford en 1911, quien también demostró que las radiaciones emitidas por las sales de uranio eran capaces de ionizar el aire y de producir la descarga de cuerpos cargados eléctricamente.

Con el uso del neutrino, partícula descrita en 1930 por Pauli pero no medida hasta 1956 por Clyde Cowan y sus colaboradores, consiguió describirse la radiación beta.

En 1932 James Chadwick descubrió la existencia del neutrón que Wolfgang Pauli había predicho en 1930, e inmediatamente después Enrico Fermi descubrió que ciertas radiaciones emitidas en fenómenos no muy comunes de desintegración eran en realidad neutrones.
 
Radiactividad artificial
 
Se produce la radiactividad inducida cuando se bombardean ciertos núcleos estables con partículas apropiadas. Si la energía de estas partículas tiene un valoradecuado penetran dentro del núcleo bombardeado y forman un nuevo núcleo que, en caso de ser inestable, se desintegra después radiactivamente. Fue descubierta por los esposos Jean Frédéric Joliot-Curie e Irène Joliot-Curie, bombardeando núcleos de boro y aluminio con partículas alfa. Observaron que las sustancias bombardeadas emitían radiaciones después de retirar el cuerpo radiactivo emisor de las partículas de bombardeo.


En 1934 Fermi se encontraba en un experimento bombardeando núcleos de uranio con los neutrones recién descubiertos. En 1938, en Alemania, Lise Meitner, Otto Hahn y Fritz Strassmann verificaron los experimentos de Fermi. Es más, en 1939 demostraron que parte de los productos que aparecían al llevar a cabo estos experimentos era bario. Muy pronto confirmaron que era resultado de la división de los núcleos de uranio: la primera observación experimental de la fisión. En Francia, Jean Frédéric Joliot-Curie descubrió que además del bario, se emitían neutrones secundarios en esa reacción, haciendo factible la reacción en cadena.

También en 1932 Mark Oliphant teorizó sobre la fusión de núcleos ligeros (de hidrógeno), describiendo poco después Hans Bethe el funcionamiento de las estrellas en base a este mecanismo.

El estudio de la radiactividad permitió un mayor conocimiento de la estructura del núcleo atómico y de las partículas subatómicas. Se abre la posibilidad de convertir unos elementos en otros. Incluso el sueño de los alquimistas de transformar otros elementos en oro se hace realidad, aunque no resulte rentable.
 
Clases y componentes de radiación


Se comprobó que la radiación puede ser de tres clases diferentes:

Radiación alfa: Son flujos de partículas cargadas positivamente compuestas por dos neutrones y dos protones (núcleos de helio). Son desviadas por campos eléctricos y magnéticos. Son poco penetrantes aunque muy ionizantes. Son muy energéticos.

Radiación beta: Son flujos de electrones (beta negativas) o positrones (beta positivas) resultantes de la desintegración de los neutrones o protones del núcleo cuando este se encuentra en un estado excitado. Es desviada por campos magnéticos. Es más penetrante aunque su poder de ionización no es tan elevado como el de las partículas alfa. Por lo tanto cuando un átomo expulsa una partícula beta aumenta o disminuye su número atómico una unidad (debido al protón ganado o perdido).

Radiación gamma: Son ondas electromagnéticas. Es el tipo más penetrante de radiación. Al ser ondas electromagnéticas de longitud de onda corta, tienen mayor penetración y se necesitan capas muy gruesas de plomo u hormigón para detenerlos.

Las leyes de desintegración radiactiva, descritas por Soddy y Fajans, son:

Cuando un átomo radiactivo emite una partícula alfa, la masa del átomo (A) resultante disminuye en 4 unidades y el número atómico (Z) en 2.

Cuando un átomo radiactivo emite una partícula beta, el número atómico (Z) aumenta o disminuye en una unidad y la masa atómica (A) se mantiene constante.

Cuando un núcleo excitado emite radiación gamma no varía ni su masa ni su número atómico, solo pierde una cantidad de energía.

Las dos primeras leyes indican que cuando un átomo emite una radiación alfa o beta se transforma en otro átomo de un elemento diferente. Este nuevo elemento puede ser radiactivo, transformándose en otro, y así sucesivamente, dando lugar a las llamadas series radiactivas.

Causa de la radiactividad

En general son radiactivas las sustancias que no presentan un balance correcto entre protones o neutrones, tal como muestrael gráfico al inicio del artículo. Cuando el número de neutrones es excesivo o demasiado pequeño respecto al número de protones se hace más difícil que la fuerzanuclear fuerte debida al efecto del intercambio de piones pueda mantenerlos unidos. Eventualmente el desequilibrio se corrige mediante la liberación del exceso de neutrones o protones, en forma de partículas a que son realmente núcleos de Helio, partículas ÃY que pueden ser electrones o positrones. Estas emisiones llevan a dos tipos de radiactividad mencionados:

Radiación a, que aligera los núcleos atómicos en 4 unidades másicas, y cambia el número atómico en dos unidades.

Radiación ÃY, que no cambia la masa del núcleo, ya que implica la conversión de un protón en un neutrón o viceversa, y cambia el número atómico en una sola unidad (positiva o negativa, según la partícula emitida sea un electrón o un positrón).

De un trabajo realizado por Gregorio
en monografias.com
Leer más...

El uso de las funciones en la enseñanza de la Matemática


Un elemento esencial del lenguaje matemático es la función, la cual se requiere para expresar una variedad considerable de diferentes relaciones.

La generalización teórica posibilita generalizar sobre los elementos esenciales del fenómeno que se analiza, y no sobre los rasgos comunes y aparentes de los fenómenos, por lo tanto, cuando el estudiante ha desarrollado correctamente el proceso de generalización teórica, puede evaluar funciones sin presentar dudas en la realización de esta acción, ya que esta acción no presenta diferencias esenciales de una función a otra.


No obstante un estudio realizado muestra lo contrario, pues se pudo apreciar que en estudiantes universitarios, se mantienen las dificultades en la evaluación de funciones.

Un manejo adecuado del concepto de función propicia tanto que el estudiante comprenda las ideas matemáticas, sino también que pueda expresar sus propias conclusiones y lo que es más importante aún materializar su pensamiento, para poder profundizar en el estudio del fenómeno.

Interesante trabajo sobre el estudio realizado puede encontrarse en
http://www.monografias.com/cgi-bin/jump.cgi?ID=141359
Autor: Ramón Blanco Sánchez
Leer más...

22 de octubre de 2009

¿Qué son los satélites artificiales?


En el mundo actual, el término Telecomunicación define un conjunto de medios de comunicación a distancia o transmisión de palabras, sonidos, imágenes o datos en forma de impulsos o señales electrónicas o electromagnéticas. Un papel importante en las telecomunicaciones lo juegan los satélites artificiales.

Debemos definir al satélite de comunicaciones como "un repetidor radioeléctrico ubicado en el espacio, que recibe señales generadas en la tierra, las amplifica y las vuelve a enviar a la tierra". Es decir es un centro de comunicaciones que procesa datos recibidos desde nuestro planeta y los envía de regreso, bien al punto que envió la señal, bien a otro distinto. Los satélites pueden manipular datos, complementándolos con información del espacio exterior, o pueden servir sólo como un espejo que rebota la señal.

Muchos funcionan a partir de celdas solares, que alimentan sus centros de energía al convertir los rayos solares en energía eléctrica (las enormes aspas de molino que los caracterizaron durante años). No obstante, dicha tecnología va siendo sustituida por turbogeneradores que producen energía a partir del calor solar y de las reacciones nucleares, que son más pequeños y livianos que las celdas. Actualmente se desarrolla el uso de radioisótopos como fuentes de poder, pero todavía están en periodo de prueba.


La velocidad con que un satélite gira alrededor de la tierra está dada por la distancia entre ambos, ya que el mismo se ubicará en aquellos puntos en los que la fuerza de gravedad se equilibre con las de fuerza centrifuga; cuanto mayor es esa distancia, menor es la velocidad que necesita el mismo para mantenerse en órbita.

Es importante señalar que todo aparato debe quedar por encima de las cien millas de altitud respecto a la superficie de la Tierra, para que no sean derrumbados por la fuerza de gravedad terrestre. Los satélites ubicados en promedio a 321.80 kilómetros de altitud se consideran de órbita baja; y de órbita alta los que alcanzan distancias hasta de 35, 880 kilómetros sobre la superficie.

Los satélites son controlados desde estaciones terrestres que reciben su información y la procesan, pero que también monitorean el comportamiento y órbita de los aparatos. Por lo general, los centros terrenos no son aparatosas instalaciones, sino más bien pequeños tableros con poco personal que sin embargo controlan funciones geoespaciales especializadas.

por Orlando José Gaetano Hadad
en monografias.com
Leer más...

19 de octubre de 2009

Peso - Gravedad - Equilibrio - Palancas - Poleas y aparejos


(conceptos extraídos del antiguo y conocido libro de Carlos Miguel)

Peso y centro de gravedad.

El peso de un cuerpo representa la fuerza de gravedad que se ejerce sobre él.
La fuerza de gravedad atrae el cuerpo hacia el centro de la Tierra.
Pero la fuerza de atracción de la gravedad no es igual en todos los puntos del planeta: es mayor en los polos y menor en el ecuador, porque depende de la distancia.

Se llama "centro de gravedad" al punto de aplicación del peso (fuerza) de un cuerpo. Es el punto por donde pasa la recta de acción (dirección) del peso del cuerpo.

Equilibrio.

De aquí podemos definir las condiciones de equilibrio de los cuerpos.

Si el cuerpo está suspendido (colgado): el equilibrio será estable cuando el punto de suspensión está por encima del centro de gravedad; será inestable cuando el punto de suspensión esté por debajo del centro de gravedad; y será indiferente cuando el punto de suspensión coincida con el centro de gravedad.

Si el cuerpo está apoyado: el equilibrio será estable cuando la vertical trazada por el centro de gravedad pase por la base de sustentación; y será inestable cuando pase por fuera de esa base.

Máquinas simples.

PALANCA: barra rígida que puede girar alrededor de un punto fijo (punto de apoyo).

Interesa conocer las fuerzas que actúan ("potencia" P y "resistencia" R) y las distancias entre el punto de aplicación de cada una de ellas y el punto de apoyo ("brazo de potencia" bp y brazo de resistencia "br").

El producto de cada fuerza por su brazo se denomina "momento" de la fuerza.

La condición de equilibrio de una palanca será siempre:  P x bp = R x br

Es decir: la palanca está en equilibrio cuando el momento de la potencia es igual al momento de la resistencia.
Pueden distinguirse tres géneros de palanca:

Primer género: el punto de apoyo se encuentra entre la potencia y la resistencia. (PAR)
Ej.: tijeras.

Segundo género: la resistencia se encuentra entre el punto de apoyo y la potencia.  (ARP)
Ej. : carretilla.

Tercer género: la potencia se encuentra entre el punto de apoyo y la resistencia. (APR)
Ej. : caña de pescar.

POLEA: mecanismo que consta de un disco material con su periferia acanalada por la cual puede hacerse pasar una soga, cable o cadena que, al desplazarse lo hace girar alrededor de un eje que se encuentra en su centro.

Hay dos tipos de poleas: fijas y móviles.

Una polea fija es la que no desplaza su centro de gravedad cuando se la hace girar. Como los brazos de la potencia y la resistencia son iguales (son radios de la polea), entonces la condición de equilibrio será P = R
(cuando la potencia es igual a la resistencia). No ahorra fuerza. Solamente facilita la operación.

Una polea móvil sufre el desplazamiento de su centro de gravedad cuando se la hace girar. Está "libre", solamente mantenida por la sogra, cuerda o cable que se encuentra en su acanaladura. La condición de equilibrio es que la potencia necesaria será la mitad de la resistencia a vencer. Ahorra fuerza y facilita la operación.

Combinando una polea fija con poleas móviles se crean "aparejos" que pueden ser de dos tipos:
- potenciales: donde la potencia a aplicar será igual a la resistencia a vencer dividida por 2 elevado a la cantidad de poleas móviles empleadas.
- factoriales: donde la potencia a aplicar será igual a la resistencia a vencer dividida por 2 multiplicado por la cantidad de poleas móviles empleadas.
Leer más...

16 de octubre de 2009

Sistema eléctrico: conceptos básicos


Un sistema eléctrico es el recorrido de la electricidad a través de un conductor, desde la fuente de energía hasta su lugar de consumo. Todo circuito eléctrico requiere, para su funcionamiento, de una fuente de energía, en este caso, de una corriente eléctrica.

Es una serie de elementos o componentes eléctricos o electrónicos, tales como resistencias, inductancias, condensadores, fuentes, y/o dispositivos electrónicos semiconductores, conectados eléctricamente entre sí con el propósito de generar, transportar o modificar señales electrónicas o eléctricas.


Clasificación:
1. Por el tipo de señal: De corriente continua, de corriente alterna y mixtos.
2. Por el tipo de régimen: Periódico, Transitorio y Permanente.
3. Por el tipo de componentes: Eléctricos: Resistivos, inductivos, capacitivos y mixtos. Electrónicos: digitales, analógicos y mixtos.
4. Por su configuración: En Serie y Paralelo.
 
Conductor eléctrico: Cualquier material que ofrezca poca resistencia al flujo de electricidad se denomina conductor eléctrico. La diferencia entre un conductor y un aislante, que es un mal conductor de electricidad o de calor, es de grado más que de tipo, ya que todas las sustancias conducen electricidad en mayor o en menor medida. Un buen conductor de electricidad, como la plata o el cobre, puede tener una conductividad mil millones de veces superior a la de un buen aislante, como el vidrio o la mica. En los conductores sólidos la corriente eléctrica es transportada por el movimiento de los electrones; y en disoluciones y gases, lo hace por los iones.
 
Los materiales en los que los electrones están fuertemente ligados a los átomos se conocen como aislantes, no conductores o dieléctricos. Algunos ejemplos son el vidrio, la goma o la madera seca.
 
Un tercer tipo de material es un sólido en el que un número relativamente pequeño de electrones puede liberarse de sus átomos de forma que dejan un "hueco" en el lugar del electrón. El hueco, que representa la ausencia de un electrón negativo, se comporta como si fuera una unidad de carga positiva. Un campo eléctrico hace que tanto los electrones negativos como los huecos positivos se desplacen a través del material, con lo que se produce una corriente eléctrica. Generalmente, un sólido de este tipo, denominado semiconductor, tiene una resistencia mayor al paso de corriente que un conductor como el cobre, pero menor que un aislante como el vidrio. Si la mayoría de la corriente es transportada por los electrones negativos, se dice que es un semiconductor de tipo n. Si la mayoría de la corriente corresponde a los huecos positivos, se dice que es de tipo p.
 
La carga eléctrica es: Q = n.q
donde n es número de electrones que circulan, y q la carga eléctrica de un electrón [en Coulombs].

•Intensidad: El flujo de carga que recorre un cable se denomina intensidad de corriente(i) o corriente eléctrica, y es la cantidad de coulombs que pasan en un segundo por una sección determinada del cable. Un coulomb por segundo equivale a 1 amper, unidad de intensidad de corriente eléctrica. La corriente es dinámica.


i = q/t
donde i es la intensidad [en Ampers] y t el tiempo [en segundos].

•Campo eléctrico: Fuerza aplicada por unidad de carga.


E = F/q
donde E: campo eléctrico [en Newtons/Coulomb], F la fuerza [en Newtons] y q la carga eléctrica [en Coulombs].

La diferencia de potencial genera un campo eléctrico.


•Diferencia de potencial: La diferencia de potencial es constante. Al circular partículas cargadas entre dos puntos de un conductor se realiza trabajo. La cantidad de energía necesaria para efectuar ese trabajo sobre una partícula de carga unidad se conoce como diferencia de potencial (V). Esta magnitud se mide en volts. Cuando una carga de 1 coulomb se desplaza a través de una diferencia de potencial de 1 volt, el trabajo realizado equivale a 1 joule. Esta definición facilita la conversión de cantidades mecánicas en eléctricas.

L = V.q
donde L es el trabajo [en Julios], V es diferencia de potencial o tensión [en Voltios] y q es la carga [en Coulombs].

Hay mucha más información en:
Sistema eléctrico - Características, conceptos básicos, elementos, leyes.

http://www.monografias.com/cgi-bin/jump.cgi?ID=139327
un trabajo realizado por Andreina Correia
Leer más...

Nuevas energías: intereses privados e intereses ambientales


Modelo de hiper-desarrollo para nuevas energías
Confluencia de intereses privados y ambientales.


http://www.monografias.com/cgi-bin/jump.cgi?ID=137195

David Sánchez Palacios

daviddesalamanca@hotmail.com
Leer más...

Saint-Exupery dice sobre la vocación...


Conoces lo que tu vocación pesa en ti. Y si la traicionas, es a ti a quien desfiguras; pero sabes que tu verdad se hará lentamente, porque es nacimiento de árbol y no hallazgo de una fórmula.

Antoine de Saint-Exupery

1900-1944. Escritor francés.
Leer más...

10 de octubre de 2009

Premio Nobel de Física 2009: Kao, Boyle y Smith



Tres veteranos científicos que lograron hace varias décadas dominar la luz y dieron lugar a aplicaciones prácticas en la electrónica y las comunicaciones, como los sensores de imagen de las cámaras digitales y la transmisión por fibra óptica a larga distancia, han obtenido el premio Nobel de Física.

Charles Kao, nacido en China en 1933 y que trabajaba en los laboratorios de Standard, en el Reino Unido, puso las bases para una transmisión eficiente de una enorme cantidad de información a través de la luz por las fibras ópticas, sin la cual no existiría la comunicación casi instantánea como la de Internet. Se lleva la mitad del premio, dotado con 980.000 euros.


William Boyle (nacido en Canadá en 1924) y George Smith (nacido en 1930 en Estados Unidos) crearon en los Laboratorios Bell de Estados Unidos el circuito semiconductor de imagen CCD (Charged Coupled Device), el sensor que es la base de la fotografía digital y ha introducido los píxeles (unidades de información) en el lenguaje habitual. Por ejemplo, el telescopio espacial Hubble toma sus espectaculares imágenes a través de una avanzadísima cámara CCD. Estos científicos comparten la otra mitad del premio.

"Son inventos que han cambiado completamente nuestras vidas y también han proporcionado herramientas para la investigación científica", dijeron los representantes de la Academia de Ciencias sueca durante el anuncio del galardón, a las 11.45 en Estocolmo.

La tecnología CCD se basa en el efecto fotoeléctrico que predijo Albert Einstein, y que le valió el premio Nobel en 1921. Este efecto hace que la luz se transforme en señales eléctricas. El hecho de que permita captar imágenes sin recurrir a la película y en forma digital ha hecho explotar las posibilidades de la fotografía y el video, incluidas las científicas, y facilita la transmisión de las imágenes por las redes mundiales de comunicaciones, basadas en gran parte en la fibra óptica, de la que ya hay instalados 1.000 millones de kilómetros.
 
EL PAÍS - Madrid - 06/10/2009
Leer más...

7 de octubre de 2009

Cómo funciona la telefonía celular


Los teléfonos móviles o celulares son en esencia unos radioteléfonos de baja potencia. Las llamadas pasan por transmisores de radio colocados dentro de pequeñas unidades geográficas llamadas células. Las células cubren la casi totalidad del territorio, pero especialmente las zonas habitadas y las vías de comunicación (como carreteras y vías de ferrocarril) desde donde se realizan la mayoría de las llamadas. Los transmisores de radio están conectados a la red telefónica, lo que permite la comunicación con teléfonos normales o entre sí.

Células contiguas operan en distintas frecuencias pera evitar interferencias. Dado que las señales de cada célula son demasiado débiles para interferir con las de otras células que operan en las mismas frecuencias, se puede utilizar un número mayor de canales que en la transmisión con radiofrecuencia de alta potencia. Cuando un usuario pasa de una célula a otra, la transmisión tiene que cambiar de transmisor y de frecuencia. Este cambio se debe realizar a alta velocidad para que un usuario que viaja en un automóvil o tren en movimiento pueda continuar su conversación sin interrupciones.

La modulación en frecuencia de banda estrecha es el método más común de transmisión y a cada mensaje se le asigna una portadora exclusiva para la célula desde la que se transmite. Hoy en día ya existen teléfonos móviles multibanda que pueden utilizar dos o tres portadoras a la vez, con lo que se reduce la posibilidad de que el teléfono pierda la señal.

Los teléfonos móviles digitales se pueden utilizar en cualquier país del mundo que utilice el mismo sistema de telefonía móvil. También existen teléfonos móviles que permiten el acceso a Internet, la transmisión y recepción de fax, e incluso videoteléfono.
 
De un trabajo realizado por Sergio
y publicado en monografias.com:
Investigación sobre el teléfono - Evolución y tendencias tecnológicas.

http://www.monografias.com/cgi-bin/jump.cgi?ID=140749
Leer más...

6 de octubre de 2009

Juan Carlos García profundiza en la vida y las teorías de Albert Einstein


La teoría de la relatividad:
más de un siglo de vida


Por Juan Carlos García
© Especial para mediaIsla

Con una centena de años a cuestas, a la Teoría de la Relatividad luce más joven que nunca. Para compartir con todos en Media Isla, les presento unas reflexiones sobre E=mc2. Es una fórmula tremendamente simple y maravillosamente compleja. Gran parte de los misterios del universo quedan del todo esclarecidos gracias a ella. Por medio de E=mc2, la Teoría de la Relatividad ha sido probada hasta en un 99%. Que un cerebro humano haya sido capaz de sospechar que la materia y la energía son dos manifestaciones de la misma cosa, prueba que el Dr. Einstein fue un verdadero genio.

Que una persona haya descubierto que espacio y tiempo también son dos manifestaciones de la misma cosa, demuestra lo privilegiado de la mente creadora de Don Albert. Es más: que alguien haya sido capaz de establecer que el tiempo y el espacio se curvan ante la presencia de masa, lo que se manifiesta ante nuestros ojos como la fuerza de gravedad, deja claro que el inmenso talento del científico alemán no ha tenido parangón en la historia de la ciencia.

A su vez, este sabio deslumbrante demostró que la curvatura del espacio-tiempo afecta la trayectoria de los cuerpos móviles, incluida la luz. De este modo, la tesis de Einstein desplaza de golpe a la ciencia de Newton, que tenía casi 400 años de autoridad física. Igualmente, afirmar que "El universo es finito pero ilimitado" es una contundente muestra de su capacidad para elaborar conceptos. Para muchos, semejante postulado suena a contradicción, pero es una proclamación llena de profundidad y elegancia.

Con su fórmula E=mc2 todo quedó claro: la fuerza de gravedad, la expansión del universo, la materia oscura, los agujeros negros, los agujeros de gusano, los pulsares, las estrellas de neutrones, la naturaleza del Sol y la cantidad de vida que le queda por delante. A causa de dichas 4 siglas, quizás la teoría de cuerdas del mundo sub-atómico y de mecánica cuántica, queden a la postre finalmente comprendidos.

Sin embargo, Einstein fue arrastrado por el vendaval de la política, pese a ser el primer enemigo de este quehacer humano. Albert Einstein aborrecía la política y a los políticos.

Curioso es que el gran pacifista que fue Albert Einstein, urgió al presidente de los Estados Unidos a construir la bomba atómica. La carta fue enviada al presidente Franklin D. Roosevelt, pero quien la ejecutó fue su sucesor, el presidente Truman. Sólo se construyeron dos bombas. No había más en 1945. Eran dos artefactos enormes: Trinity fue el apodo para el lanzamiento de prueba, como Fatman (Gordito) lo fue para el escenario real de Hiroshima. Si fallaban o no lograban persuadir a Japón de rendirse, la Segunda Guerra Mundial habría continuado, quién sabe a costo de cuántas muertes y cuántas bombas más.

Cuando niño, Einstein cayó enfermo. Estando en cama su padre le regaló una brújula, que fue la clave de muchos de sus hallazgos, según explicó años más adelante. ¿Pero qué tiene que ver una brújula con su fórmula? Nada. Pero despertó su imaginación, que fue lo importante. Un dato al margen: se dice que tuvo muchas amantes, todas aprobadas por su segunda esposa, ya que con ella firmó un acuerdo sui generis matrimonial, en una de cuyas cláusulas le permitía tomarse esta clase de libertades de aposento. Quizás, como en todo, meros chismes de postín científico.

Al centro de un lago se le vería tocar el violín, a solas, reiteradas veces con la complicidad de su silencio, y bajo el plafón de la noche tachonado de estrellas. El Dr. Einstein aseguraba que la moralidad no era dictada por Dios sino escrita por la humanidad. La ética, -dijo muchas veces- es una preocupación exclusivamente humana, sobre la que no hay ninguna autoridad sobrehumana. Vegetariano el resto de su vida desde los 60, creyó fuertemente en el renacer de nuestra especie, pero a costa de mucho sacrificio.

Pese a su talento superior, el Dr. Einstein era un matemático relativamente pobre. Basta decir que no aprobó su examen de admisión a la universidad. Su esposa, Mileva, era quien muchas veces lo asistía en dicha materia. Algunos extraviados han llegado a afirmar que su fórmula se la dictó un extraterrestre, ya que ningún ser humano estaría en capacidad de elaborarla. Como ser humano al fin, cometió hasta 6 errores de cálculo al intentar explicar matemáticamente su fórmula.

Un alumno suyo logró sacarlo de uno de sus errores llenado delante de él 5 pizarras de cálculos. Einstein le quedó hondamente agradecido. Se le llama el genio de las 23 errores, ya que esa fue la cantidad de metidas de pata que cometió en nombre de la ciencia, un número muy alto de errores fácilmente perdonables gracias a su resplandeciente joya universal: E=mc2. Dicha fórmula ha sido reproducida en 90 de los 101 pisos del Taipei 1001, de Taiwán y ha sido formada por 20 mil estudiantes para establecer un récord Guinness.

[Juan Carlos García, además de periodista y escritor, es astrónomo, graduado en Cambridge, England, en 1982]
Leer más...

1 de octubre de 2009

Los caminos epistemológicos de la Física


El método tradicional del examen sistemático de los resultados obtenidos por la observación no es el único camino para alcanzar las leyes de la ciencia física. Los dos grandes avances de la física actual han sido el producto de un análisis epistemológico: por este procedimiento Einstein probó la imposibilidad de un movimiento absoluto y Heisenberg llegó a su principio de incerteza.

Arthur Eddington

Leer más...

Turbinas eólicas de eje vertical


VEAN ESTAS TURBINAS EÓLICAS

DE EJE VERTICAL!!!

http://www.youtube.com/watch?v=nTtV9YF_WIs

Enviado por Taller Urbano Radio
El programa de los Arquitectos de la Provincia de Buenos Aires
Leer más...

26 de septiembre de 2009

La investigación científica. Definiciones y conceptos.


INVESTIGACIÓN


Es el proceso sistemático organizado o dirigido que tiene como objeto fundamental la búsqueda de procedimientos válidos y confiables sobre hechos y fenómenos del hombre y del universo.

INVESTIGACIÓN POR EL PROPÓSITO

Es aquella que establece la intención de lo que se pretende realizar con los resultados de la investigación. Se divide en básica y aplicada.

INVESTIGACIÓN BÁSICA

Se caracteriza porque busca el conocimiento en si, en la determinación de generalizaciones universales, realizando teorías científicas, sistemáticas, y coherentes que se refieren a un área del saber humano.
Ejemplo: leyes de la electricidad, de la contabilidad.

INVESTIGACIÓN APLICADA

Es el trabajo científico que busca obtener conocimientos e informar sobre hechos o fenómenos para aplicarlos en el enriquecimiento de la ciencia y la solución de los problemas humanos.
Ejemplo: investigar los fenómenos que producen inflación para resolver los aumentos saláriales; o investigar las causas por las que desertan los estudiantes. Se utiliza para luego aplicar soluciones.

Julio Oviedo
El método científico - Definición, estructura, importancia, discusión.

http://www.monografias.com/cgi-bin/jump.cgi?ID=132470
Leer más...

24 de septiembre de 2009

Ya está aquí "Rayo azul" - el nuevo disco óptico


Disco Blu-ray


Blu-ray (también conocido como Blu-ray Disc o BD), Rayo azul o Rayazul es un formato de disco óptico de nueva generación de 12 cm de diámetro (igual que el CD y el DVD) para vídeo de alta definición y almacenamiento de datos de alta densidad.

El uso del láser azul para escritura y lectura permite almacenar más cantidad de informaciónpor área que los discos DVD, debido a que el láser azul tiene una menor longitud de onda que los láseres usados para almacenar en discos DVD.


Su capacidad de almacenamiento llega a 50 gigabytes a doble capa, y a 25 GB a una capa. El Blu-ray de 400 GB a 16 capas ya fue patentado y se espera que salga al mercado en el 2010, así como se tiene pensado patentar un Blu-Ray de 1 terabyte para 2011 ó 2012.

por Pablo Cesar Ttito C.
Más información en:
Disco Blu-ray - Todo sobre el sucesor del DVD.

http://www.monografias.com/cgi-bin/jump.cgi?ID=140345
Leer más...

12 de septiembre de 2009

Motores eléctricos de corriente contínua


Los motores eléctricos de corriente continua son el tema de base que se amplia en el siguiente trabajo, definiéndose en el mismo los temas de más relevancia para el caso de los motores eléctricos de corriente continua, como lo son: su definición, los tipos que existen, su utilidad, distintas partes que los componen, clasificación por excitación, la velocidad, la caja de bornes y otros más.

Esta máquina de corriente continua es una de las más versátiles en la industria. Su fácil control de posición, par y velocidad la han convertido en una de las mejores opciones en aplicaciones de control y automatización de procesos.

Pero con la llegada de la electrónica su uso ha disminuido en gran medida, pues los motores de corriente alterna, del tipo asíncrono, pueden ser controlados de igual forma a precios más accesibles para el consumidor medio de la industria. A pesar de esto los motores de corriente continua se siguen utilizando en muchas aplicaciones de potencia (trenes y tranvías) o de precisión (máquinas, micro motores, etc.) .

Recomendamos la monografía de Sergio Tirado
en monografías.com:

Motores de corriente directa (C.D.)
Definición, tipos, utilidad, componentes.




posicionamiento en buscadores Barcelona


batidos proteinas

novasoft



anuncios patrocinados



relojes dolce & gabbana

reportaje boda bilbao

tarot videncia

tasaciones

naves industriales

printing barcelona




Leer más...

6 de septiembre de 2009

¿Puede la ciencia predecir el futuro?

Leer más...

Etapas del proceso de investigación científica


El proceso de investigación científica como equivalente al método de investigación, debe expresar los fundamentos conceptuales y metodológicos de la ciencia. Existen varias formas o vías para plantear este proceso de investigación, con diferentes etapas y secuencias; lo importante es que sea un razonamiento lógico dirigido a definir y resolver una interrogante de investigación.


Etapas del proceso de investigación científica.
Descripción del proceso organizado con criterio académico.



Leer más...

20 de agosto de 2009

Qué es un "agujero negro"


Un agujero negro es una región finita del espacio-tiempo, con un campo gravitatorio tan fuerte que ni siquiera la radiación electromagnética puede escapar de su proximidad.

Un campo de estas características puede corresponder a un cuerpo de alta densidad con una masa relativamente pequeña -como la del Sol o menor- que está condensada en un volúmen mucho menor, o a un cuerpo de baja densidad con una masa muy grande, como una colección de millones de estrellas en el centro de una galaxia.

Es un "agujero" porque las cosas pueden caer, pero no salir de él, y es negro porque es la superficie límite del espacio a partir de la cual ninguna partícula puede salir, incluyendo la luz. Cualquier evento que ocurra en su interior queda oculto para siempre para alguien que lo observe desde afuera. Otra forma de decirlo es que un agujero negro es un objeto para el que la velocidad de escape es mayor que la velocidad de la luz, conocido como el último límite de velocidad en el universo.
De una monografía publicada por Roberto
Leer más...

18 de agosto de 2009

Problema: El niño en la bañera


En una tina (bañera o bañadera), un niño juega con un barquito cargado de tornillos.

Si arroja la carga al agua y deja que el bote siga flotando vacío, ¿el nivel del agua de la bañera subirá o descenderá?

¿Por qué?

Leer más...

E pur si muove


Tenía setenta y nueve años de edad y su cabello y su barba eran tan blancos como la espuma. Sus ojos, que miraron al cielo a través de sus telescopios y observaron más que cualquier ser humano desde el principio de los tiempos, estaban apagados por la edad. Su reputación de ser uno de los más brillantes científicos de su tiempo fue la razón de que reyes, reinas disputaran sus servicios. Ahora estaba arrodillado ante el temido tribunal de la Inquisición, obligado a confesar públicamente un error que no era error: " Yo Galileo Galilei..., abandono la falsa opinión... de que el Sol es el centro (del Universo) y está inmóvil....Abjuro, maldigo y detesto los dichos errores". Algunos dicen que cuando el anciano se puso de pie murmuró para sus adentros: "E pur si muove" : Y sin embargo (la Tierra) se mueve (alrededor del Sol).
A veces no es fácil defender una convicción científica. "E pur" (y sin embargo) muchos científicos lo hicieron o lo intentaron hacer. Si hay algo en lo que crees, aunque todos te tilden de tonto o de loco, debes insistir en ello hasta que te convenzan de tu error por la razón y no por la fuerza. Quizá no lo logren, y así lo que crees será lo que todos crean después.
Leer más...

14 de agosto de 2009

Hombres nucleares y mujeres biónicas




Daniela Cerqui, antropóloga de la Universidad de Lausanne, Suiza, se pregunta sobre las implicancias y los límites a la incorporación de tecnología al cuerpo humano.


"Hay gente que argumenta que siempre hemos sido ciborgs porque siempre hemos recurrido a la tecnología para solucionar problemas de nuestro cuerpo. Desde este punto de vista, no habría razones para poner límites, porque sería algo natural para nosotros. La pregunta es: ¿qué tan lejos podemos llegar en esta mezcla con la tecnología? ¿Seguimos siendo humanos una vez que reemplazamos todos nuestros órganos con prótesis, algo que se está volviendo cada vez más posible?", cuestiona.


Cerqui pone el énfasis en la necesidad de anticiparse a los avances y de analizar qué valores están detrás. "Nos acostumbramos muy rápidamente a lo que la tecnología nos permite hacer. Y una vez que estamos acostumbrados, nos parece normal. Entonces los debates suelen centrarse en las consecuencias, una vez que estas tecnologías ya están aplicadas. Habría que preguntarse con mayor frecuencia qué clase de sociedad estamos construyendo".
Leer más...

13 de agosto de 2009

Kilogramo Patrón Universal


Patrón de medida

Es una unidad de medida elegida para poder comparar con ella cualquier resultado de una medición. Se elige por acuerdo y conveniencia.

El espacio (distancia entre 2 puntos) tiene como unidad patrón internacional el METRO.
El tiempo tiene como unidad patrón internacional el SEGUNDO.
La unidad internacional de masa es el KILOGRAMO patrón.

Masa

La masa es, en realidad, una medida de la "inercia", es decir, de la tendencia de un cuerpo a mantener su estado de movimiento en magnitud y en dirección. Está relacionada con la cantidad y calidad de átomos que lo forman. En condiciones normales es considerada como constante, aunque la teoría de la relatividad (Einstein) permite demostrar que varía con la velocidad con que se mueve (importante solamente para velocidades cercanas a la de la luz).

Un KILOGRAMO MASA es la masa de un cilindro de Platino-Iridio que se guarda en Sèvres (Francia).

Algunos múltiplos y submúltiplos del KILOGRAMO MASA (kg) son:
· la tonelada métrica = 10 a la 3 kg
· el gramo = 10 a la -3 kg (unidad de masa en el sistema cgs).
· el miligramo = 10 a la -6 kg
· la uma (unidad de masa atómica) = 1,66 x 10 a la -27 kg
· la UTM (unidad técnica de masa o unidad de masa en el sistema técnico) = 9,8 Kg
Leer más...

El Metro Patrón Universal


Medir
Es comparar con una unidad patrón previamente elegida.



Metro

Un METRO era, inicialmente (1889), la diezmillonésima parte de la longitud del cuadrante terrestre que va desde el Polo Norte hasta el ecuador, pasando por París. Esa unidad se registró colocando dos marcas sobre una barra de Platino-Iridio.

Las dificultades que originaba la reproducción de esa medida hicieron que en 1960 se definiera al METRO como 1.650.763,73 veces la longitud de onda de la luz anaranjada emitida por el Kriptón-86 encerrado en gas Kriptón cuando se lo somete a una descarga eléctrica. Tampoco era sencilla de reproducir.
En 1983 se redefinió el METRO como la distancia recorrida por la luz en el vacío en 1/299.792.456 segundos (1/c, donde c es la velocidad de la luz en el vacío).
Es la unidad de espacio en los sistemas MKS y técnico.

Longitud

También conocida como “espacio” o “distancia”, es la diferencia de posición de dos puntos. Es unidimensional (importa el largo pero no el ancho ni el alto). Su unidad de medida es el metro.

Algunos múltiplos del METRO (m) son:
· el decámetro (Dm o dam) = 10 m
· el hectómetro (hm) = 100 m
· el kilómetro (km) = 1.000 m

Algunos submúltiplos del METRO (m) son:
· el decímetro (dm) = 0,1 m
· el centímetro (cm) = 0,01 m (unidad de espacio en el sistema cgs).
· el milímetro (mm) = 0,001 m
· el micrón (micra) = 1 milésima de mm
· el milimicrón (milimicra) = 10 a la -9 m
· el ángstrom = 10 a la 10 m

****************************

Leer más...

12 de agosto de 2009

La ciencia al diván


El académico José Félix Patiño comenta el libro Psicoanálisis y la teoría de la complejidad, cuyo autor es Guillermo Sánchez Medina. Dice el comentarista que en el siglo XXI ya se acepta una inversión del paradigma clásico de la ciencia establecido por la física: lo natural era lo determinista y reversible, lo que obedecía a las leyes de los sistemas lineales, y lo excepcional era lo aleatorio, lo irreversible.

Pero el mundo que nos rodea, dice Patiño, no es geométrico: las nubes no son esferas, las montañas no son conos, los lagos no son círculos. Los fenómenos naturales son impredecibles por las leyes de la física y de las "ciencias duras". Y tampoco lo son nuestras vidas, nuestro comportamiento fisiológico y psicológico, nuestra organización social. Los físicos trabajan con sistemas en equilibrio termodinámico; los médicos con organismos vivos de altos niveles de organización dinámica e interactiva. Los saberes están interrelacionados porque todos están impregnados de complejidad, lo que rompe con la rigidez del positivismo al hacer de cada ciencia un saber inmaculado.

Los saberes pueden ser medidos y cuantificados con toda precisión y su comportamiento es predecible por las leyes de la física clásica; para otros sin embargo, como el Derechos y las ciencias eidéticas, sólo se conoce el azar; su comportamiento se rige por leyes subyacentes todavía carentes de un impacto definitorio como ciencias. Pero es un hecho a estas alturas del siglo XX que a la complejidad del organismo humano se suma la sobrecogedora complejidad del cerebro y de la actividad mental. Todo interrelacionado.

La nueva visión de la ciencia es la de lo que es más común en la naturaleza: los sistemas complejos no lineales, los procesos irreversibles. La biología, la fisiología, la medicina tienen hoy esta perspectiva. A ella llegan ahora la psicología y, como lo plantea Guillermo Sánchez Medina, el psicoanálisis.


Leer más en:


Leer más...

11 de agosto de 2009

Electrostática


Los griegos descubrieron que al frotar la piel de un animal con un material llamado “ámbar”, éste atrae luego pequeños objetos, por lo menos durante unos instantes. A esta propiedad la llamaron “electrón” (ámbar), y a estos fenómenos les dieron el nombre de “eléctricos”.

Pero los estudios más organizados recién comenzaron en el siglo XVIII con el estadounidense Benjamín Franklin.

No se sabe realmente todavía por qué ocurren esos fenómenos. Se ha llegado a la conclusión de que la fuerza eléctrica es causada por la aparición de cargas eléctricas pero lo que se ignora es por qué en algunos cuerpos aparecen cargas eléctricas y en otros no, y qué son realmente esas cargas eléctricas. Es decir: se conoce más por lo que hacen que por lo que son.

Hay dos clases de carga diferentes. Cargas iguales se repelen y cargas distintas se atraen.

Los cuerpos se cargan porque se rompe el equilibrio natural entre el número de electrones y de protones que, en condiciones normales, son iguales. Cuando un átomo gana o pierde electrones se dice que está “cargado”. Por convención, se llama “positiva” la carga de un protón del núcleo atómico, y “negativa” la carga de un electrón de sus capas exteriores.

En un sistema aislado, la cantidad de carga es constante. La carga no se produce, sino que se redistribuye.

Leer más...

10 de agosto de 2009

El espacio, el tiempo, la gravedad y otra teoría



Compactación de espacio-tiempo
una teoría

La gravedad NO es tan solo una “curvatura del espacio-tiempo”; es una compactación del espacio.
El proceso es similar al que sucede cuando se mueven las placas tectónicas y estas se comprimen plegándose: la gravedad es un “plegamiento tridimensional” del espacio.
Se podría considerar cómo una goma o jebe flexible, la “telaraña del universo” en donde estuvieron y/o están las estrellas y sistemas.
Si se sabe que el espacio tomar “formas” y que es estirado y retorcido (y hasta “abollado”) con el girar de un planeta, entonces ¿por qué no puede concebir que así como el espacio se “curva, estira y retuerce” (según la física-astronomía moderna) entonces también se COMPACTA?
Si el espacio es capaz de tomar FORMAS entonces también se puede compactar.
Digamos que masa “jala” el espacio que le rodea hacia ella y por tanto dos masas opuestas “jalarán” el espacio que les rodea compactándolo-plegándolo alrededor de ellas, generando en el espacio una “tensión intermedia” y al mismo tiempo generando una descompactación (desplegamiento: menos aceleración G) del espacio de la masa opuesta conforme ambas masas se acercan.
Ambas masas COMPRIMEN el espacio que les rodea ocasionando también un descompresión (descompactación) del espacio opuesto plegado por la otra masa generando así un mutuo desplegamiento, variando las fuerzas y aceleraciones gravitacionales de las masas opuestas conforme se acercan pero también al mismo tiempo compensando las variaciones G.
La ley de Newton de la “acción y reacción” exige que la masa (que es “algo”) genere una reacción en el espacio. Esa reacción es el plegamiento-compactación del espacio, la masa “atrae” el espacio, y la masa NO atrae a la masa directamente sino al espacio que es compactado por la masa opuesta.
Por cuanto dos masas compactan el espacio que le rodea generando así un nivel de “tensión” del espacio intermedio, entonces el espacio buscará la “menor tensión” del espacio entre ambas masas produciendo así la atracción. Esa menor tensión intermedia ocurre en el CONTACTO entre ambas masas. ¿Entonces la gravedad NO reside en la masa sino en el espacio?

http://lpm.worldfreeweb.com/arriztizoc/fisica-gravedad.doc
Leer más...