martes, 15 de mayo de 2012

2.- NANOTECNOLOGÍA.

1.-  NANOTECNOLOGÍA












1.1.-DEFINICION:




Qué es la nanotecnología? Nanotecnología es una palabra que tiende a intimidarnos. Pero si miramos a nuestro alrededor, la nanotecnología está en todas partes. La mayoría de reacciones biológicas y químicas tienen lugar a nivel nano. Así funciona la naturaleza.

Un nanometro es muy muy pequeño. Es la billonissima parte de un metro. Un nanometro es para un metro lo mismo que un balón con un radio de unos 15 centímetros es para 155000 kilómetros. Si hiciesemos una fila de todos estos balones, darían la vuelta a la tierra 4 veces. (Para más ejemplos del tamaño a nanoescala ver: ¿Cuánto mide un nanometro?).
No podemos ver nanomateriales porque son demasiado pequeños. Para verlos, nos hacen falta herramientas sofisticadas como microscópios electrónicos y atómicos. Para ver un pelo o una mosca, solo necesitamos nuestros ojos. Para ver bacteria, nos hace falta un microscopio. Para ver virus y transistores nos hace falta un microscopio electrónico. Y para ver nanomateriales necesitamos microscopio, se pueden diferenciar en varios apartados, que a continuación muestro mediante dicho croquis, son las ciencias involucradas:









































.






1.2.- HISTORIA DE LA NANOTECNOLOGIA:

El ganador del premio Nobel de Física de 1965, Richard Feynman, fue el primero en hacer referencia a las posibilidades de la nanociencia y la nanotecnología en el célebre discurso que dio en el Caltech (Instituto Tecnológico de California) el 29 de diciembre de1959, titulado En el fondo hay espacio de sobra (There's Plenty of Room at the Bottom).
Otras personas de esta área fueron Rosalind FranklinJames Dewey Watson y Francis Crick quienes propusieron que el ADN era la molécula principal que jugaba un papel clave en la regulación de todos los procesos del organismo, revelando la importancia de las moléculas como determinantes en los procesos de la vida.
Pero estos conocimientos fueron más allá, ya que con esto se pudo modificar la estructura de las moléculas, como es el caso de los polímeros o plásticos que hoy en día encontramos en nuestros hogares. Pero hay que decir que a este tipo de moléculas se les puede considerar “grandes”.
Hoy en día la medicina tiene más interés en la investigación en el mundo microscópico, ya que en él se encuentran posiblemente las alteraciones estructurales que provocan las enfermedades, y no hay que decir de las ramas de la medicina que han salido más beneficiadas como es la microbiología, inmunología, fisiología; han surgido también nuevas ciencias como la Ingeniería Genética, que ha generado polémicas sobre las repercusiones de procesos como la clonación o la eugenesia,dentro de su historia se pueden clasificar en varias, las cuales menciono posteriormente como:

1.- TRANSISTORES:                               

                                                                 




El transistor bipolar fue inventado en los Laboratorios Bell de EE. UU. en diciembre de1947 por John BardeenWalter Houser Brattain y William Bradford Shockley, quienes fueron galardonados con el Premio Nobel de Física en 1956. Fue el sustituto de laválvula termoiónica de tres electrodos, o triodo.
El transistor de efecto de campo fue descubierto antes que el transistor (1930), pero no se encontró una aplicación útil ni se disponía de la tecnología necesaria para fabricarlos masivamente.
Es por ello que al principio se usaron transistores bipolares y luego los denominados transistores de efecto de campo (FET). En los últimos, la corriente entre el surtidor o fuente (source) y el drenaje (drain) se controla mediante el campo eléctrico establecido en el canal. Por último, apareció el MOSFET (transistor FET de tipo Metal-Óxido-Semiconductor). Los MOSFET permitieron un diseño extremadamente compacto, necesario para los circuitos altamente integrados (CI).
Hoy la mayoría de los circuitos se construyen con tecnología CMOS. La tecnología CMOS (Complementary MOS ó MOS Complementario) es un diseño con dos diferentes MOSFET (MOSFET de canal n y p), que se complementan mutuamente y consumen muy poca corriente en un funcionamiento sin carga.
El transistor consta de un sustrato (usualmente silicio) y tres partes dopadas artificialmente (contaminadas con materiales específicos en cantidades específicas) que forman dos uniones bipolares, el emisor que emite portadores, el colector que los recibe o recolecta y la tercera, que está intercalada entre las dos primeras, modula el paso de dichos portadores (base). A diferencia de las válvulas, el transistor es un dispositivo controlado por corriente y del que se obtiene corriente amplificada. En el diseño de circuitos a los transistores se les considera un elemento activo, a diferencia de los resistorescondensadores e inductores que son elementos pasivos. Su funcionamiento sólo puede explicarse mediante mecánica cuántica.
De manera simplificada, la corriente que circula por el colector es función amplificada de la que se inyecta en el emisor, pero el transistor sólo gradúa la corriente que circula a través de sí mismo, si desde una fuente de corriente continua se alimenta la base para que circule la carga por el colector, según el tipo de circuito que se utilice. El factor de amplificación o ganancia logrado entre corriente de colector y corriente de base, se denomina Beta del transistor. Otros parámetros a tener en cuenta y que son particulares de cada tipo de transistor son: Tensiones de ruptura de Colector Emisor, de Base Emisor, de Colector Base, Potencia Máxima, disipación de calor, frecuencia de trabajo, y varias tablas donde se grafican los distintos parámetros tales como corriente de base, tensión Colector Emisor, tensión Base Emisor, corriente de Emisor, etc. Los tres tipos de esquemas(configuraciones) básicos para utilización analógica de los transistores son emisor común, colector común y base común.
Modelos posteriores al transistor descrito, el transistor bipolar (transistores FET, MOSFET, JFET, CMOS, VMOS, etc.) no utilizan la corriente que se inyecta en el terminal de base para modular la corriente de emisor o colector, sino la tensión presente en el terminal de puerta o reja de control (graduador) y gradúa la conductancia del canal entre los terminales de Fuente y Drenaje. Cuando la conductancia es nula y el canal se encuentra estrangulado, por efecto de la tensión aplicada entre Compuerta y Fuente, es el campo eléctrico presente en el canal el responsable de impulsar los electrones desde la fuente al drenaje. De este modo, la corriente de salida en la carga conectada al Drenaje (D) será función amplificada de la Tensión presente entre la Compuerta (Gate) y Fuente (Source). Su funcionamiento es análogo al del triodo, con la salvedad que en el triodo los equivalentes a Compuerta, Drenador y Fuente son Reja (o Grilla Control), Placa y Cátodo.
Los transistores de efecto de campo son los que han permitido la integración a gran escala disponible hoy en día; para tener una idea aproximada pueden fabricarse varios cientos de miles de transistores interconectados, por centímetro cuadrado y en varias capas superpuestas.


2.- INFORMATICA (ENIAC):             

                                                                 


Se ha considerado a menudo la primera computadora electrónica de propósito general, aunque este título pertenece en realidad a la computadora alemana Z3. Además está relacionada con el Colossus, que se usó para descifrar código alemán durante la Segunda Guerra Mundial y destruido tras su uso para evitar dejar pruebas, siendo recientemente restaurada para un museo británico. Era totalmente digital, es decir, que ejecutaba sus procesos y operaciones mediante instrucciones en lenguaje máquina, a diferencia de otras máquinas computadoras contemporáneas de procesos analógicos. Presentada en público el 15 de febrero de 1946.
La ENIAC fue construida en la Universidad de Pennsylvania por John Presper Eckert y John William Mauchly, ocupaba una superficie de 167  y operaba con un total de 17.468 válvulas electrónicas o tubos de vacío que a su vez permitían realizar cerca de 5000 sumas y 300 multiplicaciones por segundo. Físicamente, la ENIAC tenía 17.468 tubos de vacío, 7.200 diodos de cristal, 1.500 relés, 70.000 resistencias, 10.000 condensadores y 5 millones de soldaduras. Pesaba 27 Toneladas, medía 2,4 m x 0,9 m x 30 m; utilizaba 1.500 conmutadores electromagnéticos y relés; requería la operación manual de unos 6.000 interruptores, y su programa o software, cuando requería modificaciones, demoraba semanas de instalación manual.
La ENIAC elevaba la temperatura del local a 50 °C. Para efectuar las diferentes operaciones era preciso cambiar, conectar y reconectar los cables como se hacía, en esa época, en las centrales telefónicas, de allí el concepto. Este trabajo podía demorar varios días dependiendo del cálculo a realizar.
Uno de los mitos que rodea a este aparato es que la ciudad de Filadelfia, donde se encontraba instalada, sufría de apagones cuando la ENIAC entraba en funcionamiento, pues su consumo era de 160 kW.
A las 23.45 del 2 de octubre de 1955, la ENIAC fue desactivada para siempre.

3.- CIRCUITOS INTEGRADOS, DIFERENCIÁNDOSE DOS: 
     ACTUALES Y DE ESFERAS.

                                                                 
                                                                    

Un circuito integrado (CI), también conocido como chip o microchip, es una pastilla pequeña de material semiconductor, de algunos milímetros cuadrados de área, sobre la que se fabrican circuitos electrónicos generalmente mediante fotolitografía y que está protegida dentro de unencapsulado de plástico o cerámica. El encapsulado posee conductores metálicos apropiados para hacer conexión entre la pastilla y un circuito impreso.

4.-MEDICINA (MOLECULAS, ADN ETC...)




                                                                 
           De manera menos general y precisa, se ha definido molécula como la parte más pequeña de una sustancia que conserva sus propiedades químicas, y a partir de la cual se puede reconstituir la sustancia sin reacciones químicas. De acuerdo con esta definición, que resulta razonablemente útil para aquellas sustancias puras constituidas por moléculas, podrían existir las "moléculas monoatómicas" de gases nobles, mientras que las redes cristalinas, sales, metales y la mayoría de vidrios quedarían en una situación confusa.
Las moléculas lábiles pueden perder su consistencia en tiempos relativamente cortos, pero si el tiempo de vida medio es del orden de unas pocas vibraciones moleculares, estamos ante un estado de transición que no se puede considerar molécula. Actualmente, es posible el uso de láser pulsado para el estudio de la química de estos sistemas.
Las entidades que comparten la definición de las moléculas pero tienen carga eléctrica se denominan iones poliatómicos, iones moleculares o moléculas ion. Las sales compuestas por iones poliatómicos se clasifican habitualmente dentro de los materiales de base molecular o materiales moleculares.    


                                                       
                                             




El ADN,  ácido desoxirribonucleico, o en inglés DNA, se define como un biopolímero (compuesto químico formado por unidades estructurales que se repiten) que constituye el material genético de las células. Está formado por unidades que están ordenadas según una secuencia y es ahí donde se encuentra la información para la síntesis de proteínas. Es el responsable del código genético, que determina en gran medida las características de los seres vivos al nacer.
La molécula de ADN está formada por dos cadenas formada por compuestos químicos llamados nucleótidos. Existen cuatro tipos de nucleótidos diferenciados por sus bases nitrogenadas; adenina, timina, citosina y guanina. Las cadenas forman una especie de cadena retorcida, lo que permite que el ADN se pueda desenrollar y hacer una lectura de éste. Cada nucleótido posee una afinidad química con aquel que se encuentra en paralelo en la otra cadena; adenina tiene afinidad con la timina, y la citosina con la guanina. Esta afinidad química se ve empíricamente con la unión de un enlace de hidrógeno. Los nucleótidos están formados por un ácido fosfórico, una desoxirribosa y una base nitrogenada.
La estructura del ADN es tridimensional, por lo tanto posee tres niveles de distintas características:
  • Estructura primaria: cadena de nucleótidos encadenados seguidos por una secuencia. Aquí se encuentra la información genética de la célula
  • Estructura secundaria: doble hélice. Mecanismo de duplicación del ADN. Complementos en las bases nitrogenadas.
  • Estructura terciaria: almacenamiento del ADN en un volumen reducido. Esto varía dependiendo la célula si es procarionte (disperso en el citoplasma) o eucarionte (almacenado complejamente en el núcleo).
El ADN posee diversas propiedades y funciones de las cuales destaca: El control de la actividad celular. Lleva la información genética de la célula la que determina las características de ésta y que puedan ser transmitidas en el proceso de división celular. Puede duplicarse en la división celular, formando células idénticas a la original. Tiene la capacidad de mutación (alteración en la información genética) entendido por un proceso evolutivo.
La secuencia de las bases nitrogenadas del ADN cumplen un papel fundamental en lo que se llama la síntesis de proteínas. La secuencia de nucleótidos es transmitida a un ARN mensajero (ARNm) en forma de codones (tripletes que contienen el código genético). El ARNm actúa sobre las moléculas del ARN de transferencia (ARNt) que contiene a los anticodones (tripletes complementarios), copiando el material genético. A cada anticodón le corresponde un aminoácido (unidad básica de la proteína), de esta manera la célula sabrá cómo ordenar la secuencia de aminoácido para formar la proteína que le sea útil. En consecuencia, la secuencia de las bases nitrogenadas es una receta que la célula debe seguir para formar la proteína necesaria.
En la actualidad, para la biotecnología el ADN cumple un papel fundamental. Por el conocimiento de su estructura, funciones y propiedades se ha llevado a cabo el fenómeno de la clonación. La famosa oveja Dolly fue el primer experimento, en el que se extrajo el material genético de una oveja y se almacenó en la célula de otra. De esta manera la oveja obtenida, Dolly, fue exactamente igual a la que le extrajeron el material genético (un ejemplo práctico que demuestra como el ADN porta lo que llamamos el código genético.





5.- MICROMÁQUINAS:









Las Micromáquinas son objetos mecánicos que se fabrican en la misma forma que los circuitos integrados. Ellos generalmente se considera que entre 100 nanómetros a 100 micrómetros de tamaño, aunque esto es discutible. Las solicitudes de micromáquinas incluyen acelerómetros que detectan cuando un coche ha golpeado un objeto y activar un airbag. Complejos sistemas de engranajes y palancas son otra aplicación.
La fabricación de estos dispositivos se realiza normalmente por uno o simultáneamente dos técnicas: el micromaquinado superficial y el micromaquinado en bloque.
La mayoría de las micromáquinas actúan como transductores, en otras palabras, que son o bien sensores o actuadores.
Los sensores convierten la información del medio ambiente en señales eléctricas interpretables. Un ejemplo de una micromáquina es un sensor es un sensor químico resonante. Un objeto mecánico ligeramente amortiguado vibra mucho más en una frecuencia que en cualquier otra, y esta frecuencia se llama su frecuencia de resonancia. Un sensor químico está recubierto con un polímero especial que atrae a ciertas moléculas, como el ántrax, y cuando esas moléculas se pegan al sensor, su masa aumenta. El aumento de masa altera la frecuencia de resonancia del objeto mecánico, lo que es detectado con circuitos.
Los actuadores convierten señales eléctricas y energía en algún tipo de movimiento. Los tres tipos más comunes de actuadores son electrostáticos, térmicos y magnéticos. Los actuadores electrostáticos usan la fuerza de la energía electrostática para mover objetos. Dos elementos mecánicos, uno que se encuentra estacionario (el estator) y uno que se mueve (el rotor) poseen dos voltajes diferentes aplicados a los mismos, lo cual crea un campo eléctrico. El campo compite con una fuerza reestablecedora en el rotor (por lo general, una fuerza de resorte producida por la flexión o estiramiento del rotor) para mover el rotor. Cuanto mayor es el campo eléctrico, más lejos se moverá el rotor. Los actuadores térmicos hacen uso de la fuerza de expansión térmica para mover objetos. Cuando un material se calienta se expande, y su cuantía es en función de las propiedades del material. Dos objetos se pueden conectar de tal manera que un objeto se calienta más que los otros y se expande más, y ese desequilibrio crea movimiento. La dirección del movimiento depende de la relación entre los objetos. Esto se ve en un "actuador de calor", que es una viga en forma de U con un brazo amplio y un brazo angosto. Cuando una corriente pasa a través del objeto, se crea calor. El brazo estrecho se calienta más que el brazo amplio debido al hecho de que poseen la misma densidad de corriente. Dado que las dos ramas se conectan en la parte superior, el brazo caliente se extiende y empuja en la dirección del brazo frío. Los actuadores magnéticos utilizan capas magnéticas fabricadas para crear fuerzas.






1.3.- CIENTIFICOS IMPORTANTES:





















Richard Feynman nació el 11 de mayo de 1918 en Nueva York; sus padres eran judíos, aunque no practicantes y el propio Feynman se describió abiertamente como un "ateo declarado". El joven Feynman se vio influido fuertemente por su padre (John Jesus Feynman), quien le animaba a hacer preguntas que retaban al razonamiento tradicional; su madre le transmitió un profundo sentido del humor, que mantuvo durante toda su vida. De niño disfrutaba reparando radios, pues tenía talento para la ingeniería. Experimentaba y redescubría temas matemáticos tales como la 'media derivada' (un operador matemático que, al ser aplicado dos veces, da como resultado la derivada de una función) utilizando su propia notación, antes de entrar en la universidad. Su modo de pensar desconcertaba a veces a pensadores más convencionales; En una ocasión, al apuntarse a un curso de fisiología celular, y teniendo que resumir y comentar un articulo sobre los impulsos nerviosos y la diferencia de potencial eléctrico en los nervios tomando como referencia los experimentos realizados en gatos, Feynman tenia dificultades al desconocer la anatomía de estos animales. Por ello se dirigió a la bibliotecaria de la sección de biología con la intención de resolver sus dudas y le dijo literalmente "¿Tiene un mapa del gato?". Su manera de hablar era clara, aunque siempre con un marcado discurso informal.






Rosalind Elsie Franklin (25 de julio de 1920 en Kensington, Londres – 16 de abril de1958 en Chelsea, Londres) fue una biofísica y cristalógrafa inglesa autora de importantes contribuciones a la comprensión de las estructuras del ADN, los virus, elcarbón y el grafito. A Franklin se la recuerda principalmente por la llamada Fotografía 51, la imagen del ADN obtenida mediante difracción de rayos X, que sirvió como fundamento para la hipótesis de la estructura doble helicoidal del ADN en la publicación del artículo de James Watson y Francis Crick de 1953,1 y tras su publicación constituyó una prueba crítica para la hipótesis.2 Más tarde, lideró varios trabajos pioneros relacionados con el virus del mosaico de tabaco y el poliovirus. Falleció en 1958 a causa de bronconeumonía, carcinomatosis secundaria y cáncer de ovario, minutos antes de que su último informe fuera leído en la Faraday Society.







Francis Harry Compton Crick, OMFRS (8 de junio de 1916 - 28 de julio de 2004) fue un físicobiólogo molecular y neurocientífico británico, conocido sobre todo por ser uno de los dos descubridores de la estructura molecular del ADN en 1953, junto con James D. Watson.
Recibió, junto a James D. Watson y Maurice Wilkins el Premio Nobel de Medicina en1962 "por sus descubrimientos concernientes a la estructura molecular de los ácidos nucleicos y su importancia para la transferencia de información en la materia viva".1
Asimismo, recibió también las medallas Royal y Copley de la Royal Society de Londres (1972 y 1975), y también la Orden del Mérito (27 de noviembre de 1991).

1.4.- ¿QUE FUTURO NOS ESPERA?   

Según Científicos e Investigadores, el día de mañana, nos gratificaran con nuevos inventos como:         

1.- Realizar aviones más ligeros, que cuando sufran algún tipo de avería en sus motores, puedan planear.
2.- inventar maquinas nanométricas que se puedan introducir dentro del Cuerpo Humano, y que ellas mismas puedan curar etc...


Yo pienso a mi parecer, que hoy día la NANOTECNOLOGIA, no tiene fronteras ni limitaciones, para poder inventar nuevas creaciones futuristas.



No hay comentarios:

Publicar un comentario