lunes, 1 de diciembre de 2008

Tercer Congreso Internacional de la Didáctica de las Matemáticas en la Ingeniería

Asistir a este fue una magnifica oportunidad de aprender, a continuación reseño este realizado en la ciudad de México el pasado mes de noviembre, organizado por ESIME-Culhuacan, con un puntual inicio, donde las palabras de Bienvenida fueron del Arquitecto Heberto Castillo Juárez, la plenaria inaugural la hizo la Dr. Patricia Camarena quien nos hablo de su teoría de las Matemáticas en Contexto la apertura mayéutica fue ¿Por qué estudiar matemáticas?¿Para que estudiarlas?¿Donde las aplicaremos?. Comento que “Mas que un sentido utilitario las matemáticas deben tener un carácter formativo en el alumno” explico las etapas precedente y consecuente de su teoría, los beneficios y las experiencias. El Dr. Javier Lezama dirigió un foro sobre “Docencia en Matemáticas” invitando a los docentes asistentes a una profunda reflexión sobre los problemas actuales en la educación matemática, los escenarios necesarios y como problematizar las lecciones de matemáticas. El Dr. Ricardo Quintero Zazueta del CINVESTAV también tuvo el foro denominado “Matemática Funcional”, por cuestion de logistica no asisti al mismo pero
Entre sus oportunidades el congreso ofreció 36 ponencias y seis talleres, además de la exposición de carteles y prototipos didácticos, otros foros y presentación de libros. El Dr. Eberto Morgado en la segunda plenaria nos hizo incursionar en las matemáticas que sustentan la criptografía, el taller al que asistimos se denomino “Las Categorías Didacticas en el Proceso de Enseñanza y Aprendizaje de la Matemáticas, por parte de las Maestras Maria del Carmen Rodríguez Ponce y Teresa Carrasco de CUJAE-Cuba.
Tuve el privilegio de encontrar en el congreso a colegas egresados de la ESFM, como la maestra de ESCA, Luz Gricel Aragón Salgado y el maestro de ESCB, Froylan Sánchez, con los que compartí opiniones y experiencias sobre educación y vida.
El regalo final fue la conferencia magistral dictada por el Dr. Juan Carlos Sánchez García, quien nos reseño una cátedra de Telecomunicaciones, de la cual él es titular de hace 21 años, claridad en su metodología, nos convence que los maestros de matemáticas debemos de buscar mejores caminos para lograr que los estudiantes aprecien esta valiosa herramienta, pero las matemáticas no solo se deben estudiar por su utilidad, sino por su belleza y su principal aportación al ser humano es la única disciplina que enseña a pensar y esto es suficiente para incluirla en cualquier curricula.
Nosotros representando a la UNISON y al CBTIS 206 presentamos dos ponencias: “Propuesta de Metodología Pedagógica Interdisciplinaria” y “¿Para que Sirve el Teorema de Pitágoras?”, las cuales fueron del agrado de los 42 docentes asistentes a escucharnos y manifestaron su acuerdo en la difusión de este tipo de propuestas.
Agradecemos todas las atenciones que tuvieron para con nosotros todo el comité organizador, en especial el motor del congreso la maestra Maria de Lourdes Rodríguez Peralta.

jueves, 13 de noviembre de 2008

NAPOLEON BONAPARTE Y GEOMETRIA

Napoleón era un entusiasta matemático, fascinado por la geometría, ciencia de gran importancia militar. Además sentía ilimitada admiración por los creativos matemáticos franceses contemporáneos suyos. Gaspard Monge fue uno de los varios matemáticos franceses que recibieron de Napoleón títulos de nobleza. Napoleón revoluciono la enseñanza de las matemáticas en Francia, sus reformas fueron las causantes de la floración de matemáticos creadores, orgullo de la Francia decimonónica. Mascheroni fue ardiente admirador de Napoleón y de la Revolución Francesa, en su libro Problems for Surveyors tenía una dedicatoria en verso para Napoleón. Ambos hombres se conocieron en 1796, cuando Napoleón invadió el norte de Italia. Napoleón conocía a fondo muchas de las construcciones de Mascheroni. Se dice que en 1797, mientras Napoleón hablaba de geometría con Joseph Louis Lagrange y Pierre Simon de Laplace (matemáticos quienes mas tarde serían conde y marqués) el pequeño general sorprendió a ambos explicándoles algunas soluciones de Mascheroni que les eran totalmente desconocidas. Laplace comentó en esa ocasión: «General, esperábamos de vos cualquier cosa, excepto lecciones de geometría». Napoleón dio a conocer la obra de Mascheroni a los matemáticos franceses. En 1798, un año después de la primera edición italiana, ya se había publicado en París una traducción de la Geometria del Compasso. Hombre de gran ambición y cultura, desde una infancia modesta, logro subir al trono de Francia, con grandes victorias militares y su gran derrota, la retirada de Moscu y finalmente le llego su Waterloo. La figura ilustra un teorema atribuido a Napoleón, en el libro de Liang-shin Hahn, Complex Numbers & Geometry: Sobre cada lado de un triangulo arbitrario, se dibuja un triángulo equilátero, entonces los centroides de esos tres triángulos equiláteros son los vértices de un cuarto triangulo equilátero. Se omite la demostración porque se encuentra en Internet
ASESOR: MAESTRO RUPERTO VARGAS CASTRO- UNISON

martes, 21 de octubre de 2008

GEOGEBRA

Para poder incorporar las matemáticas a nuestros proyectos, en las siguientes semanas utilizaremos un software libre para geometría dinámica. La página de Geogebra es: http://www.geogebra.org/cms/index.php?lang=es
Este software lo podemos descargar para instalarlo en nuestra PC de la siguiente dirección:
http://www.geogebra.org/download/install.htm

Las actividades planteadas son reproducir los ejemplos de la guía publicada en
http://www.geogebra.at/help/geogebraquickstart_es.pdf

Para los ejemplos de las presentaciones retomar las elaboradas para el calor y el sonido, publicadas en
http://www.slideshare.net/fcogurrola/slideshows

Para una descripción básica de este software utilizar Wikipedia.
Los mejores trabajos serán presentados en este espacio, así que ¡¡¡¡échenle ganas!!!!

viernes, 17 de octubre de 2008

ELECTROQUIMICA

Rama de la Física-Química que estudia la transformación entre la energía eléctrica y la energía química, las reacciones químicas que se dan en la interfase de un conductor eléctrico (electrodo) y un conductor iónico (electrolito) pudiendo ser una disolución y en algunos casos especiales, un sólido.

La diferencia de potencial eléctrico es creada como consecuencia de una reacción química, obteniendo así un "acumulador de energía eléctrica", también llamado batería o celda galvánica. El proceso inverso se denomina electrólisis, una reacción química es provocada aplicando un voltaje. Las reacciones químicas donde se produce una transferencia de electrones entre moléculas se conocen como reacciones redox.

En general, la electroquímica se encarga de estudiar las situaciones donde se dan reacciones de oxidación y reducción encontrándose separadas, físicamente o temporalmente, se encuentran en un entorno conectado a un circuito eléctrico.

Historia de la Electroquímica
Para algunos investigadores existen evidencias de la existencia de baterías y acumuladores de energía eléctrica, desde la antigüedad. En el imperio Parto, en Bagdad siglo II AC al III DC, fueron empleadas para la electro deposición o galvanizado de piezas metálicas.
El conocimiento de la electricidad en términos científicos. Fue gracias a los trabajos con el magnetismo y la electricidad de los siglos XVII y XVIII Gilbert y von Guericke (generador eléctrico), Cisternay du Fay (teoría de la polaridad), Franklin (electricidad atmosférica), Coulomb (atracción electrostática) y Priestley (electroquímica).

Durante la Ilustración siglo XVIII, Galvani en 1791, marcó el nacimiento de la electroquímica de forma científica, al pasar electricidad por las ancas de rana y nuevamente al tocar ambos extremos de los nervios empleando el mismo escalpelo descargado. Publicó su ensayo "De Viribus Electricitatis in Motu Musculari Commentarius" (Latín “Comentario acerca del efecto de la electricidad en el movimiento muscular”).
La primera batería de Volta permitió que durante la revolución industrial, Nicholson y Ritter fundaran la galvanoplastia y posteriormente Seebeck descubre la termoelectricidad. En el siglo XIX, agregan las investigaciones de Faraday (leyes de la electrolisis) y Daniell (pila de iones Zinc-Cobre). Hacia finales de este siglo, Arrhenius y Ostwald presentan las teorías de conductividad de electrolitos y posteriormente Nernst el modelado matemático de las baterías.
En el siglo XX, la electroquímica permitió el descubrimiento de la carga del electrón por Millikan, y Brønsted y Lowry establecen la moderna teoría de ácidos y bases, así como Tiselius en 1937 desarrolla el estudio de la electroforesis.

En la actualidad la electroquímica es compatible con la mecánica quántica, con los estudios de Dogonadze y Marcus, profundizando en celdas fotovoltaicas y químico luminiscencia.








Sitios Recomendados
http://www.visionlearning.com/library/module_viewer2.php?mid=58&l=s&let1=Qu%C3%AD
http://pt7mdv.ceingebi.unam.mx/computo/pdfs/met/Electroforesis/Electroforesis.html

sábado, 11 de octubre de 2008

TRANSFORMADOR ELECTRICO

Máquina eléctrica que permite aumentar o disminuir el voltaje en un circuito eléctrico de corriente alterna, manteniendo la frecuencia. La potencia que ingresa al equipo, en el caso de un transformador ideal, es igual a la que se obtiene a la salida. Las máquinas reales presentan un pequeño porcentaje de pérdidas. Se basan en el fenómeno de la inducción electromagnética y están constituidos, por lo menos de dos bobinas devanadas sobre un núcleo cerrado de hierro.
Los devanados se denominan primarios y secundarios según correspondan a la entrada o salida del sistema.
Si se aplica una fuerza electromotriz alterna en el devanado primario, las variaciones de intensidad y sentido de la corriente alterna crearán un campo magnético variable dependiendo de la frecuencia de la corriente. Este campo magnético variable originará, por inducción electromagnética, la aparición de una fuerza electromotriz en los extremos del devanado secundario. La relación entre la fuerza electromotriz inductora (Ep), la aplicada al devanado primario y la fuerza electromotriz inducida (Es), la obtenida en el secundario, es directamente proporcional al número de espiras de los devanados primario (Np) y secundario (Ns) .
Así, si el número de espiras del secundario es 100 veces mayor que el del primario, al aplicar una tensión alterna de 230 voltios en el primario, se obtienen 23.000 voltios en el secundario. A la relación entre el número de vueltas o espiras del primario y las del secundario se le llama relación de vueltas del transformador o relación de transformación. Así es como se emplea en la red de distribución de energía eléctrica: altas tensiones y pequeñas intensidades, disminuyen las pérdidas por calentamiento y se minimiza el costo de los conductores.

Ahora bien, como la potencia aplicada en el primario, en caso de un transformador ideal, debe ser igual a la obtenida en el secundario, el producto de la fuerza electromotriz por la intensidad (potencia) debe ser constante, continuando con el ejemplo anterior: si la intensidad circulante por el primario es de 10 amperios, la del secundario será de solo 0,1 amperios.

El aparato inicial con el propósito descrito fue la bobina o carrete de Ruhmkorff, que consistía en dos bobinas concéntricas. A una bobina, llamada primario, se le aplicaba una corriente continua proveniente de una batería, conmutada por medio de un ruptor movido por el magnetismo generado en un núcleo de hierro central por la propia energía de la batería. El campo magnético así creado variaba al compás de las interrupciones, y en el otro bobinado, llamado secundario y con mucho más espiras, se inducía una corriente de escaso valor pero con una fuerza eléctrica capaz de saltar entre las puntas de un chispómetro conectado a sus extremos. Otra aplicación de este aparato fueron las antiguas bobinas de ignición del automóvil Ford T, que poseía una por cada bujía, comandadas por un distribuidor que mandaba la corriente a través de cada una de las bobinas en la secuencia correcta.

viernes, 10 de octubre de 2008

EXPERIMENTO DE MILLIKAN

Experimento realizado por primera vez en 1909 por el físico estadounidense Robert Millikan y que le permitió medir la carga del electrón.
Consiste en introducir en un gas, gotitas de aceite de un radio del orden de un micrómetro. Estas gotitas caen muy lentamente, con movimiento uniforme, con su peso compensado por la viscosidad del medio. Este tipo de movimiento viene regido por la ley de Stokes. Ahora bien, las gotas se cargan electrostáticamente al salir del atomizador por lo que su movimiento de caída se altera significativamente si se hace actuar un campo eléctrico vertical. Ajustando convenientemente la magnitud del campo eléctrico, puede lograrse que la gota permanezca en suspensión.
Conociendo el valor m de la masa de la gota, la intensidad E del campo eléctrico y el valor g de la gravedad, puede calcularse la carga q de la gota en equilibrio:
mg = qE
Millikan comprobó que los valores de las cargas eran siempre múltiplos de una carga elemental, la del electrón. Por consiguiente pudo medir la carga eléctrica que posee un electrón. Este valor es:
e = 1,602 × 10-19 coulomb.
Millikan recibió el premio Nobel de Física en 1923 en parte por este experimento.

Recibiremos la visita el proximo 20 de octubre del M.C. Francisco Armenta Castro, maestro de la UNISON, quien nos mostrara el aparato para la realización de este experimento.
Topicos que se estudian contando con el aparato del experimeto de Millikan

• Elementary electric charge

• Charged oil droplets in an electric field

• Stokes viscous drag, weight, buoyancy

• Measurements of the equilibrium voltage and the velocity of fall

• Measurements of the velocity of fall, the velocity of rise,

• demonstrating the discrete nature (quantisation) of electric charge

• determining the elementary charge of an electron.
The experiment is set up on a height-adjustable tripod and consists of a plate capacitor under a plastic cover, measuring microscope, lighting apparatus and an oil atomiser.

Includes a plastic bottle containing oil. Distance between plates: 6 mm Plate diameter: 80 mm Halogen lamp: 12 V / 10 W Objective magnification: 2x Eyepiece magnification: 10x Micrometer range: 10 mm Scale divisions: 0.1 mm Connections: 4 mm sockets Dimensions: 250x300x450 mm³ approx. Weight: 4.0 kg approx.

Power Supply for Millikan’s Apparatus (230 V, 50/60 Hz) or

Power Supply for Millikan’s Apparatus (115 V, 50/60 Hz)



jueves, 9 de octubre de 2008

NANOTECNOLOGIA


La nanotecnología es un campo de las ciencias aplicadas dedicado al control y manipulación de la materia a una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas (nanomateriales). Lo más habitual es que tal manipulación se produzca en un rango de entre uno y cien nanómetros. Para hacerse una idea de lo pequeño que puede ser un nanobot, más o menos un nanobot de 50 nm tiene el tamaño de 5 capas de moléculas o átomos (depende de qué esté hecho el nanobot). nano- es un prefijo griego que indica una medida, no un objeto, de manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinar, y cohesionado exclusivamente por la escala de la materia con la que trabaja.
Definición La nanotecnología promete mejores beneficios nuevos y más eficientes para solucionar los problemas ambientales como muchos otros usados en esta humanidad. Las nanotecnologías prometen beneficios de todo tipo, desde aplicaciones médicas nuevas o más eficientes a soluciones de problemas ambientales y muchos otros; sin embargo, el concepto de nanotecnología aún no es muy conocido en la sociedad. Un nanómetro es la mil millonésima parte de un metro (10^(-9) metros). Para comprender el potencial de esta tecnología es clave saber que las propiedades físicas y químicas de la materia cambian a escala nanométrica, lo cual se debe a efectos cuánticos. La conductividad eléctrica, el calor, la resistencia, la elasticidad, la reactividad, entre otras propiedades, se comportan de manera diferente que en los mismos elementos a mayor escala. Aunque en las investigaciones actuales con frecuencia se hace referencia a la nanotecnología (en forma de motores moleculares, computación cuántica, etcétera), es discutible que la nanotecnología sea una realidad hoy en día. Los progresos actuales pueden calificarse más bien de nanociencia, cuerpo de conocimiento que sienta las bases para el futuro desarrollo de una tecnología basada en la manipulación detallada de las estructuras moleculares. Historia El ganador del premio Nobel de Física, Richard Feynman fue el primero en hacer referencia a las posibilidades de la nanociencia y la nanotecnología en el célebre discurso que dio en el Caltech (Instituto Tecnológico de California) el 29 de diciembre de 1959 titulado Abajo hay espacio de sobra (There's Plenty Room at the Bottom). Otro hombre de esta área fue Eric Drexler quien predijo que la nanotecnología podría usarse para solucionar muchos de los problemas de la humanidad, pero también podría generar armas poderosisimas. Creador del Foresight Institute y autor de libros como Máquinas de la Creación Engines of Creation muchas de sus predicciones iniciales no se cumplieron, y sus ideas parecen exageradas en la opinion de otros expertos, como Richard Smalley. Pero estos conocimientos fueron más allá ya que con esto se pudo modificar la estructura de las moléculas como es el caso de los polímeros o plásticos que hoy en día los encontramos en todos nuestros hogares y que sin ellos no podríamos vivir. Pero hay que decir que este tipo de moléculas se les puede considerar “grandes”... Con todos estos avances el hombre tuvo una gran fascinación por seguir investigando más acerca de estas moléculas, ya no en el ámbito de materiales inertes, sino en la búsqueda de moléculas orgánicas que se encontrarán en nuestro organismo. No fue sino hasta principios de la década de los cincuenta cuando Watson y Crick propusieron que el DNA era la molécula principal que jugaba un papel clave en la regulación de todos los procesos del organismo y de aquí se tomo la importancia de las moléculas como determinantes en los procesos de la vida. Hoy en día la medicina se le da más interés a la investigación en el mundo microscópico ya que en este se encuentran posiblemente las alteraciones estructurales que provocan la enfermedad, y no hay que decir de las ramas de la medicina que han salido mas beneficiadas como es la microbiología. Inmunología, fisiología, en fin casi todas las ramas de la medicina. Con todos estos avances han surgido también nuevas ciencias como es la ingeniería genética que hoy en día todos han oído escuchar acerca de las repercusiones que puede traer la humanidad como es la clonación o la mejora de especies. Entre estas ciencias también se encuentra otras no muy conocidas como es la nanotecnología, a la cual se le puede definir como aquella que se dedica a la fabricación de la tecnología en miniatura. La nanotecnología, a diferencia de la ingeniería genética, todavía no esta en pasos de desarrollo; Se le puede considerar como “ una ciencia teórica” ya que todavía no se le ha llevado a la practica ya que aun no es viable, pero las repercusiones que acarreara para el futuro son inmensas. Inversión Algunos países en vías de desarrollo ya destinan importantes recursos a la investigación en nanotecnología. La nanomedicina es una de las áreas que más puede contribuir al avance sostenible del Tercer Mundo, proporcionando nuevos métodos de diagnóstico y cribaje de enfermedades, mejores sistemas para la administración de fármacos y herramientas para la monitorización de algunos parámetros biológicos. Actualmente, alrededor de 40 laboratorios en todo el mundo canalizan grandes cantidades de dinero para la investigación en nanotecnología. Unas 300 empresas tienen el término “nano” en su nombre, aunque todavía hay muy pocos productos en el mercado. Algunos gigantes del mundo informático como IBM, Hewlett-Packard (HP), NEC e Intel están invirtiendo millones de dólares al año en el tema. Los gobiernos del llamado Primer Mundo también se han tomado el tema muy en serio, con el claro liderazgo del gobierno estadounidense, que para este año ha destinado 570 millones de dólares a su National Nanotechnology Initiative. En España, los científicos hablan de “nanopresupuestos”. Pero el interés crece, ya que ha habido algunos congresos sobre el tema: en Sevilla, en la Fundación San Telmo, sobre oportunidades de inversión, y en Madrid, con una reunión entre responsables de centros de nanotecnología de Francia, Alemania y Reino Unido en la Universidad Autónoma de Madrid. Ensamblaje interdisciplinario La característica fundamental de la nanotecnología es que constituye un ensamblaje interdisciplinar de varios campos de las ciencias naturales que están altamente especializados. Por tanto, los físicos juegan un importante rol no sólo en la construcción del microscopio usado para investigar tales fenómenos sino también sobre todas las leyes de la mecánica cuántica. Alcanzar la estructura del material deseado y las configuraciones de ciertos átomos hacen jugar a la química un papel importante. En medicina, el desarrollo específico dirigido a nanopartículas promete ayuda al tratamiento de ciertas enfermedades. Aquí, la ciencia ha alcanzado un punto en el que las fronteras que separan las diferentes disciplinas han empezado a diluirse, y es precisamente por esa razón por la que la nanotecnología también se refiere a ser una tecnología convergente. Una posible lista de ciencias involucradas sería la siguiente: Química (Moleculares y computacional) Bioquímica Biología molecular Física Electrónica Informática Matemáticas Nanotecnología avanzada La nanotecnología avanzada, a veces también llamada fabricación molecular, es un término dado al concepto de ingeniería de nanosistemas (máquinas a escala nanométrica) operando a escala molecular. Se basa en que los productos manufacturados se realizan a partir de átomos. Las propiedades de estos productos dependen de cómo estén esos átomos dispuestos. Así por ejemplo, si reubicamos los átomos del grafito (compuesto por carbono, principalmente) de la mina del lápiz podemos hacer diamantes (carbono puro cristalizado). Si reubicamos los átomos de la arena (compuesta básicamente por sílice) y agregamos algunos elementos extras se hacen los chips de un ordenador. A partir de los incontables ejemplos encontrados en la biología se sabe que miles de millones de años de retroalimentación evolucionada puede producir máquinas biológicas sofisticadas y estocásticamente optimizadas. Se tiene la esperanza que los desarrollos en nanotecnología harán posible su construcción a través de algunos significados más cortos, quizás usando principios biomiméticos. Sin embargo, K. Eric Drexler y otros investigadores han propuesto que la nanotecnología avanzada, aunque quizá inicialmente implementada a través de principios miméticos, finalmente podría estar basada en los principios de la ingeniería mecánica. Determinar un conjunto de caminos a seguir para el desarrollo de la nanotecnología molecular es un objetivo para el proyecto sobre el mapa de la tecnología liderado por Instituto Memorial Battelle (el jefe de varios laboratorios nacionales de EEUU) y del Foresigth Institute. Ese mapa debería estar completado a finales de 2006. Futuras aplicaciones Según un informe de un grupo de investigadores de la Universidad de Toronto, en Canadá, las catorce aplicaciones más prometedoras de la nanotecnología son: Almacenamiento, producción y conversión de energía. Armamento y sistemas de defensa. Producción agrícola. Tratamiento y remediación de aguas. Diagnóstico y cribaje de enfermedades. Sistemas de administración de fármacos. Procesamiento de alimentos. Remediación de la contaminación atmosférica. Construcción. Monitorización de la salud. Detección y control de plagas. Control de obesidad en lugares incivilizados Informática. Alimentos transgénicos Riesgos potenciales Sustancias viscosas Recientemente, un nuevo estudio ha mostrado como este peligro de la “sustancia viscosa gris” es menos probable que ocurra de como originalmente se pensaba. K. Eric Drexler considera un escenario accidental con sustancia viscosa gris improbable y así lo declara en las últimas ediciones de Engines of Creation. El escenario sustancia viscosa gris clamaba la Tree Sap Answer: ¿Qué oportunidades existen de que un coche pudiera ser mutado a un coche salvaje, salir fuera de la carretera y vivir en el bosque solo de savia de árbol?. Sin embargo, se han identificado otros riesgos mayores a largo plazo para la sociedad y el entorno. Una variante de esto es la “Sustancia viscosa verde”, un escenario en que la nanobiotecnología crea una máquina nanométrica que se autoreplica que consume todas las partículas orgánicas, vivas o muertas, creando un cieno -como una masa orgánica muerta. En ambos casos, sin embargo, sería limitado por el mismo mecanismo que limita todas las formas vivas (que generalmente ya actúan de esta manera): energía disponible.
Armas La militarización de la nanotecnología es una aplicación potencial. Mientras los nanomateriales avanzados obviamente tienen aplicaciones para la mejora de armas existentes y el hardware militar a través de nuevas propiedades (tales como la relación fuerza-peso o modificar la reflexión de la radiación EM para aplicaciones sigilosas), y la electrónica molecular podría ser usada para construir sistemas informáticos muy útiles para misiles, no hay ninguna manera obvia de que alguna de las formas que se tienen en la actualidad o en un futuro próximo puedan ser militarizadas más allá de lo que lo hacen otras tecnologías como la ingeniería genética. Mientras conceptualmente podríamos diseñar que atacasen sistemas biológicos o los componentes de un vehículo (es decir, un nanomáquina que consumiera la goma de los neumáticos para dejar incapaz a un vehículo rápidamente), tales diseños están un poco lejos del concepto. En términos de eficacia, podrían ser comparados con conceptos de arma tales como los pertenecientes a la ingeniería genética, como virus o bacterias, que son similares en concepto y función práctica y generalmente armas tácticamente poco atractivas, aunque las aplicaciones para el terrorismo son claras. La nanotecnología puede ser usada para crear dispositivos no detectables – micrófonos o cámaras de tamaño de una molécula, y son posibilidades que entran en el terreno de lo factible. El impacto social de tales dispositivos dependería de muchos factores, incluyendo quién ha tenido acceso a él, cómo de bien funcionan y cómo son usados. E.U.A. ha aportado gran parte de estos avances al igual que los chinos y franceces. Como dato la union europea produce 29.64% de nanotecnologia mundial otro 29 Estados Unidos y el resto pequenos paises. Memoria: En un laboratorio de IBM en Zurich, uno de los que ayudaron en la invención de aquel microscopio AFM de 1986, se trabaja en la miniaturización a nivel nanómetro del registro de datos. El sistema de almacenamiento se basa en un conjunto de 1024 agujas de AFM en una matriz cuadrada que pueden escribir bits de información de no más de 50 nanómetros de diámetro. El mismo conjunto es capaz luego de leer la información e incluso reescribirla. La capacidad de guardar información a esa escala es una noticia excitante para el mercado, pues multiplica inmensamente la cantidad de información que se puede almacenar en un área determinada. El mejor sistema actual de registro, basado en la memoria magnética, puede guardar alrededor de dos gigabits por centímetro cuadrado; los físicos creen que el límite físico de la capacidad este sistema —no alcanzado aún— es de alrededor de 25 gigabits por centímetro cuadrado (64 gigabytes/in²).[1] El sistema de matriz de agujas descripto más arriba, bautizado "Millipede" (Miriápodo, por tener mil patas), ofrece 35 gigabits por centímetro cuadrado (y hasta 80 gigabits si se utiliza una aguja única) y es capaz de hacerlo a la velocidad de los artefactos magnéticos actuales. Con unidades de almacenamiento provistas de matrices gigantescas, con millones de agujas, se puede lograr un almacenamiento en el orden de los terabytes, algo así como 40 veces lo que está disponible hoy comercialmente.
fuente http://www.euroresidentes.com/