miércoles, 7 de noviembre de 2007

CINE DIGITAL

El cine digital es aquel que utiliza la tecnología digital para grabar, distribuir y proyectar películas.

Generalmente, se caracteriza por la alta resolución de las imágenes, porque prescinde de algunos aspectos asociados a la proyección mecánica de las películas y por las sobresalientes posibilidades de posproducción por medios informáticos.

El cine digital se graba utilizando una representación digital del brillo y el color en cada píxel de la imagen, en lugar de quedar fijada por emulsión química en el filme de celuloide tradicional. La película final puede ser distribuida vía disco duro, DVD o satélite, y puede proyectarse usando un proyector digital en lugar del proyector tradicional.

Un formato común para trabajar en post-producción digital es el DPX , el cual representa la densidad del negativo escaneado en un formato de 10 bits. También es frecuente que se utilice un archivo para cada frame, que puede alcanzar los 20 o 50 megas.

Las películas de bajo presupuesto y con medios limitados están cada vez más siendo rodadas en digital (aunque a menudo no sean cámaras de alta definición). Con la creciente popularidad de esta tecnología en los últimos tiempo, los festivales especializados en cine digital son hoy comunes por todo el mundo. El pionero y mayor de ellos es el Onedotzero, celebrado en Londres desde 1996. Por el momento, muchos objetivos de las cámaras electrónicas no se fijan en este mercado. El público al que se dirigen es generalmente el de festivales sin ánimo de lucro y las piezas se frecuentan más a menudo en vídeo que en cine. Cuando estos productos se lanzan al mercado es casi siempre en formato DVD cinta, por lo que se les puede considerar productos para televisión sin emisión.



Tecnología Digital


Características de la tecnología digital
El filme digital permite una posproducción mucho más flexible y una infinidad de posibilidades impensables o extremadamente costosas usando técnicas analógicas como el film óptico tradicional. Los sistemas digitales tienen mucha mayor resolución que los sistemas de vídeo analógicos, tanto en la dimensión espacial (número de píxeles) como en la dimensión tonal (representación del brillo). También tienden a tener una mayor control sobre la colormetría durante el proceso de producción. El proceso químico iniciado al exponer el celuloide a la luz ofrece la posibilidad de diversos resultados, a los que un buen cineasta es capaz de sacar partido. Por el contrario, cada cámara digital da una única respuesta a la luz y, aunque simplifica el proceso, es muy difícil predecir el resultado sin verlo en un monitor, aumentando la complejidad de la iluminación.

Las cámaras análogas presentan dificultad para grabar en situaciones de alto contraste lumínico, como la luz del sol directa. En estos casos la información de luces y sombras no aparece en la imagen grabada y se pierde para siempre, sin poder ser recreada con compensación ni de ningún modo. Por el contrario, las cámaras digitales son más sensibles que el celuloide en situaciones de poca luz, permitiendo el uso de una iluminación menos aparatosa, más eficiente y más natural en la grabación. Algunos directores han optado por elegir la mejor opción para cada caso, usando el vídeo digital para las grabaciones nocturnas y en interiores y el tradicional analógico para exteriores de día. La digitalización permite un almacenaje de información y películas que resiste infinitamente mejor que el celuloide el paso del tiempo; de hecho, puede llegar a considerarse eterna, aunque hay voces que discrepan. Además, permite un considerable ahorro de espacio físico a la hora de almacenar películas. Pese a esto, algunos consideran que, actualmente, el filme de celuloide sigue siendo, en muchos sentidos, mucho más transportable que la información digital.

Otra característica propia de la tecnología digital es que la filmación y la proyección de imágenes se realizan simultánea y conjuntamente con la banda sonora, también digital.


Tipos de cámaras


Las cámaras de Sony CineAlta: son, básicamente, las cámaras de alta definición descendientes de la Betacam, dirigidas a la producción cinematográfica. Así como los estándares NTSC y PAL, pueden reproducir 29.27 t 25 imágenes por segundo respectivamente, “thay” (creo que se refiere a las cámaras) pueden grabar las mismas 24 imágenes por segundos. Sus sensores CCD tienen una resolución de 1920x1080 píxeles (1080p). Comparando, algunos escáners de filme analógico con capaces de capturar más de 10.000 píxeles horizontalmente desde una película estándar de 35 mm. El Episode III de Star Wars se grabó con las cámaras más avanzadas de la serie CineAlta, el modelo HDW950, con una resolución de 1920x1080 píxeles por fotograma.





Las cámaras Mini-DV: se usan desde hace ya bastantes años para películas independientes o de bajo presupuesto y son bastante populares entre el consumidor no profesional. Steven Soderbergh usó el popular modelo Canon XL en la grabación de Full Frontal. Una Mini-DV es capaz de grabar en cinta imágenes de una calidad considerable, aunque la tecnología está más limitada que en otros modelos profesionales. Una de las primeras Mini-DV usadas en una película fue el modelo Sony VX-1000, empleada por Spike Lee en Bamboozled.



La cámara Thompson Viper FilmStream: tiene la misma resolución y fotogramas por segundo que una cámara de alta definición como la CineAlta. Captura las imágenes sin compresión, pero pueden ser comprimidas al pasar a una cinta o disco. La Viper fue usada por primera vez en el corto Indoor Fireworks de Rudolf B. El primer largometraje en que se empleó la Thompson Viper fue en Collateral de Michela Mann. Uno de sus méritos es su capacidad de grabar con niveles de luz extremadamente bajos, lo que permitió que gran parte de Collateral se grabase en las calles de Los Angeles, de noche y sin la necesidad de usar un gran equipo de iluminación.




IMAX: es una sistema digital para la proyección de películas en tres dimensiones que todavía no ha sido demasiado desarrollado.







Las cámaras Panavisión Genesis: Panavisión lanzó estas en el 2004 para competir con las CineAlta de Sony. Las Genesis consiguen una resolución de 1920x1080, similar a la de sus predecesoras, y utilizan un sistema de cinta parecido, pero utilizan un sensor CCD con la misma medida que una cámara estandar tradicional de 35 mm., lo que le permite una serie de ventajas como poder intercambiar objetivos con las cámaras tradicionales o conseguir un control muy similar sobre la profundidad de campo. Algunas películas recientes rodadas con cámaras Genesis son Superman Returns, Flyboys o Scary Movie 4, a la cual se le criticó la calidad de las imágenes, lo que se atribuyó a la alternancia de la cámara digital y una tradicional de 35 mm.


Las cámaras Arriflex D-20: apareció a finales del 2005. La única novedad de esta cámara es su tamaño y tipo de sensor: en lugar de un CCD convencional, utiliza un sensor CMOS con la misma medida que el de una cámara analógica de 35 mm. Esto le permite usar las mismas lentes, abarcar el mismo campo de visión y conseguir la misma profundidad de campo que una cámara tradicional. La Arriflex alcanza una resoluación de 1920x1080 píxeles.

La cámara Red One: es una cámara todavía en desarrollo por parte de la RED Digital Camera Company. Conseguirá una resolución de más de 4250x2540 píxeles mediante un sensor lo bastante grande como para adaptar la lente de una cámara analógica de 35mm.

martes, 6 de noviembre de 2007

ROBOTIZACIÓN

En el lenguaje diario, se dice que un proceso está “robotizado” cuando los seres humanos que la llevaban a cabo han sido sustituidos por uno o varios robots. Dado que los trabajadores utilizaban herramienta y máquinas en su trabajo, los robots servirán también, a las mismas máquinas en su trabajo y utilizaran unas herramientas especiales adaptadas a sus características anatómicas. Cuando se comparan, desde el punto de vista productivo, un robot con un trabajador humano, se observa la nula capacidad de decisión que tienen los robots no inteligentes y la escasez de los llamados inteligentes. Pero por otra parte, se observa también, su enorme potencial productivo (sobre todo en las labores repetitivas), merced a la posibilidad de trabajo ininterrumpido y preciso, incluso en condiciones ambientales inaceptables para las personas. Por lo que, que muchas tareas, un solo robot puede sustituir a dos o más hombres.

ROBÓTICA

El objetivo de la Robótica es liberar al hombre de tareas peligrosas, tediosas o pesadas y realizarlas de manera automatizada. Así, Robótica puede ser definida como la teoría y la práctica de tareas automatizadas, que por su naturaleza estaban reservadas al hombre. La Robótica es el deseo de sintetizar algunos aspectos de las funciones que realiza el hombre a través del uso de mecanismos, sensores y computadoras. Su estudio involucra muchas áreas del conocimiento que a grandes rasgos las podemos dividir en: manipulación mecánica, locomoción, visión por computadora e inteligencia artificial.

SISTEMA ROBOTIZADO

Un sistema robotizado o célula robótica es el componente de una línea de producción que incluye uno o más robots para realizar una tarea específica. Los componentes de un sistema robotizado son:

I. Las máquinas (robot manipulador, brazo mecánico, etc.). Lo que entendemos por robots industriales.

II. El medio ambiente. Para el caso de robots fijos el ambiente se reduce a su espacio de acción.

III. La tarea, esta se define como la diferencia entre dos estados del medio ambiente. Esta tarea debe ser descrita a la computadora en un lenguaje apropiado.

IV. La computadora o cerebro del robot. Esta es la parte del robot que genera las señales de control de acuerdo a la información que se recibe. Las señales generadas actúan directamente sobre el robot y provienen de un programa o secuencia de instrucciones.

AUTOMATIZACIÓN

¿Que es un sistema automatizado?


La automatización es un sistema donde se trasfieren tareas de producción, realizadas habitualmente por operadores humanos a un conjunto de elementos tecnológicos.
Un sistema automatizado consta de dos partes principales:
Parte de Mando
Parte Operativa


La Parte Operativa es la parte que actúa directamente sobre la máquina. Son los elementos que hacen que la máquina se mueva y realice la operación deseada. Los elementos que forman la parte operativa son los accionadores de las máquinas como motores, cilindros, compresores ..y los captadores como fotodiodos, finales de carrera ...

La Parte de Mando suele ser un autómata programable (tecnología programada), aunque hasta hace bien poco se utilizaban relés electromagnéticos, tarjetas electrónicas o módulos lógicos neumáticos (tecnología cableada) . En un sistema de fabricación automatizado el autómata programable esta en el centro del sistema. Este debe ser capaz de comunicarse con todos los constituyentes de sistema automatizado.

Objetivos de la automatización
  • Mejorar la productividad de la empresa, reduciendo los costes de la producción y mejorando la calidad de la misma.
  • Mejorar las condiciones de trabajo del personal, suprimiendo los trabajos penosos e incrementando la seguridad.
  • Realizar las operaciones imposibles de controlar intelectual o manualmente.
  • Mejorar la disponibilidad de los productos, pudiendo proveer las cantidades necesarias en el momento preciso.
  • Simplificar el mantenimiento de forma que el operario no requiera grandes conocimientos para la manipulación del proceso productivo
  • Integrar la gestión y producción

MECANIZACIÓN


La mecanización por arranque de material es el conjunto de operaciones por las que, partiendo de una pieza en bruto (tocho) y eliminando o arrancando parte del material que la compone, se obtiene una pieza de la forma y dimensiones deseadas. Por lo tanto, en este tipo de proceso, por definición, no se produce aporte de material, ni se le da forma por doblado, ni estiramiento.
Mecanizado manual

Los manuales son los realizados por una persona con herramientas exclusivamente manuales, serrado, limado, cincelado, burilado; en estos casos un operario un ajustador, burilista o artesano mecaniza una pieza con las herramientas indicadas, y el esfuerzo manual.

Mecanizado con máquina herramienta
El mecanizado se hace mediante una máquina herramienta, manual, semiautomática o automática, pero el esfuerzo de mecanizado es realizado por un equipo mecánico, con los motores y mecanismos necesarios. Las máquinas herramientas de mecanizado clásicas son:


Taladro: La pieza es fijada sobre la mesa del taladro, la herramienta, llamada broca, realiza el movimiento de corte giratorio y de avance lineal, realizando el mecanizado de un agujero o taladro del mismo diámetro que la broca y de la profundidad deseada.

Cepillo de carnero: esta máquina herramienta realiza el mecanizado con una cuchilla montada sobre el porta herramientas del carnero, que realiza un movimiento lineal de corte, sobre una pieza fijada la mesa del cepillo, que tiene el movimiento de avance perpendicular al movimiento de corte.

Cepilladora: de mayor tamaño que el cepillo de carnero, tiene una enorme mesa deslizante sobre la que se fija la pieza y que realiza el movimiento de corte deslizándose longitudinalmente, la cuchilla montada sobre un puente sobre la mesa se desplaza transversalmente en el movimiento de avance.

Torno: el torno es la máquina herramienta de mecanizado más difundida, si bien solo puede realizar piezas de revolución, estas son en la industria las de uso mas genera, la pieza se fija en el plato del torno, que realiza el movimiento de corte girando sobre su eje, la cuchilla realiza el movimiento de avance eliminando el material en los sitios precisos.

Fresadora: en la fresadora el movimiento de corte lo tiene la herramienta; que se denomina fresa, girando sobre su eje, el movimiento de avance lo tiene la pieza, fijada sobre la mesa de la fresadora que realiza este movimiento.

viernes, 2 de noviembre de 2007

LA NANOTECNOLOGÍA

La nanotecnología es un campo de las ciencias aplicadas dedicado al control y manipulación de la materia a una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas. Lo más habitual es que tal manipulación se produzca en un rango de entre uno y cien nanómetros. Para hacerse una idea de lo pequeño que puede ser un nanobot, más o menos un nanobot de 50 nm tiene el tamaño de 5 capas de moléculas o átomos (depende de qué esté hecho el nanobot).

Un nanómetro es la mil millonésima parte de un metro10^(-9)metros. Para comprender el potencial de esta tecnología es clave saber que las propiedades físicas y químicas de la materia cambian a escala nanométrica, lo cual se debe a efectos cuánticos. La conductividad eléctrica, el calor, la resistencia, la elasticidad, la reactividad, entre otras propiedades, se comporta de manera diferente que en los mismos elementos a mayor escala.

Nano- es un prefijo griego que indica una medida, no un objeto, de manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinar, y cohesionado exclusivamente por la escala de la materia con la que trabaja.

Algunos países en vías de desarrollo ya destinan importantes recursos a la investigación en nanotecnología. La nanomedicina es una de las áreas que más puede contribuir al avance sostenible del Tercer Mundo, proporcionando nuevos métodos de diagnóstico y cribaje de enfermedades, mejores sistemas para la administración de fármacos y herramientas para la monitorización de algunos parámetros biológicos.

Algunos gigantes del mundo informático como IBM, Hewlett-Packard (HP), NEC e Intel están invirtiendo millones de dólares al año en el tema. Los gobiernos del llamado Primer Mundo también se han tomado el tema muy en serio, con el claro liderazgo del gobierno estadounidense, que para este año ha destinado 570 millones de dólares a su National Nanotechnology Initiative.

Ensamblaje interdisciplinar

La característica fundamental de la nanotecnología es que constituye un ensamblaje interdisciplinar de varios campos de las ciencias naturales que están altamente especializados. Por tanto, los físicos juegan un importante rol no sólo en la construcción del microscopio usado para investigar tales fenómenos sino también sobre todas las leyes de la mecánica cuántica. Alcanzar la estructura del material deseado y las configuraciones de ciertos átomos hacen jugar a la química un papel importante. En medicina, el desarrollo específico dirigido a nanopartículas promete ayuda al tratamiento de ciertas enfermedades. Aquí, la ciencia ha alcanzado un punto en el que las fronteras que separan las diferentes disciplinas han empezado a diluirse, y es precisamente por esa razón por la que la nanotecnología también se refiere a ser una tecnología convergente.

Una posible lista de ciencias involucradas sería la siguiente:
Química (Moleculares y computacional)
Bioquímica
Biología molecular
Física
Electrónica
Informática

Futuras aplicaciones

Según un informe de un grupo de investigadores de la Universidad de Toronto, en Canadá, las diez aplicaciones más prometedoras de la nanotecnología son:

Almacenamiento, producción y conversión de energía
Producción agrícola
Tratamiento y remediación de aguas
Diagnóstico y cribaje de enfermedades
Sistemas de administración de fármacos
Procesamiento de alimentos
Remediación de la contaminación atmosférica
Construcción
Monitorización de la salud
Detección y control de plagas
Informática

viernes, 19 de octubre de 2007

Las diez tecnologías avanzadas que cambiarán el mundo (según Technology Review MIT)


1.Redes de sensores sin cables (Wireless Sensor Networks)

Wireless Sensor Networks. La creación de redes compuestas de miles o millones de sensores. Las redes observarán casi todo, incluyendo el tráfico, el tiempo, actividad sísmica, los movimientos de batallones en tiempo de guerra, y el estado de edificios y puentes, a una escala mucho más precisa que antes.

2.Ingeniería inyectable de tejidos (Injectable Tissue Engineering)

Injectable Tissue Engineering. Para sustituir a los tradicionales transplantes de órganos, se está a punto de aplicar un método por el que se inyecta articulaciones con mezclas diseñadas de polímeros, células y estimuladores de crecimiento que solidifiquen y formen tejidos sanos.

3.Nano-células solares (Nano Solar Cells)

Nano Solar Cells. Puede ser que el sol sea la única fuente con suficiente capacidad para hacer que no seamos dependientes de combustibles fósiles. No obstante, atrapar la energía solar requiere capas siliconas que aumentan los costes hasta 10 veces el coste de la generación de energía tradicional. A través de la nanotecnología se está desarrollando un material fotovoltaico que se extiende como el plástico o como pintura. No solo se podrá integrar con otros materiales de la construcción, sino que ofrece la promesa de costes de producción baratos que permitirán que la energía solar se convierta en una alternativa barata y factible.

4.Mecatrónica (Mechatronics)

Mechatronics.Para mejorar todo desde ahorro de combustible al rendimiento del mismo en sus diferentes prestaciones. Los que investigan automóviles del futuro estudian "mecatrónica", la integración de sistemas mecánicos ya familiares con nuevos componentes y control de software inteligente.

5.Sistemas informáticos Grid (Grid Computing)

Grid Computing. En los años 80, los protocolos intranet nos permitieron enlazar dos ordenadores y la red Internet estalló. En los años 90, el protocolo de transferencia de hipertextos nos permitía enlazar dos documentos, y una enorme biblioteca tipo "centro comercial" llamado el World Wide Web (la Red) estalló. Ahora, los llamados protocolos grid nos podrán enlazar casi cualquier cosa: bases de datos, herramientas de simulación y visualización y hasta la potencia grandísima, enorme, de los ordenadores en sí. Y puede ser que pronto nos encontremos en medio de la explosión más grande hasta la fecha. Según Ian Foster de Argonne National Laboratory, "avanzamos hacía un futuro en el que la ubicación de recursos informáticos no importa". Se ha desarrollado el Globos Toolkit, una implementación "open-source de protocolos grid" que se ha convertido en un tipo estandarizado. Este tipo de protocolos pretenden aportar a las maquinas domésticas y de oficinas la capacidad de alcanzar el ciberespacio, encontrar los recursos que sean, y construirles en vivo en las aplicaciones que les hagan falta. La computación, el código abierto, de nuevo en alza.

6.Imágenes moleculares (Molecular Imaging)

Molecular Imaging. Las técnicas recogidas dentro del término imágenes moleculares permiten que los investigadores avancen en el análisis de cómo funcionan las proteínas y otras moléculas en el cuerpo. Grupos de investigación en distintos sitios del mundo trabajan para aplicar el uso de técnicas de imagen magnéticas, nucleares y ópticas para estudiar las interacciones de las moléculas que determinan los procesos biológicos. A diferencia de rayos x, ultrasonido y otras técnicas más convencionales, que aportan a los médicos pistas anatómicas sobre el tamaño de un tumor, las imágenes moleculares podrán ayudar a descubrir las verdaderas causas de la enfermedad. La apariencia de una proteína poco usual en un conjunto de células podrá advertir de la aparición de un cáncer.

7.Litografía Nano-impresión (Nanoimprint Lithography)

Nanoimprint Lithography. En diversos sitios del mundo, se desarrollan sensores, transistores y láser con la ayuda de nanotecnología. Estos aparatos apuntan hacía un futuro de electrónica y comunicadores ultra-rápidos, aunque todavía se carece de las técnicas adecuadas de fabricación de los hallazgos logrados en el laboratorio. Según Stephen Choue, ingeniero universitario de Princeton, "Ahora mismo todo el mundo habla de la nanotecnología, pero su comercialización depende de nuestra capacidad de fabricar". La solución podría ser un mecanismo algo más sofisiticado que la imprenta, según Choue. Simplemente a través de la impresión de una moldura dura dentro de una materia blanda, puede imprimir caracteres más pequeños que 10 nanometros. Esto parece sentar la base para nanofabricación.

8.Software fiable (Software Assurance)

Software Assurance. Los ordenadores se averían - es un hecho ya contrastado por la experiencia diaria. Y cuando lo hacen, suele ser por un virus informático. Cuando se trata de un sistema como control aéreo o equipos médicos, el coste de un virus pueden ser vidas humanas. Para evitar tales escenarios, se investigan herramientas que produzcan software sin errores. Trabajando conjuntamente en MIT, investigadores Lynch y Garland han desarrollado un lenguaje informático y herramientas de programación para poder poner a prueba modelos de software antes de elaborarlo.

9.Glucomicas (Glycomics)

Glycomics
.
Un campo de investigación que pretende comprender y controlar los miles de tipos de azúcares fabricados por el cuerpo humano para diseñar medicinas que tendrán un impacto sobre problemas de salud relevantes. Desde la artrosis reumática hasta la extensión del cáncer. Investigadores estiman que una persona está compuesta por hasta 40.000 genes, y que cada gen contiene varias proteínas. Los azúcares modifican muchas de estas proteínas, formando una estructura de ramas, cada una con una función única.

10.Criptografía Quantum (Quantum Cryptography)

Quantum Cryptography. El mundo funciona con muchos secretos, materiales altamente confidenciales. Entidades como gobiernos, empresas y individuos no sabrían funcionar sin estos secretos altamente protegidos. Nicolás Gisin de la Universidad de Génova dirige un movimiento tecnológico que podrá fortalecer la seguridad de comunicaciones electrónicas. La herramienta de Gisin (quantum cryptography), depende de la física cuántica aplicada a dimensiones atómicas y puede transmitir información de tal forma que cualquier intento de descifrar o escuchar será detectado. Esto es especialmente relevante en un mundo donde cada vez más se utiliza el Internet para gestionar temas. Según Gisin, "comercio electrónico y gobierno electrónico solo serán posibles si la comunicación cuántica existe". En otras palabras, el futuro tecnológico depende en gran medida de la "ciencia de los secretos".

jueves, 13 de septiembre de 2007

BIOTECNOLOGÍA

La biotecnología no es, en sí misma, una ciencia; es un enfoque multidisciplinario que involucra varias disciplinas y ciencias (biología, bioquímica, genética, virología, agronomía, ingeniería, química, medicina y veterinaria entre otras). Hay muchas definiciones para describir la biotecnología. En términos generales biotecnología es el uso de organismos vivos o de compuestos obtenidos de organismos vivos para obtener productos de valor para el hombre.

Como tal, la biotecnología ha sido utilizada por el hombre desde los comienzos de la historia en actividades tales como la preparación del pan y de bebidas alcohólicas o el mejoramiento de cultivos y de animales domésticos. Históricamente, biotecnología implicaba el uso de organismos para realizar una tarea o función.

Si se acepta esta definición, la biotecnología ha estado presente por mucho tiempo. Procesos como la producción de cerveza, vino, queso y yoghurt implican el uso de bacterias o levaduras con el fin de convertir un producto natural como leche o jugo de uvas, en un producto de fermentación más apetecible como el yoghurt o el vino tradicionalmente la biotecnología tiene muchas aplicaciones. Un ejemplo sencillo es el compostaje, el cual aumenta la fertilidad del suelo permitiendo que microorganismos del suelo descompongan residuos orgánicos.
Otras aplicaciones incluyen la producción y uso de vacunas para prevenir enfermedades humanas y animales. En la industria alimenticia, la producción de vino y de cerveza se encuentra entre los muchos usos prácticos de la biotecnología.

La biotecnología moderna está compuesta por una variedad de técnicas derivadas de la investigación en biología celular y molecular, las cuales pueden ser utilizadas en cualquier industria que utilice microorganismos o células vegetales y animales. Esta tecnología permite la transformación de la agricultura. También tiene importancia para otras industrias basadas en el carbono, como energía, productos químicos y farmacéuticos y manejo de residuos o desechos. Tiene un enorme impacto potencial, porque la investigación en ciencias biológicas está efectuando avances vertiginosos y los resultados no solamente afectan una amplitud de sectores sino que también facilitan enlace entre ellos.
Por ejemplo, resultados exitosos en fermentaciones de desechos agrícolas, podrían afectar tanto la economía del sector energético como la de agroindustria y adicionalmente ejercer un efecto ambiental favorable.
Una definición más exacta y específica de la biotecnología "moderna" es "la aplicación comercial de organismos vivos o sus productos, la cual involucra la manipulación deliberada de sus moléculas de DNA". Esta definición implica una serie de desarrollos en técnicas de laboratorio que, durante las últimas décadas, han sido responsables del tremendo interés científico y comercial en biotecnología, la creación de nuevas empresas y la reorientación de investigaciones y de inversiones en compañías ya establecidas y en Universidades.

La biotecnología consiste en un gradiente de tecnologías que van desde las técnicas de la biotecnología "tradicional", largamente establecidas y ampliamente conocidas y utilizadas (e.g., fermentación de alimentos, control biológico), hasta la biotecnología moderna, basada en la utilización de las nuevas técnicas del DNA recombinante (llamadas de ingeniería genética), los anticuerpos monoclonales y los nuevos métodos de cultivo de células y tejidos.

INGENIERIA GENETICA


La ingeniería genética es la tecnología de la manipulación y transferencia de ADN de un organismo a otro, que posibilita la creación de nuevas especies, la corrección de defectos genéticos y la fabricación de numerosos compuestos.

En 1973 los investigadores Stanley Cohen y Herbert Boyer producen el primer organismo recombinando partes de su ADN en lo que se considera el comienzo de la ingeniería genética. En 1997 se clona el primer mamífero, la Oveja Dolly.

Actualmente la Ingeniería Genética está trabajando en la creación de técnicas que permitan solucionar problemas frecuentes de la humanidad como, por ejemplo, la escasez de donantes para la urgencia de transplantes.

En este campo se están intentando realizar cerdos transgénicos que posean órganos compatibles con los del hombre.El ADN es una base fundamental de información que poseen todos los organismos vivos, hasta el más simple y pequeño. Esta información está a su vez dividida en determinada cantidad de células organizadas en unidades llamadas genes, que varían dependiendo de la especie.

Los genes controlan todos los aspectos de la vida de cada organismo, incluyendo metabolismo, forma, desarrollo y reproducción. Por ejemplo, una proteína X hará que en el individuo se manifieste el rasgo de "pelo oscuro", mientras que la proteína Y determinará el rasgo de "pelo claro".

Los defectos de los genes individuales pueden causar malfunciones en el metabolismo del cuerpo, y es el origen de muchas enfermedades genéticas.

Vemos entonces que la carga genética de un determinado organismo no puede ser idéntica a la de otro, aunque se trate de la misma especie. Sin embargo, debe ser en rasgos generales similar para que la reproducción se pueda concretar, ya que una de las propiedades más importantes del ADN, y por la cual se ha dicho que fue posible la evolución, es la de dividirse y fusionarse con el ADN de otro individuo de la misma especie para lograr descendencia diversificada.

En la ingeniería genética se busca el concimiento de lo que son los cada uno de los genes de un mapa genético. Esto no está tan lejos como parece, la capacidad de eliminar el factor azar de nuestro perfil, genético esta cada vez mas cerca. Según French Anderson (60 años), pionero de la terapia genética, "ya existe toda la base científica necesaria, pero no tendremos hasta dentro de 10 o 5 años la eficiencia y seguridad para llevar a cabo transferencias genéticas en forma ética".

La ingeniería genética tiene un gran potencial. Por ejemplo, el gen para la insulina, que por lo general sólo se encuentra en los animales superiores, se puede ahora introducir en células bacterianas mediante un plásmido o vector. Después la bacteria puede reproducirse en grandes cantidades constituyendo una fuente abundante de la llamada insulina recombinante a un precio relativamente bajo. La producción de insulina recombinante no depende del, en ocasiones, variable suministro de tejido pancreático animal. Otros usos de la ingeniería genética son el aumento de la resistencia de los cultivos a enfermedades, la producción de compuestos farmacéuticos en la leche de los animales, la elaboración de vacunas, y la alteración de las características del ganado.

Otra particularidad de esta molécula es su universalidad. A raíz del concepto de gen, surgen algunas incógnitas: ¿Son compatibles las cargas genéticas de especies distintas? ¿Puede el gen de una especie funcionar y manifestarse en otra completamente distinta? ¿Se puede aislar y manipular el ADN? organismo modificado esto tiene que ver tambien con biotecnologia". La respuesta a todas estas preguntas se resume en dos palabras: Ingeniería Genética

jueves, 6 de septiembre de 2007

BIT, BYTE, KILOBYTE, MEGABYTE

BIT

El término bit deriva de la frase dígito binario (en inglés binary digit).
Un bit es una señal electrónica que puede estar encendida (1) o apagada (0). Es la unidad más pequeña de información que utiliza un ordenador. Son necesarios 8 bits para crear un byte.

La mayoría de las veces los bits se utilizan para describir velocidades de transmisión, mientras que los bytes se utilizan para describir capacidad de almacenamiento o memoria.

El funcionamiento es el siguiente: El circuito electrónico en los ordenadores detecta la diferencia entre dos estados (corriente alta y corriente baja) y representa esos dos estados como uno de dos números, 1 o 0. Estos básicos, alta/baja, ambos/o, si/no unidades de información se llaman bits.

BYTE

Un byte es la unidad fundamental de datos en los ordenadores personales, un byte son ocho bits contiguos. El byte es también la unidad de medida básica para memoria, almacenando el equivalente a un carácter.

La arquitectura de ordenadores se basa sobre todo en números binarios, así que los bytes se cuentan en potencias de dos (que es por lo que alguna gente prefiere llamar los grupos de ocho bits octetos).

Los términos Kilo (en Kilobyte, abreviado como K) y mega (en Megabyte, abreviado como M) se utilizan para contar bytes (aunque son engañosos, puesto que derivan de una base decimal de 10 números).








KILOBYTE





Un Kilobyte (abreviado como KB o Kbyte) es una unidad de medida equivalente a mil bytes de memoria de ordenador o de capacidad de disco. Por ejemplo, un dispositivo que tiene 256K de memoria puede almacenar aproximadamente 256.000 bytes (o caracteres) de una vez.

En sistemas decimales, kilo significa 1.000, pero el mundo de los ordenadores se basa en un sistema binario de dos en vez de diez. Así pues, un kilobyte es realmente 1.024 (210) bytes. Para distinguir entre una K decimal (1.000) y una K binaria (1.024), el IEEE ha sugerido usar una k minúscula para un kilo decimal y una K mayúscula para un kilo binario.




MEGABYTE


(MB, mbyte) Unidad que sirve para medir cantidad datos informáticos.Sirve para medir tamaño de archivos, capacidad de almacenamiento, velocidad de transferencia de datos (al agregarle una unidad de tiempo, generalmente segundos),

Un Megabyte, cuando se utiliza para describir el almacenamiento de datos, son 1.048.576 (2 a la vigésima potencia) bytes. El megabyte se abrevia con frecuencia como M o MB.

Un Megabyte, cuando se utiliza para describir tasas de transferencia de datos, como en MBps, se refiere a un millón de Bytes.

ENIAC

ENIAC es un acrónimo inglés de Electronic Numerical Integrator And Computer (Computador e Integrador Numérico Electrónico), utilizada por el Laboratorio de Investigación Balística del Ejército de los Estados Unidos.

Máquina gigantesca que ha sido la primera computadora electrónica de propósito general (a excepción del Colossus, que fue usado para descifrar código alemán durante la Segunda Guerra Mundial y destruido tras su uso para evitar dejar pruebas, siendo recientemente restaurada para un museo británico) totalmente digital, es decir, que ejecutaba sus procesos y operaciones mediante instrucciones en lenguaje máquina, a diferencia de otras máquinas computadoras contemporáneas de procesos analógicos. Presentada en público el 15 de febrero de 1946.

La ENIAC fue construida en la Universidad de Pennsylvania por John Presper Eckert y John William Mauchly, ocupaba una superficie de 167 m² y operaba con un total de 17.468 válvulas electrónicas o tubos de vacío. Físicamente, la ENIAC tenía 17.468 tubos de vacío, 7.200 diodos de cristal, 1.500 relés, 70.000 resistencias, 10.000 condensadores y 5 millones de soldaduras. Pesaba 27 tn, medía 2,4 m x 0,9 m x 30 m; utilizaba 1.500 conmutadores electromagnéticos y relés; requería la operación manual de unos 6.000 interruptores, y su programa o software, cuando requería modificaciones, tardaba semanas de instalación manual.

La ENIAC elevaba la temperatura del local a 50ºC. Para efectuar las diferentes operaciones era preciso cambiar, conectar y reconectar los cables como se hacía, en esa época, en las centrales telefónicas, de allí el concepto. Este trabajo podía demorar varios días dependiendo del cálculo a realizar.

Uno de los mitos que rodea a este aparato es que la ciudad de Filadelfia, donde se encontraba instalada, sufría de apagones cuando la ENIAC entraba en funcionamiento, pues su consumo era de 160 kW. Esto no es cierto, ya que ésta tenía un sistema aparte de la red eléctrica.

A las 23.45 del 2 de octubre de 1955, la ENIAC fue desactivada para siempre.


Las mujeres del ENIAC

Aunque resulta frecuente encontrar en numerosos textos el nombre de los creadores del ENIAC - John Presper Eckert y John William Mauchly- no lo es tanto encontrar la referencia de quienes se encargaron de hacer funcionar la computadora. En la descripción del puesto de trabajo se decía: «Requiere esfuerzo, creatividad mental, espíritu innovativo y un alto grado de paciencia» ya que, por cierto, el ENIAC no tenía manual de programación.

Quienes se encargaron de que la computadora funcionara fueron seis mujeres: Kay Antonelli (1921-2006), Jean Bartik (1924- ), Betty Holberton (1917-2001), Marlyn Meltzer, Frances Spence (1922- ) y Ruth Teitelbaum (1924-86). Sus nombres fueron ocultados durante años y han sido recuperados recientemente para la historia de la computación.

Ellas que desarrollaron los primeros programas de software de la primera computadora electrónica y crearon el campo de la programación. A mediados de los cuarenta del siglo XX eran las únicas programadoras de computadoras de propósito general en el mundo. Fueron así las maestras de la primera generación de programadores digitales.

La historia de estas mujeres ha estado invisibilizada hasta que en 1986 una estudiante de Harvard, Kathryn Kleiman descubrió la historia de estas mujeres al realizar una investigación sobre el papel de las mujeres en la computación. La información fue difundida por Tom Petsinger que realizó un reportaje reconociendo el trabajo de las mujeres del ENIAC para Wall Street Journal.

Ellas, junto a la primera programadora en la historia del ordenador Ada Lovelace también conocida como Ada Byron, son claves en el desarrollo de la informática.


Descripción Técnica


La ENIAC pesaba 27 tn, medía 2,4 m x 0,9 m x 30 m y ocupaba una superficie de 167 m². Físicamente, la ENIAC tenía:

17.468 tubos de vacío
7.200 diodos de cristal
1.500 conmutadores electromagnéticos yrelés
70.000 resistencias
10.000 condensadores
5 millones de soldaduras.

Prestaciones

La computadora podía calcular trayectorias de proyectiles, lo cual fue el objetivo primario al construirla. En 1.5 segundos era posible calcular la potencia 5000 de un número de hasta 5 cifras.

La ENIAC podía resolver 5.000 sumas y 360 multiplicaciones en 1 segundo. Pero entre las anécdotas estaba la poco promisoria cifra de un tiempo de rotura de 1 hora.

EL SILICIO

ATOMO DEL SILICIO
El silicio es un elemento químico no metálico situado en el grupo 14 de la tabla periódica de los elementos formando parte de la familia de los carbonoideos. Es el segundo elemento más abundante en la corteza terrestre (27,7% en peso) después del oxígeno. Se presenta en forma amorfa y cristalizada; el primero es un polvo parduzco, más activo que la variante cristalina, que se presenta en octaedros de color azul grisáceo y brillo metálico.

Sus propiedades son intermedias entre las del carbono
y el germanio. En forma cristalina es muy duro y poco soluble y presenta un brillo metálico y color grisáceo. Aunque es un elemento relativamente inerte y resiste la acción de la mayoría de los acídos, reacciona con los halógenos y álcalis diluidos. El silicio transmite más del 95% de las longitudes de onda de la radiación infrarroja.

Se utiliza en aleaciones, en la preparación de las siliconas, en la industria de la cerámica técnica y, debido a que es un material semiconductor muy abundante, tiene un interés especial en la industria electrónica y microelectrónica como material básico para la creación de obleas o chips que se pueden implantar en transistores, pilas solares y una gran variedad de circuitos electrónicos.


El silicio es un elemento vital en numerosas industrias. El
dióxido de silicio (arena y arcilla) es un importante constituyente del hormigón y los ladrillos, y se emplea en la producción de cemento portland. Por sus propiedades semiconductoras se usa en la fabricación de transistores, células solares y todo tipo de dispositivos semiconductores; por esta razón se conoce como Silicon Valley (Valle del Silicio) a la región de California en la que concentran numerosas empresas del sector de la electrónica y la informática.

Otros importantes usos del silicio son:

Como material
refractario, se usa en cerámicas, vidriados y esmaltados.
Como elemento
fertilizante en forma de mineral primario rico en silicio, para la agricultura.
Como elemento de aleación
en fundiciones.
Fabricación de vidrio
para ventanas y aislantes.
El carburo de silicio
es uno de los abrasivos más importantes.
Se usa en láseres
para obtener una luz con una longitud de onda de 456 nm.
La sicolona
se usa en medicina en implantes de seno y lentes de contacto.

El silicio (del
latín silex, sílice) fue identificado por primera vez por Antoine Lavoisier en 1787, y el elemento.

El silicio es uno de los componentes principales de los aerolitos, una clase de meteoroides. Medido en peso el silicio representa más de la cuarta parte de la corteza terrestre y es el segundo elemento más abundante por detrás del oxígeno. El silicio no se encuentra en estado nativo; arena, cuarzo, amatista, ágata, pedernal, ópalo y jaspe son algunas de los minerales en los que aparece el óxido, mientras que formando silicatos se encuentra, entre otros, en el granito, feldespato, arcilla, hornblenda y mica.

El silicio comercial se obtiene a partir de
sílice de alta pureza en horno de arco eléctrico reduciendo el óxido con electrodos de carbono a temperatura superior a 3000 °C:
SiO2 + C → Si + CO2
El silicio líquido se acumula en el fondo del horno de donde se extrae y se enfría. El silicio producido por este proceso se denomina metalúrgico y tiene una pureza superior al 99%. Para la construcción de dispositivos
semiconductores es necesario un silicio de mayor pureza, silicio ultrapuro, que puede obtenerse por métodos físicos o químicos.


Efectos del Silicio sobre la salud

El silicio elemental es un material inerte, que parece carecer de la propiedad de causar fibrosis en el tejido pulmonar. Sin embargo, se han documentado lesiones pulmonares leves en animales de laboratorio sometidos a inyecciones intratraqueales de polvo de silicio. El polvo de silicio tiene pocos efectos adversos sobre los pulmones y no parece producir enfermedades orgánicas significativas o efectos tóxicos cuando las exposiciones se mantienen por debajo de los límites de exposición recomendados. El silicio puede tener efectos crónicos en la respiración. El silicio cristalino (dióxido de silicio) es un potente peligro para la respiración. Sin embargo, la probablilidad de que se produzca dióxido de silicio durante los procesamientos normales es muy remota. LD50 (oral)-3160 mg/kg. (LD50: Dosis Letal 50. Dosis individual de una sustancia que provoca la muerte del 50% de la población animal debido a la exposición a la sustancia por cualquier vía distinta a la inhalación. Normalmente expresada como miligramos o gramos de material por kilogramo de peso del animal.)


El silicio cristalino irrita la piel y los ojos por contacto. Su inhalación causa irritación de los pulmones y de la membrana mucosa. La irritación de los ojos provoca lagrimeo y enrojecimiento. Enrojecimiento, formación de costras y picores son características de la inflamación cutánea.

El cáncer de pulmón está asociado con exposiciones a silicio cristalino (especialmente cuarzo y cristobalita) en lugares de trabajo. En estudios realizados a mineros, trabajadores con tierra de diatomeas, trabajadores del granito, trabajadores de cerámica, trabajadores de ladrillos refractarios y otros trabajadores se ha documentado una relación exposición-respuesta.


Diversos estudios epidemiológicos han informado de números estadísticamente significativos de exceso de muertes o casos de desorden inmunológico y enfermedades autoinmunes en trabajadores expuestos al silicio. Estas enfermedades y trastornos incluyen scleroderma, artritis reumatoide, eritematosis sistémica y sarcoidosis.

Estudios epidemiológicos recientes han informado de asociaciones estadísticamente significativas de exposiciones ocupacionales a silicio cristalino con enfermedades renales y cambios renales subclínicos.El silicio cristalino puede afectar el sistema inmunitario, resultando en infecciones micobacterianas (tuberculosas y no tuberculosas) o fúngicas, especialmente en trabajadores con silicosis.

La exposición ocupacional al silicio cristalino respirable está asociado con bronquitis, enfermedad crónica de obstrucción pulmonar (COPD) y enfisema. Algunos estudios epidemiológicos sugieren que estos efectos sobre la salud pueden ser menos frecuentes o ausentes en los no fumadores.

viernes, 31 de agosto de 2007

LA CLAVE MORSE


Samuel Morse
El código Morse (tcc alfabeto Morse) es un sistema de representación de letras y números mediante señales emitidas de forma intermitente.Fue desarollado por Alfred Vail mientras colaboraba en 1835 con Samuel Morse en la invención del telégrafo eléctrico. Vail creó un método según el cual cada letra o número era transmitido de forma individual con un código consistente en rayas y puntos, es decir, señales telegráficas que se diferencian en el tiempo de duración de la señal activa. Una raya tiene una duración de aproximadamente tres veces la del punto. Entre cada par de símbolos existe una ausencia de señal con duración aproximada a la de un punto. Para la separación de palabras transmitidas el tiempo es de cinco veces el del punto. Morse reconoció la idoneidad de este sistema y lo patentó junto con el telégrafo eléctrico. Fue conocido como «American Morse Code» y fue utilizado en la primera transmisión por telégrafo.


En sus comienzos, el alfabeto Morse se empleó en las líneas telegráficas mediante los tendidos de cable que se fueron instalando. Más tarde, se utilizó también en las transmisiones por radio, sobre todo en el mar y en el aire, hasta que surgieron las emisoras y los receptores de radiodifusión mediante voz. En la actualidad, el alfabeto Morse tiene aplicación casi exclusiva en el ámbito de los radioaficionados, siendo exigible frecuentemente su conocimiento para la obtención de la licencia de radioperador aficionado hasta el año 2005; desde entonces, los organismos que conceden esa licencia en todos los países están invitados a dispensar del examen de telegrafía a los candidatos al examen.
Alfred Vail

Regla nemotécnica

El código Morse es difícil de aprender, por lo que para facilitar su aprendizaje se suele utilizar una regla nemotécnica, la cual permite aprendérselo mediante un código consistente en asignar a cada letra una palabra clave determinada, que comienza con la letra que se quiere recordar. Luego basta con sustituir cada vocal de la palabra clave por un punto o una raya según la siguiente regla:
La inicial de la palabra clave es la letra correspondiente.

El número de vocales que contiene la palabra clave indica la longitud de la codificación en morse de dicha letra.

Si la vocal es una O se sustituye por una raya (-)

Si se trata de cualquier otra vocal se sustituye por un punto (·)

Al sustituir sólo se tendrá en cuenta los puntos y rayas obtenidos hasta la totalidad de la longitud en morse.

LOS 8 DESCUBRIMIENTOS MÁS IMPORTANTES

SEGÚN JOHANNES STRADANUS




1. DESCUBRIMIENTO DE AMERICA

En la época de las grandes exploraciones uno de los hechos más trascendentales para la humanidad fue el descubrimiento del continente americano. Los viajes de los portugueses a India siguiendo a costa Africana significaron un estímulo para quienes creían en la ruta hacia el oeste como el camino más corto para llegar hasta Asia. Cristobal Colón fue partidario de esta hipotesis. Apoyado por la monarquia española, organizó un viaje de exploración que lo condujo al descubrimiento de América en 1492.

Portugal y Castilla (España) estaban muy avanzados en la exploración de rutas mercantiles marítimas y Sevilla, una rica y populosa ciudad española era por entonces un importante centro comercial. Sabemos que las rutas africanas permanecían cerradas para Castilla en favor de Portugal. En 1479, por el tratado de Alcaçova, Alfonso V de Portugal renunció a sus aspiraciones sobre Castilla y reconoció los derechos de Castilla en las islas Canarias, mientras que Castilla reconocía los derechos de Portugal en las Azores, Cabo Verde y Madeira.

Las Islas Canarias eran una puerta excelente hacia rutas alternativas. Esto es lo que Cristóbal Colón ofreció, y lo hizo a un estado que precisaba de ellas, y que estaba también acostumbrado y preparado para este tipo de empresa. La España unificada poseía en 1492 una poderosa maquinaria de guerra, una sólida economía, una proyección exterior, experiencia naval que incluía la exploración de rutas mercantiles, y un notable potencial cientifico-tecnológico: matemáticos, geógrafos, astrónomos y constructores navales, que habían sido formados en una mezcla de tres culturas (judíos, musulmanes y cristianos). Su único rival era la vecina Portugal que, como ya sabemos, había puesto punto final a la expansión española en Africa.

La oferta de Colón fue rápidamente aceptada a pesar de sus conocidos errores. Pero durante su viaje a Asia sus carabelas, inesperadamente, tropezaron con el continente americano.

La expresión descubrimiento de América se usa habitualmente para referirse a la llegada de un grupo de españoles que partieron desde el Puerto de Palos de la Frontera, comandados por Cristóbal Colón a América, el 12 de octubre de 1492, lunes, a una isla del mar Caribe llamada Guanahani representando a los Reyes Católicos de Castilla y Aragón. Se trata de uno de los momentos cumbres de la historia universal porque significó el encuentro, de dos mundos humanos que se habían desarrollado independientemente sin que ninguno conociera la existencia del otro.

A mediados del siglo XVI, se habían establecido en dos de los virreinatos más importantes, Méjico en el Atlántico y Perú en el Pacífico.

Los idiomas posteriores que se impusieron obligatoriamente fueron el idioma español y portugués en sus respectivas zonas de influencia y la religión católica paso a ser oficial; se generó una población con altos niveles de mestizaje genético y cultural entre pueblos originarios, africanos subsaharianos, y los europeos.


2. LA BRUJULA

La brújula es un instrumento que sirve para orientarse, por medio de una aguja imantada que señala el Norte magnético, que es ligeramente diferente para cada zona del planeta, y distinto del Norte geográfico. Utiliza como medio de funcionamiento el magnetismo terrestre. La aguja imantada indica la dirección del campo magnético terrestre, apuntando hacia los polos norte y sur. Únicamente es inútil en las zonas polares norte y sur, debido a la convergencia de las líneas de fuerza del campo magnético terrestre.

Probablemente fue inventada en China, aproximadamente en el siglo IX, e inicialmente consistía en una aguja imantada flotando en una vasija llena de agua. Más adelante fue mejorada para reducir su tamaño e incrementar su practicidad, cambiándose la vasija de agua por un eje rotatorio, y añadiéndose una "rosa de los vientos" que sirve de guía para calcular direcciones. Actualmente las brújulas han recibido pequeñas mejoras que, si bien no cambian su sistema de funcionamiento, hacen más sencillas las mediciones a realizar. Entre estas mejoras se encuentran sistemas de iluminación para toma de datos en entornos oscuros, y sistemas ópticos para mediciones en las que las referencias son objetos situados en la lejanía.

Antes de la creación de la brújula, la dirección en mar abierto se determinaba con la posición de los cuerpos celestes. Algunas veces la navegación se apoyaba con el uso de sondas. Las dificultades principales que se presentaban con el uso de estos métodos eran las aguas demasiado profundas para el uso de sondas, y que muchas veces el cielo estaba demasiado nublado, o el clima era muy neblinoso. La brújula se usaba principalmente para paliar estos problemas, por lo que culturas que no los padecían adoptaron poco el uso de dicho instrumento.
La más antigua referencia al magnetismo en la literatura china se encuentra en un libro del siglo IV llamado Book of the Devil Valley Master (??????): "La magnetita hace que el hierro venga, o lo atrae."

La primera referencia indiscutible a una aguja magnetizada en escritos chinos aparece en 1086.[7] El Dream Pool Essays escrito por Shen Kuo, de la dinastía Song, contenía una descripción detallada de cómo los Geomantes magnetizaron una aguja frotando su punta con magnetita, y colgando la aguja magnética con una fibra de seda con un poco de cera pegada en el centro de la aguja. Shen Kuo señaló que una aguja preparada de este modo algunas veces apuntaba hacia el norte y otras hacia el sur.

El primer uso de una brújula de navegación de 48 posiciones en el mar está mencionado en un libro titulado "The Customs of Cambodia", escrito por Zhou Daguan, diplomático de la dinastía Yuan. Allí se describe su viaje en 1296 desde Wenzhou hasta Angkor Thom, donde un marinero tomó una dirección de la aguja de "ding wei", equivalente a 22.5° SO. Luego de arrivar en Baria, el marinero tomó un dato de "Kun Shen needle", o 52.5° SO.[
Teorias de Difusión:
Viaje de la brújula desde China hasta el Medio Este a través de la Ruta de la Seda, y luego a Europa.

Transferencia directa de la brújula de China a Europa, y luego de Europa al Medio Este.
Creación independiente de la brújula en Europa, y luego paso de ésta al Medio Este.
Las dos últimas teorías se soportan en evidencias de aparición de la brújula en trabajos europeos antes que en arábigos. La primera mención europea de una aguja magnetizada y su uso entre marineros ocurre en De naturis rerum, de Alexander Neckam, probablemente escrito en París en 1190.

Utilización en minería
La brújula se utilizó por vez primera como herramienta de orientación bajo tierra en la ciudad minera de Massa, Italia, donde agujas magnetizadas flotantes se usaron como guías para determinar la dirección de los túneles a partir del siglo 13.[22] En la segunda mitad del siglo 15, la brújula pertenecía al equipo básico dque utilizaban los mineros de Tirol para sus trabajos, y poco tiempo después fue publicado un tratado que contenía los usos de la brújula en trabajos subterráneos, escrito por el minero alemán Rülein von Calw (1463-1525).

La brújula seca

La brújula seca fue inventada en Europa alrededor del año 1300. Este artilugio consta de tres elementos: una aguja magnetizada, una caja con cubierta de vidrio y una carta náutica con la rosa de los vientos dibujada en una de sus caras. La carta se adhería en la aguja, que a su vez se encontraba sobre un eje de forma que podía rotar libremente. Como la brújula se ponía en línea con la quilla del barco y la carta giraba siempre que el barco cambiaba de dirección, el aparato indicaba en todo momento el rumbo que llevaba el barco.[24] A pesar de que el sistema de agujas en cajas ya había sido descrito por el erúdito francés Peter Peregrinus en 1269,[25] fue el italiano Flavio Gioja, piloto marino originario de Amalfi, quien perfeccionó la brújula de navegación suspendiendo la aguja sobre la carta náutica, dándole al aparato su apariencia familiar.[14] Ese modelo de brújula, con la aguja atada a una tarjeta rotatoria, también se describe en un comentario de la Divina Comedia de Dante (1380), y en otra fuente se habla de una brújula portátil en una caja (1318),[26] soportando la noción de que la brújula seca era conocida en Europa por esa época.

Brújulas modernas

Las brújulas de navegación actuales utilizan una aguja o disco magnetizados dentro de una cápsula llena con algún líquido, generalmente aceite, queroseno o alcohol; dicho fluido hace que la aguja se detenga rápidamente en vez de oscilar repetidamente alrededor del norte magnético. Fue en 1936 que Tuomas Vohlonen inventó la primera brújula portátil llena de líquido, diseñada para uso individual.





Balanceo de una brújula

Debido a que la inclinación e intensidad del campo magnético terrestre varía a diferentes latitudes, las brújulas generalmente son balanceadas durante su fabricación. Este balanceo previene medidas erróneas de la brújula debido a las mencionadas variaciones de campo magnético. La mayoría de fabricantes balancean sus brújulas para una de 5 zonas terrestres, que van desde la zona 1, que cubre la mayor parte del hemisferio norte, a la zona 5, que cubre Australia y los océanos del sur. Suunto, fabricante de equipos para exploración, introdujo al mercado las primeras brújulas de 2 zonas, que pueden usarse en un hemisferio completo, e incluso usarse en el otro sin tener fallos importantes de precisión[32][33].

Países representativos de cada zona

Zona 1: Hemisferio Norte (Estados Unidos, Norte de Europa y Asia)
Zona 2: México, América central, Panamá, Colombia, Venezuela, Norte de África
Zona 3: Perú, Bolivia, Brasil, África central
Zona 4: Paraguay, Uruguay, Sur de Argentina, Nueva Guinea, Sur de África
Zona 5: Australia, Antártica, Nueva Zelanda



3. LA IMPRENTA


La invención de la imprenta, que no es europea, sino china, se remonta al año 960, durante el periodo de los Song (960 - 1279), en que se usaron en China tipos móviles de madera, uso que se extendió a Turquestán en 1280. El caso es que la Europa Central de principios del Renacimiento ya conocía el invento.

Aunque siempre se piensa en Maguncia como la cuna de la imprenta, parece ser que son los Países Bajos su más serio competidor, pues se imprimió allí con tipos móviles antes que en la ciudad alemana, y consta que es la única nación europea a la que los alemanes no llevaron la imprenta.

Puede sacarse así la conclusión de que en Europa se estaba trabajando y buscando una técnica que hiciera posible la producción de libros a partir de un molde constituido por letras sueltas, en lugar de manuscribirlo o estamparlo en un bloque de madera grabada.

Parece ser que fueron naipes las primeras obras que se produjeron, a la vez que imágenes de santos, ya que en el Museo de Bruselas se conserva una xilografía de 1418, que representa a la Virgen rodeada de cuatro santos que es la más antigua que se conoce.

Por esta fecha se empezaron a grabar planchas con textos en letras góticas, a imitación de los códices de aquella época, como Donatos, Ars Moriendi, Biblia Pauperum, y otros.

El trabajo y el tiempo que invertían en grabar estas planchas fueron sin duda lo que indujo a buscar un medio de lograrlas con más facilidad y rapidez. Pero la verdadera invención se atribuye hoy casi sin dudas a Johannes Gutemberg, cuyo mérito fue el de fundir letras sueltas y adaptar una prensa de uvas renana para la impresión de pliegos de papel, y de una tinta que permitía la impresión del papel por las dos caras, que es lo que constituyó la imprenta primitiva (1440); le sigue en importancia Peter Schöffer, que fue quien concibió los punzones para hacer las matrices y fundirlas en serie, y finalmente, Johan Fust, que aportó el capital para llevar a buen término la genial empresa.

En 1465, falto de recursos económicos, se acogió a la protección del arzobispo de Maguncia, Adolfo II de Nassau, quién le concedió un título de nobleza y le permitió vivir en su residencia de Eltwil. Falleció en 1468, como ya ha mencionado anteriormente.
Entre los libros que se le atribuyen a la impresión de Gutenberg, el más célebre es la Biblia llamada cuarenta y dos líneas (1455), por el número de líneas de que consta cada una da las dobles columnas.

INFLUENCIAS EN EL INVENTO DE LA IMPRENTA: LA SOCIEDAD

El descubrimiento de la imprenta, a finales de la edad media, transformó la sociedad humana y abrió una nueva era al conservar el pensamiento escrito o la imagen y difundirlos en numerosos ejemplares, poniéndolos así al alcance de un numeroso público.

Dicha sociedad se caracterizaba por la existencia de una gran mayoría analfabeta, dónde la única cultura residía en los manuscritos que sólo existían en los conventos, es decir, estaban en poder de los monjes, los cuales a parte de rezar, se dedicaban a la copia de textos e ilustraciones. Los primeros libros impresos no tuvieron gran repercusión entre la mayor parte de la población, pero poco a poco el nuevo sistema de confección de libros se hizo mucho más barato, permitiendo que la cultura dejara de ser patrimonio exclusivos de unos pocos (que son precisamente los anteriormente nombrados, es decir, los poseedores de los manuscritos, más concretamente diré que nos estamos refiriendo al clero o clase dominante).

Este proceso citado (el de las copias de los monjes) era demasiado lento lo que dificultaba la expansión de libros (con lo cual también dificultaba la expansión de la cultura). Para los nuevos tiempos, en Europa, se necesitaba una sociedad más culta y por eso hizo falta que la información saliera de los muros de los conventos. Llegado este punto y bajo estas circunstancias surgió el invento desarrollado en estas páginas: la imprenta.

Este proceso también es impulsado por el auge de la tinta (procedente de China) que se da en esta época.

Con la imprenta se pudo conseguir una mayor información para todas las personas y para todos los lugares, ya que el fácil manejo de este aparato hizo posible una rápida impresión de todo tipo de texto. La aparición de la imprenta y, por lo tanto, de grandes cantidades de un mismo texto, significó, no sólo una mayor difusión de la cultura, sino también una nueva forma de recibirla. La transmisión de unos conocimientos a través de un libro se hace por medio de signos que hay que razonar, comprender y aceptar. Ese proceso supone un examen crítico de lo leído y la posibilidad de recurrir a la información transmitida tantas veces como sea posible. Estas peculiares condiciones no podían darse en una transmisión oral de la cultura en la que el maestro, el sacerdote o el jefe siempre o casi siempre, adoptaban una postura dogmática que no solía permitir la discusión ni, por la inmediatez del discurso, ni por la reflexión sobre los contenidos transmitidos. Es por lo tanto la sociedad un punto clave (como en todos los inventos) para la invención de la imprenta.

Con todo esto estamos mostrando unas posturas de claro rechazo a la idea de que los inventos surjan por inspiración divina de una sola persona (en nuestro caso de Gutenberg).

Además de la sociedad, también hay determinadas personas que contribuyeron al invento de la imprenta (como en cualquier otro invento), personas que duermen en el olvido de todos debido al nulo reconocimiento que recibieron en su época. Entre estas personas, y ya volviendo al tema en concreto de la imprenta, podemos citar a: Bi Sheng (que inventó los caracteres móviles), Peter Schöffer, M. Friburger, M. Grantz, U.Gering, Lyon E. Dolet... y otros muchos que a estas alturas son imposibles de localizar, pero que merecen mención ya que con sus trabajos generaron un capital que se invirtió en las investigaciones de todos los inventos, y así los hicieron posible.

Pero todo esto no sólo se da en la imprenta, sino que es característico de todos los inventos, así que después de todas estas páginas escritas llegamos a la conclusión de dos ideas: de que para que se realice un fenómeno de este tipo tiene que darse una sociedad que necesite este invento y que detrás de esos inventores tan renombrados se esconden multitud de personas que han colaborado en la invención, ya sea de manera directa (colaborando en la invención) o de manera indirecta (obteniendo dinero, con sus trabajos, para invertir en los inventos, y aquí se incluyen a los jornaleros, campesinos, siervos esclavos...


4. LA POLVORA




La pólvora, es un polvo explosivo utilizado en balística, en particular pólvora negra, una mezcla explosiva de un 75% de nitrato potásico, un 15% de carbón y un 10% de azufre aproximadamente. La pólvora fue el primer explosivo conocido; su fórmula aparece ya en el siglo XIII, en los escritos del monje inglés Roger Bacon, aunque parece haber sido descubierta por los chinos, que la utilizaron con anterioridad en la fabricación de fuegos artificiales. Es probable que la pólvora se introdujera en Europa procedente del Oriente Próximo. Berthold Schwarz, un monje alemán, a comienzos del siglo XIV, puede haber sido el primero en utilizar la pólvora para impulsar un proyectil. Sean cuales sean los datos precisos y las identidades de sus descubridores y primeros usuarios, lo cierto es que la pólvora se fabricaba en Inglaterra en 1334 y que en 1340 Alemania contaba con instalaciones para su fabricación. El primer intento de utilización de la pólvora para minar los muros de las fortificaciones se llevó a cabo durante el sitio de Pisa en 1403. En la segunda mitad del siglo XVI, la fabricación de pólvora en la mayoría de los países era un monopolio del Estado, que reglamentó su uso a comienzos del siglo XVII. Fue el único explosivo conocido hasta el descubrimiento del denominado oro fulminante, un poderoso explosivo utilizado por primera vez en 1628 durante las contiendas bélicas que se desarrollaron en el continente europeo.



5. LA DESTILACIÓN





La destilación es la operación de separar, comúnmente mediante calor, los diferentes componentes líquidos de una mezcla, aprovechando las diferencias de volatilidades de los compuestos a separar.

La destilación se da en forma natural debajo del punto de ebullición (100 grados centígrados en el caso del agua), luego se vuelve nubes y finalmente llueve. Aunque tambien de forma acelerada hirviendo la sustancia cuando se alcanza el punto de ebullición en una cocina o en un laboratorio.
El calentamiento global hace que el agua de los oceanos se evapore mas rápido por esto en los últimos años ha llovido tanto, es provocado por el CO2, el cual impide que el calor salga de la tierra, lo cual provoca un aumento constante del calor en la tierra, en este caso el vapor de agua puede arrastrar ciertas sustancias contaminantes causantes de la lluvia ácida.

El aparato utilizado para la destilación en el laboratorio, es el alambique, que consta de un recipiente donde se almacena la mezcla, a la que se le aplica calor, un condensador donde se enfrían los vapores generados, llevándolos de nuevo al estado líquido y un recipiente donde se almacena este líquido concentrado.

En la industria química se utiliza la destilación para la separación de mezclas simples o complejas. Una forma de clasificar la destilación puede ser la de que sea discontinua o continua.

Mechero, proporciona calor a la mezcla a destilar.
Balón de destilación o matraz de fondo redondo, que deberá contener pequeños trozos de material poroso (cerámica, o material similar) para evitar sobresaltos repentinos por sobrecalentamientos.
Cabeza de destilación: No es necesario si el balón de destilación tiene una tubuladura lateral.
Termómetro: El bulbo del termómetro siempre se ubica a la misma altura que la salida a la entrada del refrigerador. Para saber si la temperatura es la real, el bulbo deberá tener al menos una gota de líquido. Puede ser necesario un tapón de goma para sostener al termómetro y evitar que se escapen los gases (muy importante cuando se trabaja con líquidos inflamables).
Tubo refrigerante.
Entrada de agua: El líquido siempre debe entrar por la parte inferior, para que el tubo permanezca lleno con agua.
Salida de agua: Casi siempre puede conectarse la salida de uno a la entrada de otro, porque no se calienta mucho el líquido.
Se recoge en un balón, vaso de precipitados, u otro recipiente.
Fuente de vacío: No es necesario para una destilación a presión atmosférica.
Adaptador de vacío: No es necesario para una destilación a presión atmosférica.


Destilación a vacío


La destilación a vacío es la operación complementaria de destilación del crudo procesado en la unidad de destilación atmosférica, que no se vaporiza y sale por el fondo de la columna de destilación atmosférica. El vaporizado de todo el crudo a la presión atmosférica necesitaría elevar la temperatura por encima del umbral de descomposición química y eso, en esta fase del refino de petróleo, es indeseable.



El residuo atmosférico o crudo reducido procedente del fondo de la columna de destilación atmosférica, se bombea a la unidad de destilación a vacío, se calienta generalmente en un horno a una temperatura inferior a los 400ºC, similar a la temperatura que se alcanza en la fase de destilación atmosférica, y se introduce en la columna de destilación. Esta columna trabaja a vacío, con una presión absoluta de unos 20 mm de Hg, por lo que se vuelve a producir una vaporización de productos por efecto de la disminución de la presión, pudiendo extraerle más productos ligeros sin descomponer su estructura molecular.

En la unidad de vacío se obtienen solo tres tipos de productos:

Gas Oil Ligero de vacio(GOL)
Gas Oil Pesado de vacio(GOP)
Residuo de vacío.
Los dos primeros, GOL y GOP, se utilizan como alimentación a la unidad de craqueo catalítico después de desulfurarse en una unidad de hidrodesulfuración (HDS).

El producto del fondo, residuo de vacío, se utiliza principalmente para alimentar a unidades de craqueo térmico, donde se vuelven a producir más productos ligeros y el fondo se dedica a producir fuel oil, o para alimentar a la unidad de producción de coque. Dependiendo de la naturaleza del crudo el residuo de vacio puede ser insumo para producir asfaltos.



6. ESTRIBO



Los estribos son piezas, generalmente metálicas, de formas diversas que permiten que el jinete de un caballo introduzca los pies en ellas para afianzarse mientras cabalga. Fijados a la silla de montar, permiten una mayor comodidad, tanto para la cabalgadura como para el jinete.

Los primeros protoestribos, consistentes en una cuerda que unía la silla y el dedo gordo del pie del jinete, aparecieron en la India en el límite entre el siglo I y el II adC. De allí pasaron a China en torno al año 300, donde, debido al clima más frío de la zona, pasaron a atarse alrededor del pie calzado, y no sólo sobre el dedo. Poco después, la cuerda original dio paso al hierro. Desde China el uso del estribo pasó a los nómadas turco-mongoles de Asia Central, a Corea y a Japón. Los hunos los introdujeron en Persia en el siglo IV y en Europa hacia el siglo V, aunque no hay noticias de su adopción por la caballería imperial romana hasta aproximadamente un siglo más tarde (ya después de la caída de Occidente. A su vez, los árabes lo tomarían de los persas y los bizantinos.

Por su parte, los invasores germanos del Imperio Romano adoptaron rápidamente el uso de estribos. Ello mejoró la eficacia de sus tropas montadas hasta tal punto que facilitó la derrota en la batalla de Adrianópolis (año 378), del modelo clásico de la legión romana, lo que causó una crisis militar sin precedentes. El estribo, que permitía al jinete luchar con comodidad y maximizaba el impacto de la carga, prácticamente había jubilado al mejor ejército de la historia, y había iniciado una nueva era en Europa: la de la caballería pesada que dominaría los campos de batalla medievales durante mil años..

7. EL RELOJ

Desde tiempos inmemoriales, el hombre quiso medir el paso del tiempo y conseguir un referente que le indicara los momentos en cada día.

Uno de los primeros conceptos que manejó el hombre primitivo fue la toma de conciencia de que era un ser con una duración limitada. Y la primera percepción de ese tiempo se la señalaba la salida y entrada del sol. Otro referente fue el cambio de estaciones y las migraciones de las aves. Y lo más palpable fue la observación de la misma vida del hombre, desde su nacimiento, su crecimiento y reproducción, su envejecimiento y muerte.

Todos estos detalles lo indujeron a tomar el tiempo en períodos: el más perceptible fue el día. Luego estudió la posición en un determinado lugar, del sol. O los trayectos que éste recorría.Cuando se dispuso a medir ese tiempo, trató de hacerlo en medidas espaciales.Fueron los babilónicos quienes comenzaron a usar las nociones de día, hora y año. Descubrieron que el año es el tiempo que tarda el sol en regresar al punto de partida en el cielo. Para determinar los meses usaron el calendario lunar que comenzaba el mes con luna llena.

El primer cuadrante solar, según algunos investigadores, fue inventado en el Siglo VI antes de Cristo, por el griego Anaximandro de Mileto. Aunque otros sostienen que fue inventado por los chinos y los egipcios.

La clepsidra apareció unos 3000 años antes de Cristo, entre los egipcios.

El reloj de Bolsillo: En 1842 el suizo Philippe construye un reloj de bolsillo al que se le puede dar cuerda y accionar las agujas.

La cuerda automática de los relojes de sacudida o de masa fue inventada en 1775 por el relojero francés Perrelet.

Los primeros relojes pulsera con cuerda automática aparecieron en 1924.

El reloj eléctrico fue perfeccionado por el escocés Alexander Bain en 1840.

El reloj de combustión fue un invento usado por los bizantinos para medir el tiempo según la velocidad de combustión de las varas de incienso.

El reloj de pesas es atribuido a Gerbert d'Aurillac (Aprox. 938-1003), que fuera el Papa Silvestre II en 999.

El reloj de péndulo fue creado en 1657, por el astrónomo holandés Christiaan Huygens (1629-1695).

El primer reloj portátil de resorte lo hizo en 1410, el arquitecto florentino Brunelleschi (1377 - 1446). Se inicia el uso de los relojes de péndulo particulares.

Un reloj que habla fue inventado por Ernst Esclangon, quien hizo una demostración al público el 14 de febrero de 1933. En 1987, la Empresa Cítizen inventó otro reloj que habla, y memoriza órdenes (27) que tiene incorporadas, como son número de tarjeta de crédito, de cuenta bancaria, de teléfonos, etc. Responde a la voz de su propietario y es llamado Voice-Master VX-2.

El reloj con diapasón: el diapasón como resonador de un reloj fue usado por primera vez en 1866, por el relojero francés Louis Breguet (1804-1883). En 1954 el ingeniero suizo Hetzel inventa el primer reloj pulsera eléctrico de diapasón..En los relojes de cuarzo, el diapasón es de dicho material.

El reloj de cuarzo aparece en sus primeras manifestaciones en 1920; pero recién en 1929, el relojero norteamericano Warren Alvin Marrison creó un reloj que funcionaba con un resonador de cuarzo.

Los relojes de cuarzo fueron desarrollados por Lip pero la comercialización la realizó a partir de 1969 la firma Seiko.En 1988 la empresa Seiko suprime la pila en los relojes de cuarzo y es reemplazada por una dínamo pequeñita que produce la energía que el reloj consume.

El reloj atómico: Los principios en que se basa el reloj atómico fueron enunciados en 1948 por químico norteamericano, Premio Nóbel de Química en 1960, William F. Libby (1908-1980).

El reloj SEMA o reloj de urgencia fue inventado por dos jóvenes de 23 años, en 1988. Ellos son Nathalie Harrault y Philippe Pasquier. En la actualidad este reloj SEMA sirve para cardiacos, diabéticos insulinodependientes, hemofílicos y enfermos que son tratados con anticoagulantes. Da la posibilidad de actuar rápidamente en los casos de urgencias de estas enfermedades a médicos y personal de primeros auxilios. El reloj SEMA es especial, aunque también marca la hora. Tiene informaciones esenciales inscriptas en el reverso de la caja.

Otros relojes curiosos


El reloj pulsera: el francés Louis Cartier inventó en 1904 un reloj pulsera para ser usado por el aviador Santos-Dumont.Alrededor del mismo año 1904, el fundador de Rólex, el suizo Hans Wilsdorf realizó el invento por su parte. Y se impuso rápidamente por su comodidad. En 1910, Rólex perfeccionó el cronómetro de pulsera.


El primer reloj impermeable: fabricado por Rólex en 1926, logran hacer una caja totalmente impermeable, llamándolo Oyster (cerrado como una ostra).

El primer reloj sumergible, denominado el "submariner", fue desarrollado por la firma Rólex en 1953.En 1971 fabrica esta misma empresa el Sea-Dweller, también sumergible, pero con una válvula de helio y garantizado hasta los 610 metros de profundidad.

El reloj lunar, espacial o todo terreno: el moon watch inventado por Omega en 1965 es el que usan a partir de esa fecha los astronautas de la NASA. Dicho reloj calcula la velocidad de un vehículo, mide el ritmo cardíaco, y varias utilidades más.En 1988 fue usado el reloj creado por la sociedad francesa Yema, para Jean-Loup Chrètien para ser usado en la misión franco-soviética Aragatz. Está hecho totalmente de titanio y se denomina Espacionauta III.

Un reloj para las mareas realizado en cuarzo, fue inventado en 1988 por la norteamericana Ira Krieger y el suizo Francis Bourquín. Indica la hora de las mareas.

El reloj más caro y también el más complicado fue el que realizó el relojero suizo Patek Philippe para celebrar el sesquicentenario de su fundación. Le llevó 9 años de trabajo y perfeccionamiento, tiene 33 funciones diferentes y está calculado su precio cercano a los diez millones de francos suizos.

Un reloj islámico fue inventado por Tricom en 1987, tiene 9 cuadrantes, uno principal y 8 secundarios; indica el levante, el poniente, el zénit, las horas de las cinco plegarias en las próximas décadas. Tiene una voz sintetizada que anuncia el almuecín y una brújula que señala la dirección de la Meca.

El reloj-Televisión fue perfeccionado en 1984 por Seiko. Es un reloj pulsera cuya pantalla mide 2,04 cm y fue vendido solamente en Japón.

El reloj Swatch es el invento realizado por los suizos Ernst Thomke, Jacques Müller y Elmar Mock, de la división relojería de SMH. Es un reloj vendido en Suiza y EUA en 1982. Era impermeable hasta los 30 metros de profundidad. Tenía un año de garantía para el reloj y tres la pila; pero es un reloj descartable, que no se repara y está montado directamente en la caja. se vendieron unos 25 millones de Swatch.



El reloj Génitron se había instalado en París, en la fachada del Centro Cultural George Pompidou, para realizar durante 13 años la cuenta regresiva hacia el año 2000. Era más preciso que el reloj de cuarzo, tenía un margen de error inferior a 1/100.000 de segundo. Estaba comandado a distancia por un reloj atómico.

El reloj que solicita asistencia: fue creado en 1988 por la Empresa sueca Electrolux un reloj electrónico pulsera emisor para convalecientes y solitarios, enchufado a la línea telefónica. Ante señales de peligro, el reloj llamado Dialog marca un número telefónico que se halla en la memoria del receptor y se realiza la asistencia a domicilio.

8. LA SEDA


La seda es la sustancia de consistencia viscosa formada por la proteína llamada fibroína, que es segregada por las glándulas de ciertos artrópodos; el insecto que la segrega la expulsa al exterior de manera continua por un orificio, y es al contacto con el aire como se solidifica en forma de fibra.

El descubrimiento de los hilos de seda se remonta al año 2.600 A.C. Xi Linghsi, emperatriz China, observó que existían larvas que devoraban las hojas del árbol de morera que tenía en sus jardines de palacio. Se trataba de orugas, que producían capullos de mucha suavidad. Cuidadosamente, los Chinos desenredaban estos capullos de seda en forma manual, consiguiendo hebras que podían alcanzar hasta más de un kilómetro de largo por cada capullo. Trabajo de Chino.

La seda es una fibra con la que se tejen telas de alta calidad y extraordinaria resistencia, se hila a partir de los hilamentos que se extrae de los capullos del llamado gusano de seda. En la formación de su capullo y a lo largo de su vida, este gusano posee unas glándulas que fabrican este material con una proteína denominada fibroína. los chinos tanto la valoraban, que se dice que se prohibía sacar los gusanos fuera del Imperio, castigándose con la muerte a quien lo intentara, no obstante lo cual, se dice que algunos europeos lograron sacar varios de estos gusanos escondidos entre su equipaje.