martes, diciembre 19, 2006

LA TECNOLOGIA DEL SIGLO 21

EN LOS PROXIMOS 50 AÑOS LA TECNOLOGIA CAMBIARA NUESTRAS VIDAS.


BRITISH TELECOM, BT, dibuja los escenarios tecnológicos más plausibles del próximo futuro:
será necesaria una nueva mentalidad.

En 2046 se habrá consolidado la energía nuclear de fusión,
en 2041 existirá una pequeña ciudad en la Luna,
en 2036 tendremos el primer ascensor espacial,
en 2031 los robots serán más inteligentes que nosotros,
en 2026 habrá combates de boxeo entre androides,
en 2021 los yogurts nos contarán chistes,
en 2016 los coches serán pilotados automáticamente,
en 2017 podremos ir de vacaciones a un hotel en órbita,
en 2011 los robots cuidarán nuestros jardines, y el año que viene el ordenador ya procesará más rápidamente que una persona.
Son algunos de los escenarios elaborados por el equipo de prospectiva tecnológica de British Telecom, que prevé asimismo para 2051 comunicaciones telepáticas generalizadas y la transferencia de la información contenida en un cerebro humano a una máquina. Por Eduardo Martínez.

Las innovaciones tecnológicas que se avecinan en el horizonte de los próximos cincuenta años modificarán de tal manera nuestras vidas actuales que sólo un cambio de mentalidad global podrá asimilarlas. Lo afirma el
2005 BT Technology Timeline, el ejercicio de prospectiva tecnológica elaborado por expertos de British Telecom, que anticipa las posibles innovaciones tecnológicas en campos tan dispares como la salud, la economía, la demografía, la energía, la robótica, el espacio, las telecomunicaciones y los transportes. Los autores se apresuran a aclarar en toda lógica que los escenarios que dibujan son meras posibilidades, así como las previsibles implicaciones sociales de tales innovaciones.
Para dibujar estos escenarios han consultado a expertos de diversos campos de todo el mundo. Con ellos han perfilado un consenso respecto a qué tecnologías tienen más posibilidades de emerger en los próximos años, en qué momento harán irrupción en la sociedad y qué impacto social puede esperarse de ellas.
El resultado son unas mil tecnologías emergentes clasificadas por especialidades y por el período de tiempo en el que supuestamente estarán disponibles para la sociedad, tal como explica BT en un comunicado.
Existe una versión panorámica del informe, así como otra interactiva, que resultan muy elocuentes. Los autores reconocen que muchas de las tecnologías dibujadas parecen de ciencia ficción, pero recuerdan al respecto la tercera ley del escritor de ciencia ficción Arthur C. Clarke, formulada en 1962: Cualquier tecnología suficientemente avanzada es indistinguible de la magia.
Nanotecnología y biotecnología, cruciales Señalan al respecto que dentro de 60 años veremos cómo la nanotecnología y la biotecnología provocarán impactos en nuestras vidas que hoy consideraremos como mágicos, pero que serán normales para los hijos de nuestros hijos, debido a que nuestra escala temporal actual sólo puede aprehender una pequeña parte de lo que está en camino.
Si comenzamos por descubrir las tecnologías más remotas, lo que nos auguran estos expertos es que en 2051 el Reino Unido tendrá un equipo de fútbol formado íntegramente por robots,
que para ese entonces habrá desaparecido completamente el agujero de la capa de ozono,
que las comunicaciones telepáticas se habrán hecho corrientes entre las personas y que la información contenida en un cerebro humano podrá desde esa fecha ser transferida a un soporte artificial (los cerebros artificiales existirán desde 2040).
El viaje a través del tiempo, los primeros contactos con inteligencias extraterrestres, la circulación de personas a través del ciberespacio, los viajes a una velocidad superior a la de la luz o el colapso de la economía internacional, son escenarios relegados más allá de 2050, sin fecha posible. Son los más especulativos.

Futuro y presente
Lo más probable, sin embargo, es que en 2046 se haya consolidado la energía nuclear de fusión (un aliento para el proyecto ITER),
que en 2041 exista una pequeña ciudad en la Luna,
que en 2036 tengamos el primer ascensor espacial,
que en 2031 los robots sean ya más inteligentes que nosotros,
que en 2026 haya combates de boxeo entre androides,
que en 2021 los yogurts (que incorporarán circuitos electrónicos de ADN en sus bacterias) nos cuenten chistes (ver al respecto lo que dice The Guardian),
que en 2016 los coches sean pilotados automáticamente,
que en 2017 podamos ir de vacaciones a un hotel en órbita,
que en 2011 los robots cuiden nuestros jardines,
o que el año que viene el ordenador procese más rápidamente que una persona.
Todo esto no es sino una caricatura de los escenarios tecnológicos previsibles descritos en el informe BT, que menciona también la posibilidad de
que en 2012 existan azulejos de vídeo en el cuarto de baño para entretener a los niños, o paredes pintadas en el hogar que cambian de aspecto para estimular la energía vital, la felicidad o la calma. No es la primera vez que BT realiza este ejercicio: uno anterior realizado en los años noventa alcanzó un grado de exactitud de entre el 80% y el 90%. En cualquier caso, no debemos olvidar que el objetivo de estos ejercicios no es hacer una quiniela para acertar o no respecto a lo que puede ocurrir.
La finalidad principal de la prospectiva es diseñar escenarios de futuro posibles con la finalidad de que estas perspectivas razonables de evolución nos permitan adoptar las mejores decisiones en el presente. Hay que imaginar qué puede ocurrir en los próximos años para adaptar nuestra mentalidad, nuestra profesión o nuestra actividad empresarial a esas posibles evoluciones. Es la mejor manera de vivir el presente.
Escenarios más destacados
Esquemáticamente, este es el resumen de las evoluciones tecnológicas de los próximos años que nos han parecido más llamativas:

2006-2010: juguetes emotivos, un grupo pop de inteligencia artificial se sitúa entre los 10 primeros del mundo, Internet llega al teatro, un superordenador más rápido que el cerebro humano, teléfonos móviles que transmiten emociones, pantallas flexibles...
2008-2012: mediacamentos suministrados a través de fruta modificada genéticamente, vídeotatuajes, tejidos sensibles que informan de la salud de una persona, clases mediante telepresencia, publicidad holográfica, aparato que traduce una conversaciòn en tiempo real... 2011-2015: coche pilotado automáticamente, regeneración dental gracias a la terapia genética, desaparición del papel moneda, el 60% de la población mundial vive en ciudades, robots-insectos ayudan a la polinización, robots jardineros, control de velocidad automático en las calles, ordenadores que duermen...
2013-2017: maquillaje electrónico que cambia de color, robots que guían a los ciegos por las calles, el 50% de la población mundial accede a Internet, juguetes nanotecnológicos, vídeos holográficos, hoteles en órbita, el genoma individual forma parte del historial médico, reconocimiento internacional de la cybernacionalidad…
2016-2020: se protegen jurídicamente las formas de vida electrónicas, los espectadores se convierten en los actores de las películas que ven, los objetos electrónicos permiten controlar las emociones, los androides representan al 10% de la población mundial, la policía se privatiza, las flores son kaleidoscópicas…
2021-2025: traducción inmediata automática, televisión en 3D, primera olimpiada biónica, almacenamiento bioquímico de la energía solar, primera misión a Marte, yogurt chistoso, tecnología antiruidos en los jardines…
2026-2030: impresoras 3D en los hogares, primer e-bebé emsamblado genéticamente, plena conexión con el cerebro, circuitos hechos con bacterias, combates deportivos de androides, factorías espaciales para el comercio interestelar…
2031-2035: posibilidad de ralentizar el metabolismo humano para permitir los viajes espaciales, ordenadores más inteligentes que las personas, animales domésticos diseñados a medida, juegos que usan la genética real, creación de “The Matrix”...
2036-2040: inauguración del primer ascensor espacial, estaciones de energía solar, escaparates virtuales, primer kil mecano-fractal…
2041-2045: primera ciudad lunar con servicio regular de transbordador, la poblaciòn mundial alcanza los 10.000 millones, la energía de las olas cubre el 50% de la demanda en el Reino Unido…
2046-2050: una pequeña colonia de cientificos se establece en Marte en una ciudad autosuficiente, llega el cerebro artificial, se impone la energía nuclear de fusión, se extraen minerales de los asteroides,
2051 + : los pensamientos, sentimientos y recuerdos se transfieren a un ordenador, desaparece el agujero de la capa de ozono, la expectativa de vida llega a los 100 años, la comunicación telepática se generaliza, se consigue el viaje a través del tiempo, colapso financiero internacional, desplazamientos de personas en el ciberespacio…

Otros escenarios La prospectiva ofrecida por BT no es la única.
Social Technologies ha realizado también un amplio diseño de escenarios que pinta cómo será el mundo en 2025 a partir de quince categorías.
Es una visión más social que tecnológica no exenta de atractivo y rigor. Está realizada por la consultora Coates & Jarratt, Inc. De Jpseph Coates ya publicamos en esta revista (2002) Un programa de Ciencia y Tecnología para el Siglo XXI. En un horizonte aún más amplio podemos consultar los Escenarios 2100 realizados por Thierry Gaudin. Se trata de una obra realizada el siglo pasado pero de gran envergadura: 2100: récit du prochain siècle. Publicada en 1993, esta obra conserva hoy toda su vigencia. Thierry Gaudin, que pertenece al Consejo Editorial de Tendencias21, acaba de publicar ahora un nuevo libro: La Prospective, en el que señala que el tránsito de una civilización industrial a otra cognitiva transforma las profesiones y las actividades sociales.
En su relato del próximo siglo, Thierry Gaudin describe la probable evolución de la sociedad humana hasta el año 2100.
Dos grandes etapas caracterizarán este proceso:
a una etapa de degradación social que ahora estaríamos atravesando, le seguiría un período de reacción social positiva basado en programas de educación masivos, rediseño de las ciudades y la reforestación.
El siglo XXI termina según estos escenarios con el predominio de los valores femeninos, religiosos y de sensibilidad.
La principal riqueza de esta obra radica en su amplitud temática, su carácter interdisciplinar y el hecho de que en su elaboración han participado expertos de todas las culturas.

Mujeres irrumpen en la ciencia y la tecnología....

lunes, diciembre 18, 2006

NOTICIAS VARIAS DE CIENCIA Y TECNICA

-DESCUBREN ANILLOS GIGANTES ALREDEDOR DE CUMULO DE GALAXIAS:

Un equipo de astrónomos ha descubierto unas estructuras gigantes, semejantes a anillos, alrededor de un cúmulo de galaxias. El hallazgo proporciona nueva y atractiva información sobre cómo se congregan las galaxias hasta formar esos cúmulos, también acerca de los campos magnéticos en los inmensos espacios entre los cúmulos de galaxias, y posiblemente sobre el origen de los rayos cósmicos."Estos anillos gigantes, emisores de ondas de radio, probablemente son el resultado de ondas expansivas causadas por las violentas colisiones de grupos más pequeños de galaxias dentro del cúmulo", explica Joydeep Bagchi, del Centro Interuniversitario para la Astronomía y la Astrofísica en Pune, India, que dirigió el equipo de investigacióninternacional.


Los nuevos segmentos de anillos recientemente descubiertos miden unos 6 millones de años-luz de extremo a extremo, y rodean un cúmulo de galaxias llamado Abell 3376, a más de 600 millones de años-luz de laTierra. Fueron descubiertos porque sus electrones en rápido movimiento emiten ondas de radio cuando se mueven en espiral alrededor de las líneas del campo magnético en el espacio intergaláctico.Para observar este extraordinario cúmulo de galaxias, loscientíficos usaron el radiotelescopio VLA. Y también el XMM-Newton de la Agencia Espacial Europea, el observatorio de rayos X más sensibledel mundo. Las observaciones en rayos X hacen pensar en una reciente colisión y fusión de dos o más cúmulos menores.

Un fenómeno de esa naturaleza está entre los eventos más energéticos del universo después del BigBang. Con transferir a los electrones sólo una diminuta fracción de la energía total de esta colisión, eso bastaría para hacerlas emitir las ondas de radio observadas por el VLA. Sin embargo, la pregunta principal es: ¿cómo se logra esto?
Los científicos han calculado que la energía total del choque de losgrupos de galaxias sería suficiente para mantener brillando a nuestro Sol durante muchos años, una cifra de nada menos que un 2 seguido por22 ceros.Los investigadores piensan que las ondas de choque provienen de la colisión de un grupo más pequeño de galaxias con el cuerpo principal del cúmulo más grande.

Cuando dos objetos tan masivos chocan entre sí a velocidad supersónica, se crean gigantescas ondas de choque en el gas circundante, que viajan hacia las regiones exteriores del cúmulo a una velocidad de miles de kilómetros por segundo.El mecanismo exacto para producir las ondas de choque todavía esta abierto a discusión. Ésta es la primera evidencia observada para este tipo de onda de choque alrededor de un cúmulo masivo de galaxias. El descubrimiento será útil para comprender mejor el gas enrarecido entre las galaxias, y también para conocer más sobre los campos magnéticos en el exterior de tales cúmulos, campos magnéticos cuyo origen todavía se desconoce.

Además, los científicos especulan con que regiones violentas como la del Abell 3376, pueden ser lugares en los que se originan los rayos cósmicos. Estos rayos están formados por protones o núcleos atómicos acelerados casi a la velocidad de la luz. Exactamente de dónde vienen estos rayos cósmicos y qué procesos les suministran tan enormes energías, constituye un fascinante problema no resuelto todavía por la física.Una fuente de aceleración cósmica que contenga poderosas ondas de choque y campos magnéticos que se extiendan por millones de años-de luz, es capaz de acelerar un protón o núcleo a tan elevadas energías.
Información adicional en:http://www.amazings.com/ciencia/noticias/151206a.html

-MATERIALES SEMICONDUCTORES DENTRO DE FIBRAS OPTICAS:

Un ingenioso desarrollo técnico combinando dos clases de tecnología más estrechamente de lo que hasta ahora estaban, puede cambiar para mejor diversos ámbitos de las telecomunicaciones en un futuro cercano. A Internet se la denomina a menudo como la super autopista de la información. Pero según lo ve John Badding, profesor de química de la Universidad Estatal de Pensilvania, la super autopista real es la fibra óptica que conecta a ordenadores de muchas zonas del mundo a la velocidad de luz. "La luz puede viajar alrededor de la Tierra siete veces por segundo", subraya.


"Y las fibras pueden encauzar cantidades torrenciales de información. Esto es lo que hace posible a la Internet que conocemos. Si no fuera por las fibras ópticas, nuestras vidas cotidianas serían muy diferentes". Las fibras ópticas típicas están hechas de vidrio flexiblesumamente puro. Hasta un millar de fibras son agrupadas en un haz y envueltas con un revestimiento protector. Pero la fibra óptica es sólo un cauce por el que discurre la luz. Para cualquier cosa que se desee hacer con la información transportada por las ondas de luz, los fotones tienen que ser convertidos en electrones y enrutados a través de caros dispositivos semiconductores para conmutación y supervisión.

Éste es un problema que ha lastrado durante años a la industria de las telecomunicaciones. Badding y sus colegas, junto con Pier Sazio (del Centro deInvestigaciones Optoelectrónicas de la Universidad de Southampton enel Reino Unido), parecen haber esquivado el problema de la conversiónOEO (óptico-eléctrico-óptico), recurriendo a una solución OOO (en la que todo se realiza de manera óptica). Su logro se basa en un proceso para alojar los materiales semiconductores dentro de la fibra óptica, lo que básicamente se consigue insertando el hardware de conmutación y modulación dentro del tubo de cristal flexible de un espesor aproximado parecido al del hilo de una caña de pescar. Este proceso abre un nuevo abanico de aplicaciones para estas fibras. Especialmente importante es la posibilidad de combinar funciones ópticas y electrónicas dentro de los mismos dispositivos de fibra. El proceso puede revolucionar las telecomunicaciones y llevar algún día a la computación óptica, un sueño de muchos ingenieros por su velocidad fenomenal y por la posibilidad de conectar ordenadores directamente a fibras ópticas sin el procesamiento electrónico actual de las señales.En esa meta final que es la computación óptica, en lugar de usar los electrones para procesar la información, se utilizarían los fotones. Eso todavía está lejano en el tiempo, pero resulta previsible que se acabará llegando a un nivel de progreso tecnológico en el que la electrónica será reemplazada por la óptica.
Información adicional en:http://www.amazings.com/ciencia/noticias/151206b.html

-RASGO GEOLOGICO CLAVE PARA ENCONTRAR Y PROTEGER TUMBAS EGIPCIAS:

Un método desarrollado hace 42 años para localizar agua, monitorizar la contaminación y ayudar en la excavación de túneles, puede servir también para encontrar y proteger tumbas en el Valle de los Reyes, el Valle de las Reinas y otras antiguas necrópolis en Egipto.Ésta es la conclusión a la que han llegado unos investigadores de laUniversidad Estatal de Pensilvania.La idea de que ciertas trazas de fracturas podrían tener alguna relación con las tumbas talladas en la roca ubicadas en los valles egipcios, se le ocurrió a Katarin A. Parizek durante un viaje aEgipto. K. Parizek, fotógrafa, diseñadora gráfica y geóloga (y también hija de Richard R. Parizek, profesor de geología en la Universidad Estatal de Pensilvania) reconoció las estructuras geológicas en 1992, en un crucero por el Nilo al Valle de los Reyes."Muchas de las tumbas están en zonas de concentración de fracturas, reveladas por las trazas y alineaciones de las fracturas", explica Katarin.


"Sabía que estas fracturas eran las que usaba mi padre para encontrar agua o al planear proyectos de drenaje".Las trazas de fracturas son indicadores en la superficie de concentración de fracturas en la roca subyacente. En 1964, Laurence H.Lattman y R. Parizek publicaron un trabajo acerca de las trazas de fracturas, sugiriendo que indican dónde hay un incremento del intemperismo y la permeabilidad, y dónde la gente podría perforar pozos con mayor eficacia.

Estas trazas de fracturas pueden tener entre 1,5 y 12 metros de ancho, 6 metros en promedio, y hasta un kilómetro y medio de largo. Un estudio inicial en Egipto mostró que algunos pasajes y cámaras de tumbas estaban alineados con estas zonas de fracturas. Ello sugiere que los constructores sabían que estos sitios tenían roca menos resistente y más fácil de excavar. Un mapeo más exhaustivo del terreno confirmó la idea de que los constructores sabían lo que hacían. Colocaron las entradas a las tumbas, construidas entre los años 1500 y 1000 aC, en el fondo de los valles o de ciertos precipicios donde las piedras que caían podrían cubrir la tumba, ocultándola.

Aunque el descubrimiento de nuevas tumbas es muy gratificante, quizá es más importante preservarlas.No llueve a menudo en el desierto, pero cuando eso sucede, el agua corre colina abajo sobre la tierra y llega a los valles. Pavimentar las áreas para estacionamiento de vehículos, las carreteras y los caminos, con el fin de facilitar las visitas turísticas a las tumbas, incrementa las inundaciones. Pese a la construcción de barreras en las entradas de las tumbas, el agua penetra a menudo por los túneles, causando daños irremediables en los complejos mortuorios.

Las entradas abiertas, sin embrago, no son la única forma en que el agua entra en las tumbas. El agua acaba encontrando las concentraciones de fracturas debajo de las trazas de fractura y se filtra a través de ellas. De este modo, el agua puede incluso arruinar tumbas que todavía no han sido exploradas ni tan siquiera descubiertas."Si podemos mapear las trazas de fractura y las zonas de fractura asociadas, en la superficie y bajo ella, entonces podemos tratar de desviar el agua de modo que no sólo no llegue a las entradas, sino que también evite las zonas permeables de las trazas", explica R. Parizek.
nformación adicional en:http://www.amazings.com/ciencia/noticias/151206c.html

-HALLAN FOSIL DE LAMPREA DE 360 MILLONES DE AÑOS MUY BIEN CONSERVADO:

Se ha descubierto una lamprea fosilizada notablemente bien conservada, del periodo Devónico. Con este fósil se constata que las lampreas de hoy en día merecen sin ninguna duda el título de "fósiles vivientes", ya que han permanecido en gran parte inalteradas durante 360 millones de años. El hallazgo ha sido efectuado por científicos de la Universidad de Witwatersrand en Johannesburgo, Sudáfrica, y de la Universidad de Chicago.Las lampreas son parásitos largos, parecidos a anguilas, que se adhieren a otros peces y se alimentan de ellos. De las 46.000 especies conocidas de vertebrados, sólo dos (la lamprea y otro) son los únicos vertebrados supervivientes sin mandíbulas.

Las lampreas son los más"primitivos" de los vertebrados, significando ello que estas criaturas son las que menos modificaciones han experimentado desde los primeros vertebrados. Este fósil revela que la evolución anatómica de las lampreas es más conservadora de lo que los científicos pensaban. Aunque se han vuelto ligeramente más largas, se especializaron temprana y eficazmente, por lo que no han registrado apenas cambios durante los últimos 360 millones de años. El fósil mide menos de 5 centímetros de largo y revela un juego de 14 dientes rodeando la boca, que es proporcionalmente más grande que en sus descendientes actuales. Ésta es la primera evidencia clara de una lamprea paleozoica con un disco oral. Este hallazgo constituye una contribución decisiva a lo que hasta ahora era un registro fósil de lampreas severamente limitado.

Y sitúa el origen de la morfología de la lamprea moderna en el seno del periodo Paleozoico. También agrega nuevos detalles esenciales al emergente y cambiante cuadro de la evolución vertebrada temprana. El fósil sudafricano muestra que estos peces anatómicamente especializados son reliquias de los ecosistemas marinos antiguos. Supervivientes excepcionales, estos animales ya existían antes del surgimiento de los peces modernos. Han sobrevivido a por lo menos cuatro grandes extinciones. El que haya hoy a nuestro alrededor tan pocos representantes de estas ramas tempranas de la evolución vertebrada, es la razón de que se haya prestado tanta atención científica a la lamprea. Ella les da a los científicos un punto de calibración.

Se estudia a las lampreas porque, en muchos aspectos, son muy primitivas. Ellas nunca tuvieron mandíbulas, nunca tuvieron verdaderos dientes, nunca tuvieron aletas, y nunca tuvieron miembros. Las lampreas nos permiten vislumbrar condiciones arcaicas en la historia evolutiva vertebrada. Debido a que las lampreas no tienen huesos o cartílagos sustanciales, son sumamente raras como fósiles. Este fósil no sólo revela una impresión del tejido blando casi completa, sino que también extiende hacia atrás su registro fósil otros 35 millones de años.
Información adicional en:http://www.amazings.com/ciencia/noticias/081206a.html

-DETERMINADO EL ORIGEN Y DISPERSION DE LAS ABEJAS MELIFERAS:

La abeja melífera, una especie que contribuye en miles de millones de dólares a la economía agrícola mundial cada año a través de lapolinización, se originó en África, y está evolucionando de manera sorprendente hoy en América, según revela una nueva investigación. Los hallazgos podrían tener implicaciones importantes para la cría de la abeja melífera y el papel crucial que estas criaturas desempeñan.Según Neil Tsutsui, profesor de ecología y biología evolutiva de laUniversidad de California en Irvine, el análisis mundial de la abeja melífera, o Apis mellifera, ha aportado nueva información sobre sus orígenes, así como sobre su propagación por Europa, Asia, yAmérica. Por ejemplo, los investigadores han encontrado que las abejas no surgieron en Asia, como previamente se había considerado, sino que salieron de África. Las abejas se expandieron dos veces en Europa yAsia, creando dos linajes genéticos distintos. Uno de estos linajes incluye a la abeja italiana, una subespecie utilizada extensivamente para la polinización agrícola.


Esta subespecie europea se está cruzando ahora con abejas africanizadas en todo el continente americano. Ello provoca cambios genéticos que son sorprendentes e inesperados. La investigación estuvo basada en marcadores genéticos identificados en la secuenciación del genoma completo de la abeja melífera.Entre los hallazgos de los investigadores figura el descubrimiento de que la introducción de abejas africanas ("asesinas") en América delSur, en los años cincuenta, afectó de maneras insólitas al genoma de las abejas melíferas preexistentes. Los genes que se originaron de algunas subespecies parecían ser reemplazados por genes de las africanas, mientras que los genes derivados de otras subespecies eran más resistentes a este reemplazo. Según Tsutsui, este hallazgo es importante porque la propagación hacia el norte de las abejas africanas desde América del Sur, en años recientes ha tenido algunas consecuencias negativas; no sólo son más peligrosas estas abejas para los humanos debido a su propensión apicar en grandes enjambres, sino que también son difíciles de criar comercialmente para la polinización y la producción de miel y otros productos.

Puede usarse la información obtenida en este estudio para compararlos marcadores entre las abejas africanizadas y no africanizadas, loque permitiría la identificación de los genes que otorgan a estasabejas "asesinas" sus características agresivas. Una vez identificadosesos genes, sería posible emprender estrategias para eliminar dichascaracterísticas en las abejas más peligrosas.Tsutsui colaboró durante el estudio con colegas de variasuniversidades, incluyendo la Universidad de Illinois.
Información adicional en:http://www.amazings.com/ciencia/noticias/081206b.html

-RECUPERANDO POMPEYA:

Los artistas de la antigua Pompeya la pintaron de rojo hace 2.000 años con un pigmento carmesí brillante que dominaba la mayoría de los muros de la ciudad condenada. Ahora, científicos de Francia e Italia han averiguado por qué esa bella tonalidad roja está sufriendo un misterioso oscurecimiento.Gracias a la luz del sincrotrón de la ESRF (European SynchrotronRadiation Facility) en Grenoble, Francia, se ha obtenido ese mejor conocimiento del proceso de degradación y de qué lo provoca. El 24 de agosto del año 79 de nuestra era, el volcán Vesuvio hizo erupción, enterrando a las localidades vecinas en ceniza y piedra pómez. La Villa Sora, en Torre del Greco, había permanecido oculta desde entonces, hasta hace 20 años, cuando trabajos de excavación la trajeron nuevamente a la luz.


En los restos de la casa, el rojo distintivo de los frescos de las paredes se ha ennegrecido en muchos lugares desde la excavación, en un proceso de rápida degradación que no está científicamente bien entendido. Los científicos llevan muchos años preguntándose por qué el rojo de las paredes de Pompeya, hecho con cinabrio, se vuelve negro. Ya en el siglo 1 aC, Vitruvio, en su tratado de arquitectura, menciona el problema. Hasta ahora, las causas y mecanismos responsables de la decoloración del cinabrio han sido un misterio. Por ello, los conservadores museísticos no han sido capaces de adoptar medidas eficaces de prevención. Recientemente, un equipo franco-italiano de investigadores estudió 4 muestras de pintura mural de Villa Sora empleando la luz de sincrotrón de la ESRF para verificar si su hipótesis era correcta. El equipo encontró que en las muestras habían ocurrido reacciones químicas importantes. Por un lado, el cinabrio reaccionó con cloro, lo que condujo a la formación de compuestos de cloro-mercurio de color gris. Por otro lado, la sulfatación de la calcita provocó la formación de una capa negra sobre la superficie de la pintura. Los científicos profundizaron en la cuestión, investigando la sección transversal de una de las muestras para mapear la profundidadde la alteración de la pintura.

Averiguaron que esta capa sólo tiene unos 5 micrones de grosor y que bajo ella el cinabrio sigue intacto. De modo que, ¿cuál es la causa de que el rojo se vuelva negro tandeprisa?
"La distribución química de las muestras no es estable, lo que significa que las condiciones atmosféricas probablemente desempeñan un papel relevante en este cambio de colores", explicaMarine Cotte, una investigadora del equipo. "Seguro que el Sol influye en este proceso, pero la lluvia posiblemente lo haga también". La contaminación atmosférica o la acción de bacterias pueden asi mismo contribuir a los mecanismos de sulfatación. Esta investigación aún está lejos de ser concluida. El siguiente paso es examinar más muestras, y no sólo de frescos en el yacimiento arqueológico sino también de piezas guardadas en museos. De este modo, los investigadores podrán comparar los resultados y establecercon más seguridad las causas exactas de la degradación.
Información adicional en:http://www.amazings.com/ciencia/noticias/081206c.html

-EXTRAÑAS BACTERIAS DESCUBIERTAS A TRES KILOMETROS DE PROFUNDIDAD:

Un equipo internacional de científicos ha descubierto una comunidad bacteriana, autosuficiente, que vive aislada y bajo condiciones extremas, a unos 3 kilómetros de profundidad, en Sudáfrica. Ésta esla primera comunidad microbiana que se demuestra que es exclusivamente dependiente del azufre y el hidrógeno producidos geológicamente, y uno de los pocos ecosistemas de la Tierra que no depende en forma alguna de la energía del Sol. El descubrimiento refuerza la posibilidad de que bacterias similares puedan vivir bajo la superficie de otros mundos, como Marte, o Europa(una luna de Júpiter).


"Estas bacterias son verdaderamente únicas en el más puro sentido de la palabra", subraya Li-Hung Lin, ahora en la Universidad Nacional deTaiwán, quien realizó muchos de los análisis durante la preparación de su doctorado en la Universidad de Princeton, y, después de doctorarse, en el Laboratorio Geofísico del Instituto Carnegie. Los investigadores han conseguido determinar cuán aisladas han estado las bacterias porque los análisis muestran que el agua en que viven es muy antigua y no ha sido diluida por el agua de la superficie. Además, han comprobado que los hidrocarburos en el entorno local no proceden de organismos vivos, como es usual, y que la fuente del hidrógeno (H2) necesario para su respiración viene de la descomposición del agua por la desintegración radiactiva del uranio, el torio y el potasio.

Los humanos y otros organismos que viven en tierra, en última instancia reciben su energía del Sol, con las plantas fotosintéticas formando la base de la red alimenticia. En los lugares oscuros donde no llega la luz solar, la vida depende de otras fuentes de energía. Pero la independencia alimentaria es más difícil. Diferentes comunidadesde organismos quimio autótrofos se han encontrado en lugares exóticos como acuíferos subterráneos, pozos petrolíferos y las chimeneas de volcanes submarinos a gran profundidad. Sin embargo, al final muchas de estas comunidades todavía dependen, al menos en parte, de nutrientes que les llegan de la superficie, y cuyo ciclo de producción comienza con la fotosíntesis vegetal o bacteriana. Pese a todo, ciertas comunidades sí viven "desconectadas" del resto del ecosistema planetario.

Usando técnicas genéticas de análisis, el equipo descubrió que hay una diversidad de especies muy pequeña en la asombrosa comunidad subterránea. Está dominada por una clase de bacterias relacionadas con las Desulfotomaculum que se sabe obtienen su energía de la reducción de los compuestos de azufre. Los investigadores también creen que el sulfato usado por estas criaturas es un remanente que procede de aguas subterráneas antiguas mezcladas con fluidos hidrotérmicos también antiguos. Es posible que comunidades como éstas puedan sostenerse indefinidamente, si logran de los procesos geológicos un suficiente abastecimiento de materias primas. El tiempo dirá cuántas más comunidades como ésta podrán encontrarlos científicos en la corteza terrestre, y si existen otras por el estilo en el subsuelo de algunos astros del sistema solar.
Información adicional en:http://www.amazings.com/ciencia/noticias/011206a.html

-NUEVA EVIDENCIA DE DOMESTICACION TEMPRANA DEL CABALLO:

Un análisis cuidadoso de los compuestos químicos presentes en suelos de un yacimiento arqueológico de la Edad del Cobre en el norte deKazajstán, ha permitido obtener nuevas evidencias de caballos domesticados hace 5.600 años. El descubrimiento, hecho gracias a una presencia mayor de lo normal de fósforo en los suelos analizados dentro de lo que parecen ser vestigios de corrales para caballos, al lado de antiguas chozas(reconocibles como tales por la parte de las mismas que se excavaba en tierra), corresponde a lo que se esperaría de la tierra enriquecida por estiércol de caballo. El yacimiento arqueológico de Krasnyi Yarestaba habitado por personas de la cultura Botai de la Estepa Eurasiática, que dependían mucho de los caballos para transporte, alimentación, y enseres. Hay poca evidencia directa de domesticación del caballo en fechas tan remotas. Ello se debe a que hace 5.600 años no había ninguna silla de montar, ni piezas de metal, cuyos restos pudieran ahora ser encontrados. Previsiblemente, elementos tales como bridas, correas, y maniotas (trabas) fueron confeccionados con tiras de piel de caballo, y deben haberse descompuesto hace mucho tiempo. Por otra parte, los caballos físicamente han cambiado poco como resultado de la domesticación, al contrario que los perros o el ganado. Así que los huesos antiguos de caballo no revelan con facilidad los secretos de la domesticación.


El equipo de Sandra Olsen, una arqueóloga e investigadora de la domesticación del caballo en el Museo Carnegie de Historia Natural en Pittsburgh, tomó un rumbo diferente de investigación. Ella y sus colegas buscaron evidencias circunstanciales de que los pobladores de ese antiguo asentamiento alojaban y mantenían caballos. Una de sus estrategias de estudio fue inspeccionar los suelos de Krasnyi Yar con instrumentos para detectar sutiles irregularidades eléctricas y magnéticas. Gracias a esto, pudieron identificar la antigua ubicaciónde 54 chozas, y docenas de conjuntos de restos de lo que un día fueron postes clavados verticalmente en el terreno.

Algunos de estos conjuntos de restos de "raíces" de postes estaban colocados circularmente, como sería lo más práctico para un corral. Luego, el geólogo Michael Rosenmeier de la Universidad de Pittsburghre colectó muestras de tierra de dentro del área cercada y de fuera del asentamiento humano en las cercanías del lugar. Las muestras se analizaron para medir concentraciones de nitrógeno, fósforo, potasio y sodio. Los análisis fueron efectuados por Rosemary Capo, geoquímica de la Universidad de Pittsburgh, y sus colaboradores. El estiércol del caballo moderno es rico en fósforo, potasio, y sobre todo en nitrógeno, comparado con las tierras no perturbadas por la concentración de animales. El nitrógeno, no obstante, debido a su notable movilidad en las tierras, puede perderse en aguas subterráneas, o ser transferido a la atmósfera por procesos orgánicos e inorgánicos. El fósforo, en cambio, puede fijarse en el lugar gracias al calcio y al hierro, y es más probable que sea conservado en las tierras durante milenios. Significativamente, la tierra dentro del supuesto corral ha resultado tener hasta diez veces la concentración de fósforo de las tierras de fuera del asentamiento. Grandes cantidades de fósforo pueden también indicar un emplazamiento fijo de hogueras domésticas para cocinar y calentarse, pero ese fósforo normalmente está acompañado por mucho potasio, y ese no es el caso en el corral de Krasnyi Yar. Las tierras del corral también tienen bajas concentraciones de nitrógeno, reduciendo la probabilidad de que el fósforo proviniera de estiércol más reciente.
Información adicional en:http://www.amazings.com/ciencia/noticias/011206b.html

-SE ESPERA UN MUNDO MAS CALUROSO Y HUMEDO ESTE SIGLO:

Recientes episodios de calor letal en América y Europa, largos períodos de sequía por el oeste de Estados Unidos, así como intensos diluvios y copiosas nevadas sobre gran parte de América del Norte y Eurasia, son síntomas de que se avecinan cambios a largo plazo, según un nuevo estudio basado en algunos de los modelos del clima más avanzados del mundo. Gran parte de la Tierra afrontará un riesgo mayor de olas de calor, precipitaciones intensas, y otros eventos climáticos extremos. Este nuevo estudio ha sido realizado por científicos del CentroNacional para la Investigación Atmosférica (NCAR, de sus siglas eninglés), la Universidad Tecnológica de Texas, y el Centro deInvestigación de la Agencia Australiana de Meteorología.


Muchos estudios anteriores han examinado de qué modo los promedios de temperatura o lluvia podrían cambiar en los próximos cien años cuando los gases de efecto invernadero aumenten. En cambio, esta nueva investigación mira más hacia los posibles cambios en los eventos meteorológicos extremos."Son los eventos extremos, no los promedios, los que causan el mayor daño a la sociedad y a muchos ecosistemas", señala Claudia Tebaldi, autora principal de la investigación, y experta del NCAR. "Ahora hemos alcanzado el primer consenso basado en modelos, acerca de cómo cambiará en los próximos cien años el riesgo de olas de calor,intensas lluvias, y otros tipos de eventos climáticos extremos".

Tebaldi y sus colegas basaron su trabajo en simulaciones de nueve modelos diferentes del clima para los periodos 1980-1999, y 2080-2099.Las simulaciones se crearon en supercomputadoras en centros de investigación en Francia, Japón, Rusia y Estados Unidos. Cada modelo simuló el intervalo 2080-2099 tres veces, con distinto grado de acumulación atmosférica de los gases con efecto invernadero. Estos tres escenarios fueron usados debido a la incertidumbre que existe sobre cuán rápido la sociedad puede actuar para reducir las emisiones de dióxido del carbono y otros gases de efecto invernadero durante las próximas décadas.El número de noches sumamente calurosas y la duración de las olas de calor aumentarán de modo significativo en casi todas las áreas de tierra firme en el globo. La mayoría de las áreas por encima de los 40 grados norte verán un salto significativo en el número de días con gran precipitación. Los períodos de pluviosidad por debajo de la normal podrían prolongarse significativamente en el oeste de Estados Unidos, el sur de Europa, Brasil oriental, y algunas otras áreas. Esos períodos de escasez de lluvia son uno de los factores productores e intensificadores de las sequías. El promedio anual de días con temperaturas cálidas o templadas podría aumentar significativamente en la mayor parte de América delNorte y Eurasia. Muchas de estas tendencias resultan más débiles en el escenario de bajas emisiones que en los escenarios de emisiones moderadas y altas. Ello muestra con claridad que reducir la liberación de gases de efecto invernadero en la atmósfera debe disminuir el riesgo de que se desencadenen los cambios meteorológicos más severos.
Información adicional en:http://www.amazings.com/ciencia/noticias/011206c.html

sábado, noviembre 11, 2006

LA TECNOLOGIA AL SERVICIO DEL SER HUMANO...





LA CIENCIA Y LA TECNICA AL DIA.....

Astronomía
El Mayor Mapa de Galaxias En 3D

Un equipo de astrónomos estadounidenses, australianos y británicos, ha elaborado los mapas más precisos del cosmos local, a partir del mayor estudio tridimensional de las galaxias realizado hasta la fecha.Sus detallados mapas muestran nuestro vecindario cósmico hasta una distancia de 600 millones de años luz, identificando los principales supercúmulos de galaxias y espacios vacíos.
También proporcionan datos importantes con respecto a la distribución de las misteriosas "materia oscura" y "energía oscura", que se estima constituyen el 96 por ciento de la masa aparente del Universo.Dentro de este inmenso volumen, el supercúmulo más masivo de galaxias está a 400 millones de años-luz. Su nombre deriva de su descubridor, el astrónomo estadounidense Harlow Shapley.
El supercúmulo de Shapley es tan grande que a la luz le lleva por lo menos 20 millones de años luz recorrerlo de un extremo a otro. Sin embargo, éste no es el único supercúmulo masivo en nuestra vecindad.El supercúmulo conocido como El Gran Atractor, que está tres veces más cerca que el de Shapley, ostenta un papel fundamental en el movimiento de nuestra galaxia.

Según el equipo, la Vía Láctea, su galaxia hermana Andrómeda y otras galaxias de la vecindad, se están moviendo hacia el Gran Atractor a una velocidad asombrosa, en torno al millón y medio de kilómetros por hora. Los investigadores también establecieron que el Gran Atractor es un supercúmulo aislado y no forma parte del de Shapley.
Los nuevos mapas están basados en la observación de un efecto producido con la expansión paulatina del universo. Este efecto es el cambio sufrido por los colores de las galaxias cuando la longitud de onda de la luz que emiten se "ensancha" o se "corre hacia el rojo". Midiendo la magnitud de esta desviación hacia el rojo, los astrónomos pueden calcular aproximadamente las distancias que nos separan de las galaxias.El nuevo macroescrutinio, conocido como "2MRS", ha combinado colores y posiciones bidimensionales reunidos por el estudio "2MASS" con el corrimiento hacia el rojo de 25.000 galaxias de la mayor parte del firmamento visible.
Estos desplazamientos hacia el rojo fueron medidos específicamente para el 2MRS o bien se obtuvieron de un estudio aún más profundo de la bóveda celeste austral, el estudio "6dFGS".La gran ventaja del 2MASS es que registra la luz en el infrarrojo cercano (la porción del espectro infrarrojo más cercana a la luz visible). Esta franja del infrarrojo cercano es una de las pocas clases de radiación que pueden atravesar los gases y el polvo, y que pueden detectarse sobre la superficie de la Tierra.
Aunque el sondeo del 2MRS es de menor profundidad que los de otros estudios recientes, cubre todo el cielo."Para entender los movimientos a gran escala en nuestro universo, necesitamos cartografiar la distribución de la materia oscura, más que la de la materia luminosa", explica la Dra. Pirin Erdogdu (de la Universidad de Nottingham y autora principal del estudio). "Afortunadamente, a gran escala, la materia oscura está distribuida casi de la misma forma que la materia luminosa, por lo que podemos usar una para ayudar a desentrañar la otra".

Medicina
Una Molécula Provoca la Autodestrucción de Células Cancerígenas20 de Octubre de 2006.

Un equipo de científicos ha dado con un modo de inducir al suicidio a las células cancerosas. La nueva técnica ofrece un método potencial para aplicar terapia anticáncer personalizada y eficaz.La mayoría de células vivas contienen una proteína llamada procaspasa-3, que al activarse, se transforma en la enzima ejecutora caspasa-3 e inicia la muerte celular programada, o apoptosis.
En las células cancerígenas, sin embargo, esta vía de la procaspasa-3 está bloqueada. Como consecuencia, las células no mueren y se convierten en tumores."Hemos identificado un pequeño compuesto sintético que activa directamente a la procaspasa-3 e induce a la apoptosis", explica Paul J. Hergenrother, profesor de química en la Universidad de Illinois en Urbana-Champaign. "Saltándonos esta vía bloqueada, podemos hacer que las células se autodestruyan".Para encontrar el producto, que se denomina compuesto activador de procaspasa 1 (PAC-1), Hergenrother, con colegas de la Universidad de Illinois, la Universidad Nacional de Seúl, y el Centro Nacional para la Investigación Toxicológica, examinó más de 20.000 compuestos estructuralmente diferentes, con capacidad para transformar la procaspasa-3 en caspasa-3.
Los investigadores probaron la eficacia del compuesto en cultivos celulares y en tres modelos de cáncer en ratones. La prueba fue realizada en cooperación con William Helferich, profesor de Nutrición Humana en la Universidad de Illinois, y Myung-Haing Cho de la Universidad Nacional de Seúl. Los investigadores también mostraron que el PAC-1 mató células cancerígenas en 23 tumores obtenidos de un hospital local.
La muerte celular estaba correlacionada con el nivel de procaspasa-3 presente en las células: a mayor nivel de procaspasa-3 se producía la muerte celular con menores concentraciones de PAC-1."Éste es el primero de lo que podría ser una constelación de compuestos orgánicos con capacidad para activar directamente enzimas ejecutoras", explica Hergenrother. "La efectividad potencial de compuestos como el PAC-1 podría preverse por adelantado, y los pacientes ser seleccionados para el tratamiento con arreglo a la cantidad de procaspasa-3 encontrada en sus células tumorales".Tales terapias personalizadas son preferibles a las terapias generales basadas en citotoxinas, y podrían ser el futuro de la terapia anticáncer.

Ingeniería
Turbinas Eólicas Gigantes Que Flotan en Mar Abierto

Un científico ha presentado un concepto de producción energética que podría ser realidad en un futuro no muy lejano. Cuatrocientas grandes turbinas de viento sobre el mar, que proporcionen a los clientes del litoral suficiente electricidad para alimentar a varios cientos de miles de hogares, y que nadie en la costa pueda verlas.
¿Cómo lograrlo? Esos aerogeneradores estarían flotando en plataformas a cien kilómetros de la orilla, en mar abierto, donde los vientos son fuertes y sostenidos.Hoy en día las turbinas de viento costeras suelen estar sobre torres encajadas profundamente en el suelo marino. Pero esa disposición sólo funciona con profundidades del agua de aproximadamente 15 metros o menos. Por consiguiente, esas instalaciones suelen estar ubicadas bastante cerca de la costa y despiertan una fuerte oposición pública.Paul D. Sclavounos, profesor de ingeniería mecánica y arquitectura naval en el Instituto Tecnológico de Massachusetts (MIT), ha empleado décadas diseñando y analizando las grandes estructuras flotantes del ámbito petrolero y gasístico en mares profundos.
Observando las controversias sobre los parques eólicos, pensó:
"¿Por qué no podemos simplemente tomar esos molinos de viento, ponerlos sobre flotadores y desplazarlos más lejos de la costa, donde hay mucho espacio y viento?".
De ahí surgió el concepto presente.Él y sus colegas del MIT se unieron con expertos en turbinas de viento del Laboratorio Nacional de Energía Renovable (NREL) para integrar una turbina de viento con un flotador.Según sus análisis, las turbinas, montadas en flotadores, podrían trabajar en profundidades de agua que van de 30 a 200 metros. En el Nordeste de Estados Unidos, por ejemplo, podrían ubicarse a entre 50 y 150 kilómetros de la orilla. Y la turbina sobre cada plataforma podría ser grande, una ventaja económica en el negocio de los parques eólicos.

El diseño del MIT-NREL asume una turbina experimental de 5,0 MW (megavatios), actualmente en desarrollo por la industria. Como referencia, citar que una potencia típica en las unidades terrestres suele ser 1,5 MW, mientras que las unidades costeras convencionales acostumbran a tener 3,6 MW.La torre eólica tiene 90 metros de altura, y los rotores alrededor de 140 metros de diámetro.Las amarras permitirán a las plataformas flotantes moverse de lado a lado, pero limitando su movimiento vertical. Se trata, por tanto, de una configuración muy estable.
Según las simulaciones por ordenador, en condiciones de huracán las plataformas flotantes, cada una de aproximadamente 30 metros de diámetro, oscilarían de uno a dos metros, y la parte inferior de las palas de la turbina permanecería bien por encima de las crestas de las olas, incluso de las más altas.Construir e instalar este sistema de apoyo flotante supondría un tercio del costo del tipo de torre de sustentación planeado actualmente para las instalaciones en aguas profundas.
Debido a los fuertes vientos marítimos, las turbinas flotantes deberían producir anualmente el doble de electricidad (por megavatio instalado) comparadas con las turbinas eólicas actualmente en funcionamiento. Y como estos aerogeneradores no se fijan de modo permanente al fondo del océano, son un recurso móvil. Si una compañía con 400 turbinas de viento que sirven un área, necesita más energía en otra, puede desenganchar algunas de las turbinas flotantes y remolcarlas a la nueva ubicación.


Astronomía
Los Planetas de Tipo Terrestre Pueden Ser Más Comunes de lo Que Se Creía

Según un nuevo estudio, más de un tercio de los sistemas planetarios gigantes recientemente descubiertos fuera del sistema solar pueden contener planetas de tipo terrestre, algunos provistos de extensos océanos profundos con el potencial para el surgimiento de la vida.El estudio, llevado a cabo por científicos de la NASA, la Universidad de Colorado en Boulder y la Universidad Estatal de Pensilvania, se concentra en un tipo de sistema planetario distinto al nuestro.
Un sistema de dicha clase contiene gigantes gaseosos conocidos como "Júpiteres Calientes" orbitando muy cerca de su estrella madre, incluso a mayor proximidad que la de Mercurio a nuestro Sol. Se cree que dichos gigantes gaseosos migraron hacia las franjas orbitales más internas alrededor de sus estrellas progenitoras mientras los sistemas planetarios se estaban formando, perturbando el entorno espacial y disparando la formación de planetas del tipo terrestre cubiertos de océanos, en una "zona habitable", propiciándose así la aparición de vida.El estudio ha sido conducido por Sean Raymond (investigador de la Universidad de Colorado en Boulder), Avi Mandell (NASA) y Steinn Sigurdsson (Universidad Estatal de Pensilvania).

El trabajo indica que los Júpiteres Calientes empujan y arrastran material de discos protoplanetarios durante sus trayectos, enviando escombros rocosos hacia fuera, donde pueden fusionarse con mayor probabilidad en forma de planetas del tipo terrestre. Al mismo tiempo, fuerzas turbulentas del denso gas circundante disminuyen la velocidad orbital de pequeños cuerpos helados de las regiones más externas del disco, haciendo que giren en espiral hacia la zona interior y que envíen agua a los planetas recién formados.
Según el estudio, dichos planetas pueden acabar albergando océanos de varios kilómetros de profundidad.Los científicos habían asumido previamente que como los Júpiteres Calientes barren el material protoplanetario en sus migraciones hacia sus estrellas madre, todo el que los rodea podría ser absorbido o bien lanzado fuera del sistema.
Los nuevos modelos indican que estas primeras ideas pueden estar equivocadas.El equipo de investigación ejecutó simulaciones exhaustivas, durando cada una más de ocho meses, con una docena larga de ordenadores, comenzando con discos protoplanetarios que contienen más de mil cuerpos de roca y hielo del tamaño de la Luna.
Las condiciones iniciales para cada modelo se basaron en teorías actuales de cómo se forman los planetas en nuestro sistema solar, y se simularon 200 millones de años de evolución planetaria.El equipo ha llegado a la conclusión de que cerca de uno de cada tres sistemas planetarios conocidos pudo haber evolucionado con planetas de tipo terrestre (aún sin detectar) en las llamadas "zonas habitables", como la franja orbital en la que está la Tierra.
Nada menos que un 40 por ciento de los aproximadamente 200 planetas conocidos alrededor de otras estrellas son Júpiteres Calientes.Las nuevas simulaciones muestran que planetas del tipo terrestre en zonas habitables se formaron con ingentes cantidades de agua, hasta 100 veces la presente hoy día en la Tierra.Raymond está seguro de que hay planetas habitables en otros sistemas solares. Matiza, sin embargo, que si existiera vida en esos planetas, sería muy diferente a la nuestra. Hay muchos pasos evolutivos entre la formación de dichos planetas y la presencia de formas de vida, sobre todo de vida compleja.


SINTESIS DE NOTICIAS DE LA CIENCIA Y LA TECNICA.

-HACIA LOS DETECTORES CON ALCANCE DE TERAHERCIOS EN UN CHIP CONVENCIONAL:
Los sensores y detectores que operarán en el rango de los terahercios del espectro electromagnético prometen muchas propiedades interesantes, desde la identificación precisa de armas ocultas, a la capacidad de distinguir entre los diferentes tipos de tejidos para la detección de enfermedades. Pero como las señales en el rango de los terahercios han sido tradicionalmente incompatibles con la microelectrónica convencional, la materialización definitiva de dispositivos en este rango se ha quedado estancada. Un logro reciente va a cambiar la situación.

-NUEVOS DESCUBRIMIENTOS SOBRE EL ORIGEN DEL SISTEMA SOLAR: Se ha encontrado evidencia de que más de una estrella agonizante o supernova contribuyó a la composición de la nebulosa solar, lo que a su vez proporciona una mejor comprensión de la evolución de los planetas y asteroides poco después de su nacimiento, hace unos 4.500 millones de años.

-MÁS APLICACIONES DE LA FIBRA OPTICA PARA AVIONES: En un esfuerzo por proveer componentes más seguros para las aeronaves, unos investigadores han inventado un interruptor óptico que puede sustituir al cableado eléctrico en los aviones con fibras ópticas para controlar elevadores, timones y otros elementos críticos de vuelo.

-DEBEN SOPESARSE LOS EFECTOS MEDIOAMBIENTALES DE LOS CULTIVOS PARA BIOCOMBUSTIBLES: Quienes abogan a favor de los biocombustibles no deberían pasar por alto los efectos colaterales ecológicos potenciales de las cosechas destinadas a producir tales combustibles, alerta un grupo de investigadores en un estudio.

-EL PACIFICO ECUATORIAL OCCIDENTAL Y EL OCEANO INDICO ESTAN MUY CALIENTES: Una investigación revela que el Pacífico Ecuatorial Occidental y el Océano Índico son ahora tan calurosos o más que en las etapas más cálidas de todo el Holoceno. El Holoceno es el periodo, relativamente caluroso, que ha existido durante casi 12.000 años, desde el fin de la última era glacial.

-DESCUBREN POR QUE EL AZUL ULTRAMARINO SE DESCOLORA: La restauración de 20 años de duración de los frescos de Miguel Ángel en el techo de la Capilla Sixtina, ha dejado a los visitantes en silencio reverente ante la majestuosidad del trabajo original, destacándose el resplandor del azul que posee el cielo del Juicio Final. Recientes investigaciones sobre este matiz de azul, el azul ultramarino, han constatado la tendencia del pigmento a decolorarse. ¿Es posible que la longevidad de semejantes obras maestras, como el Juicio Final, pudiera estar en peligro?

-PARA PACIENTES SUPEROBESOS, ES MEJOR EL CRUCE DUODENAL QUE EL BYPASS GASTRICO: En un estudio comparativo a gran escala, analizando los resultados de pérdida de peso en pacientes aquejados de súper obesidad, los investigadores han comprobado que una operación bastante nueva, el cruce duodenal, produce resultados sustancialmente mejores, en cuanto a pérdida de peso después de la intervención, que la operación tradicional, el bypass gástrico en Y de Roux.

-POR QUE UN AMBIENTE MÁS CALIENTE ES MEJOR PARA LOS INSECTOS: La vida ha sido capaz de adaptarse a entornos que van desde los océanos polares fríos hasta los manantiales de aguas termales. Sin embargo, ahora se ha descubierto un límite para las poderosas fuerzas de selección natural, por lo menos en lo que se refiere a la adaptación de insectos a temperaturas frías. El estudio explica por qué un ambiente cálido resulta más idóneo para los insectos.

-DETECTAN DAÑOS CEREBRALES MICROSCOPICOS EN LA FASE INICIAL DEL ALZHEIMER: Se ha desarrollado una nueva técnica de análisis con la ayuda de ordenadores, que sirve para identificar daños celulares tempranos en el inicio de la enfermedad de Alzheimer.

-SE HA DESCUBIERTO EL ELEMENTO 118: Un nuevo elemento, obtenido por métodos artificiales, se va a añadir a la Tabla Periódica de los Elementos. El hallazgo también refuerza la hipótesis de la existencia de lo que los físicos llaman una "isla de estabilidad" en configuraciones que a priori cabría esperar que fuesen inestables.

-EL AGUJERO ANTARTICO EN LA CAPA DE OZONO ES AHORA MAYOR QUE NUNCA ANTES: En 2006, el agujero en la capa de ozono en la región polar del hemisferio sur ha batido todos los récords, tanto en área como en profundidad.

-ATRACCION MAGNETICA PARA MEJORAR LAS ENDOPROTESIS: Los científicos que investigan el corazón en Mayo Clinic han diseñado una nueva estrategia para mejorar la eficacia y seguridad de las endoprótesis cardíacas, utilizadas para abrir vasos sanguíneos estrechos y las cuales, últimamente, han sido fuente de preocupación respecto a coágulos.

-FOSIL DE ERITREA ES EL ENLACE PERDIDO EN EL LINAJE DEL ELEFANTE: Una criatura del tamaño de un cerdo, de colmillos cortos, que vivió en la Tierra hace unos 27 millones de años, representa el enlace perdido entre los parientes más antiguos de los elefantes y el grupo más moderno del que descienden los elefantes modernos, según un equipo internacional de paleontólogos, que incluye al investigador William J. Sanders, de la Universidad de Michigan, U-M.

-CAMBIO CLIMATICO EN LA ERA GLACIAL, VINCULADO A LA SALINIDAD DEL MAR: Los cambios súbitos de temperatura en Groenlandia, y las pautas de lluvia tropical durante la última edad de hielo, se han relacionado por primera vez con los cambios rápidos en la salinidad del Atlántico norte. Los resultados de esta nueva investigación aportan más evidencias de que el cambio climático puede tener un impacto directo y rápido en la química del océano y la circulación de sus aguas.

-PLANTAS PARASITAS QUE OLFATEAN A SUS VICTIMAS: Las plantas parásitas no se propagan al azar a su alrededor para buscar a una víctima, sino que rastrean sustancias químicas volátiles producidas por otros vegetales, entre las que distinguen las emisiones de sus víctimas potenciales.

-LOS ASTRONOMOS VEN POR PRIMERA VEZ EL INTERIOR DE UN CUASAR: Por vez primera, unos astrónomos han conseguido mirar dentro de los cuásares (los objetos más luminosos del universo) y han encontrado evidencia de agujeros negros.

-DESCUBRIENDO LAS RAICES DEL ADN: La estructura simple y elegante del ADN, en forma de "escalera retorcida", con cadenas de azúcar-fosfato formando los "rieles", y con los "peldaños" de compuestos de nitrógeno y oxígeno uniendo delicadamente las dos hebras, parece el trabajo de un escultor competente. Sin embargo, fue el resultado de reacciones químicas aleatorias. Precisamente, cómo llegó a producirse esta molécula y su pariente, el ARN, es uno de los más desconcertantes, y acaso irresolubles, misterios científicos. Un estudio profundiza en por qué este "diseño", y no otro, ha perdurado hasta hoy.

-EL CINC PUEDE TENER UN PAPEL CLAVE EN LA REACCION DE MIEDO Y OTRAS CONDUCTAS APRENDIDAS: La liberación de cinc en la región cerebral de la amígdala se ha relacionado con la facultad de generar la respuesta aprendida de miedo. El hallazgo podría ayudar a entender mejor el consumo de cinc, su importancia en la dieta diaria y su papel en la memoria.

-BAYAS CAPACES DE DERROTAR A LAS ENFERMEDADES CARDIACAS: Unas bayas consumidas desde la época de Ghengis Khan podrían formar la base de la próxima gran innovación en materia de salud del corazón.

-LA PERDIDA DE LA BIODIVERSIDAD TROPICAL AFECTARIA A TODO EL PLANETA: Un equipo de científicos ha finalizado un estudio que explica por qué los trópicos son mucho más ricos en biodiversidad que las latitudes más altas. Y dicen que su trabajo revela un motivo más para proteger a esas especies de la extinción.

-CON MAS OXIGENO EN EL AIRE, PODRIA HABER INSECTOS GIGANTES: Una nueva investigación ha llegado a la conclusión de que esos pequeños insectos que hay en su jardín podrían ser espantosamente grandes si hubiera una concentración mayor de oxígeno en el aire. Con el nivel actual, hay un límite teórico que no podrían superar. El estudio refuerza la teoría de que algunos insectos eran mucho más grandes a finales del período Paleozoico porque tenían un suministro de aire mucho más rico en oxígeno.

-LOS RADIOISOTOPOS DE UNA SUPERNOVA MUESTRAN QUE EL SOL NACIO EN UN CUMULO ESTELAR: La muerte de una estrella masiva cercana miles de millones de años atrás, ofrece evidencias de que el Sol nació en un cúmulo estelar, según un equipo de astrónomos. Más que ser un hijo único, el Sol pudo por tanto tener cientos o miles de hermanos estelares, ahora dispersos por el firmamento.

-HIERBA PARA AHORRAR COMBUSTIBLE Y DAÑAR MENOS AL MEDIO AMBIENTE: En unas instalaciones piloto, una caldera que trabaja en su totalidad con combustible vegetal, obtenido de la hierba, se encarga de calentar los edificios de mantenimiento del centro de investigaciones, y un invernadero. El invierno pasado, esta caldera alimentada con combustible vegetal redujo el consumo de fuel-oil en unos 2.600 litros.

-ROBOTS HACIENDO PARTE DE LA TAREA DE LOS HERBICIDAS: Un prototipo de robot alimentado por energía solar, y cuya agudeza visual es igual a la considerada perfecta en un Ser Humano (100 por 100), se dedica a la tarea de buscar y destruir malas hierbas, patrullando surco a surco por unos campos de cultivo experimentales. El robot es capaz de mantener a raya eficazmente a la maleza, reduciendo además la cantidad de productos herbicidas empleados en cada campo.

-COMO SE DETERMINA EL SEXO EN LA ABEJA: ¿Qué determina que una abeja sea él o ella? Hace tres años un científico localizó un gen llamado csd que determina el sexo en las abejas productoras de miel, y ahora un equipo de investigación de la Universidad de Michigan, U-M, presidido por el biólogo evolutivo Jianzhi "George" Zhang, ha revelado cómo el gen ha evolucionado.

LA MEDICINA Y LA INTELIGENCIA ARTIFICIAL



APLICACIONES DE LA INTELIGENCIA ARTIFICIAL EN LA MEDICINA.

Por el Dr. Alexander Sánchez Arbolaez - diasalva@yahoo.es

1. Resumen
2. Introducción
3. Desarrollo
4. Robótica
5. El futuro
6.Bibliografía revisada

1. Resumen.

La inteligencia artificial como parte importante de la computación tiene múltiples ramas y cada rama tiene importantes aplicaciones médicas que son analizadas con profundidad y sencillez a la vez y se mencionan ejemplos actuales de dichas aplicaciones.
Doctor en medicina 1997.Diplomado en idioma inglés en 1997.Diplomado en idioma francés 2002. Diplomado en ofimática 20003.Especialista en medicina general 2005.

2. INTRODUCCIÓN

El sorprendente avance tecnológico que la humanidad ha experimentado en los últimos dos siglos encuentra su expresión mas acabada y complicada en la invención de las computadoras, las "máquinas que piensan" como las llama McCorduck (1979). La rapidez y la asombrosa complejidad de la computadora ya no son un secreto para nadie, sin embargo la verdad sobre sus más profundas implicaciones es conocida sólo por un número muy limitado de especialistas.
La Inteligencia Artificial es una ciencia que trata de la comprensión de la inteligencia y del diseño de máquinas inteligentes, es decir, el estudio y la simulación de las actividades intelectuales del hombre (manipulación, razonamiento, percepción, aprendizaje, creación). La IA es un campo de estudio que busca explicar y emular el comportamiento inteligente en términos de procesos computacionales.

La Inteligencia Artificial es una combinación de la ciencia del computador, fisiología y filosofía, tan general y amplio como eso, es que reúne varios campos (robótica, sistemas expertos, por ejemplo), todos los cuales tienen en común la creación de máquinas que pueden "pensar".
Algunos expertos en computación han sostenido, desde hace algún tiempo, que las computadoras serán poseedoras de capacidades y habilidades similares a las de los seres humanos, y que, en el futuro próximo, las veremos igualarnos y superarnos en muchas de las actividades intelectuales tradicionalmente reservadas a los seres humanos.

En principio las posibilidades son casi ilimitadas, así encontramos hoy en día programas de inteligencia artificial en los satélites artificiales, en los grandes aeropuertos, en sistemas de diagnóstico de hospitales y en una infinidad de aplicaciones hasta llegar al reconocimiento de caracteres y de la voz humana.

Sino fuese por la existencia y versatilidad de la I.A., muchas de las cosas que estamos acostumbrados a utilizar no podrían funcionar del mismo modo y algunas de ellas ni siquiera lo harían. Dos de las aplicaciones mencionadas anteriormente y que recientemente están teniendo una gran aceptación y uso son las de reconocimiento de caracteres y de voz. En el caso de los caracteres no podría usarse un programa que tan solo comparase la imagen, obtenida por el escáner, con unos patrones o muestras de letras almacenadas anteriormente en la memoria pues las posibilidades de variación de estas es enorme dependiendo del tipo de letra y de la serie de atributos que estas pueden tener, si a esto le sumamos la variación de calidad en el texto impreso, nos encontramos con una gran cantidad de datos a tener en cuenta que sólo pueden ser evaluados por un programa de I.A. Si en el caso de los caracteres hay gran variabilidad en el caso de la voz esta variabilidad se eleva enormemente hasta el punto de ser necesario siempre un breve periodo de aprendizaje por parte de la máquina para reconocer la voz del usuario.

Investigación y desarrollo en áreas de la IA

Las aplicaciones tecnológicas en las que los métodos de IA usados han demostrado con éxito que pueden resolver complicados problemas de forma masiva, se han desarrollado en sistemas que:
Permiten al usuario preguntar a una base de datos en cualquier lenguaje que sea, mejor que un lenguaje de programación.
Reconocen objetos de una escena por medio de aparatos de visión.
Generar palabras reconocibles como humanas desde textos computarizados.
Reconocen e interpretan un pequeño vocabulario de palabras humanas.
Resuelven problemas en una variedad de campos usando conocimientos expertos codificados.
Los países que han apadrinado investigaciones de IA han sido: EEUU. , Japón, Reino Unido y la CEE; y lo han llevado a cabo a través de grandes compañías y cooperativas de riesgo y ventura, así como con universidades, para resolver problemas ahorrando
En la medicina en general la inteligencia artificial ayuda a los médicos a hacer diagnósticos, supervisar la condición de los pacientes, administrar tratamientos y preparar estudios estadísticos. (1)(2)

3. DESARROLLO

La Inteligencia Artificial (IA) es un campo de estudios muy amplio, y en constante cambio. Sin embargo, su producto final es siempre software. Estos programas, producto del trabajo de la IA, son denominados Sistemas Inteligentes (SI).

Un SI incorpora conocimiento sacado de la experiencia y expertisia de los expertos humanos. Los campos de aplicación de tales SI’s son muy variados, pensemos por ejemplo en un sistema de diagnóstico médico, o en un sistema integrado de ayuda a la toma de decisiones empresariales. En cualquier caso, un SI partirá de unos datos y los convertirá en información (conocimiento), de modo que ayude a tomar una decisión. Para convertir los datos en información útil, empleará algoritmos de razonamiento, aprendizaje, evolución, etc. Además, el SI actuará siempre en tiempo real, lo que representa un aumento de la productividad.
En el caso de la medicina las aplicaciones de la Inteligencia artificial son tan amplias que no podremos ni siquiera resumirlas todas, por lo que haremos mención de algunas de las que más extensamente se han usado y de algunas de las que más se están utilizando en la actualidad.(3)(4)

Sistemas Expertos.

Constituye hoy en día el área de aplicación de la I.A. dentro de la medicina de mayor éxito. Los sistemas expertos permiten almacenar y utilizar el conocimiento de uno o varios expertos humanos en un dominio de aplicación concreto. Su uso incrementa la productividad, mejora la eficiencia en la toma de de-cisiones o simplemente permite resolver problemas cuando los expertos no están presentes. Muchos son los ejemplos de sistemas expertos desarrollados.
Entre ellos: MYCIN para el diagnóstico médico.

Un sistema experto genérico consta de dos módulos principales:
1. La base de conocimientos del sistema experto con respecto a un tema específico para el que se diseña el sistema. Este conocimiento se codifica según una notación específica que incluye reglas, predicados, redes semánticas y objetos.
2. El motor de inferencia: es el que combina los hechos y las preguntas particulares, utilizando la base de conocimiento, seleccionando los datos y pasos apropiados para presentar los resultados

Un Sistema Experto (SE), es básicamente un programa de computadora basado en conocimientos y raciocinio que lleva a cabo tareas que generalmente sólo realiza un experto humano; es decir, es un programa que imita el comportamiento humano en el sentido de que utiliza la información que le es proporcionada para poder dar una opinión sobre un tema en especial. Otros autores lo definen como sigue: un Sistema Experto es un programa de computadora interactivo que contiene la experiencia, conocimiento y habilidad propios de una persona o grupos de personas especialistas en un área particular del conocimiento humano, de manera que permitan resolver problemas específicos de ése área de manera inteligente y satisfactoria. La tarea principal de un SE es tratar de aconsejar al usuario. Los sistemas expertos son una variedad comercial de una clase de programas computacionales llamados sistemas basados en conocimiento. El conocimiento en sistemas expertos es altamente in estructurado, esto es, el proceso de solucionar problemas de un dominio no es manifiesto. Y es establecido explícitamente en relaciones o deductivamente inferidos desde la cadena de proposiciones.(4)(5)
Dado que cada condición que puede ser encontrada puede ser descrita por una regla, los sistemas expertos basados en reglas no pueden manejar eventos no anticipados, pero pueden evolucionar con el uso, y permanece limitado a un estrecho dominio de problemas.
Sólo para citar un ejemplo, un Sistema Experto (SE) de medicina es una aplicación capaz de dar soporte a un diagnóstico, con el uso de técnicas básicas de representación del conocimiento, deducción y búsqueda de soluciones.

Esto va desde sistemas básicos dirigidos al usuario del hogar, hasta proyectos de apoyo a países en desarrollo para auxiliar a médicos generales en el diagnóstico de enfermedades donde los especialistas no se encuentran disponibles. Los casos más avanzados son los sistemas de monitoreo capaces de mantener estable al paciente, manejar los cambios en la condición del paciente y disparar alarmas. Es en este nivel, donde los campos de aplicación se mezclan con las clases o tipos de aplicaciones que nos llevan a hacer una explosión de usos potenciales de la IA. (1)(4)(6)

Otra variante de sistemas expertos, uno que no posee esta limitación, emplea una base de conocimiento que consiste de descripciones estructuradas de situaciones, de problemas del mundo real y de decisiones actualmente hechas por expertos humanos. En medicina, por ejemplo, el registro de un paciente contiene descripciones de datos personales, exámenes físicos y de laboratorio, diagnóstico clínico, tratamiento propuesto, y los resultados de tales tratamientos.

Dada una gran base de datos con tales registros en una especialidad médica, el médico puede indagar acerca de eventos análogos a los relacionados con el paciente. Esto en contraste con el sistema que idealmente intenta reemplazar al ser humano, ya que en casos como estos sólo podría usarse este tipo de conocimiento como una herramienta que ayuda en la toma de decisiones. El software requerido para este tipo de sistemas se ha ido complicando con el tiempo ya que su desarrollo demanda tiempo, un buen equipo de programadores y un buen producto final.(4)(5)(7)

Los resultados de la inteligencia artificial han sido utilizados también para la elaboración de aplicaciones de Enseñanza Asistida por Computadoras en las ciencias médicas. El ejemplo más representativo de este tipo de sistemas es el GUIDON, un tutorial inteligente basado en el sistema experto MYCIN. El objetivo de este último es diagnosticar infecciones bacterianas en la sangre y sugerir el tratamiento adecuado.

El sistema GUIDON se inicia con la presentación de un caso clínico sobre el cual el sistema va proporcionando información adicional a solicitud del estudiante y almacena la información sobre el tipo y número de consultas que va realizando, así como el orden de razonamiento que emplea el estudiante al tratar de resolver el caso problema. El GUIDON puede interrumpir la consulta y reorientar al estudiante en el momento en que presenta una de las reglas apropiadas para la solución. Este sistema proporciona ayuda al estudiante en función del camino que éste va siguiendo para solucionar el caso.

El GUIDON también cuenta con la posibilidad de hacer presentaciones de casos clínicos de tipo tutorial, con el propósito de introducir nuevo material o establecer diálogos sobre los mecanismos de inferencia referentes al caso para llegar al diagnóstico y tratamiento adecuados.

Desarrollar tutoriales inteligentes como el GUIDON requiere de un gran tiempo de trabajo y un enorme costo, ya que implica, en primer lugar, adquirir conocimientos de un experto humano, almacenarlos en una computadora y manejarlos con los recursos que esta última brinda, para obtener un resultado o solución igual o suficientemente cercana a la de un experto humano. El sistema además, debe poder explicar en todo momento su razonamiento. Por su complejidad, estos no son los sistemas que más comúnmente se desarrollan para la enseñanza.(6)(7) (8)

La tecnología de sistemas expertos ha probado su utilidad en campos muy heterogéneos del saber humano, a modo de ejemplos podemos citar algunos Sistemas Expertos:·
MYCIN, construido también en Stanford, diagnostica enfermedades infecciosas de la sangre y receta los antibióticos apropiados.·
PUFF, diagnostica enfermedades pulmonares.·
CADUCEUS, de la Universidad de Pittsburgh, para diagnosticar medicina interna.·
EMYCIN (Essential Mycin)Shell construido en la Universidad de Stanford sobre la base del MYCIN, sistema de expertos que realiza diagnóstico de enfermedades infecciosas a la sangre. Posteriormente sobre el EMYCIN se construyeron otros sistemas expertos como el
PUFF (que diagnostica enfermedades pulmonares) y el
SACON (Ingeniería estructural).·
MED1 Este shell fue desarrollado en 1983 por F. Puppe en el marco de una tesis doctoral en la Universidad de Kaiserlautern y llevado a la práctica posteriormente en varios computadores. El lenguaje de programación sobre el que se basa, aunque no es accesible desde el MED1, es Interlisp. El MED1, como su nombre indica, es especialmente apropiado para sistema de diagnóstico médico. Debido al contexto de desarrollo, la interfase del usuario no es en absoluta tan cómoda como en otros Shell como el KEE y el S1, cuyo desarrollo fue orientado hacia la explotación comercial. La principal ventaja del MED1, es su gran flexibilidad en la manipulación de conocimientos difusos.(3)(9)

Ahora hablaremos un poco más sobre MYCIN:

Sistema Experto para diagnósticos médicos

MYCIN es un Sistema Experto para la realización de diagnósticos, iniciado pro Ed Feigenbaum y posteriormente desarrollados por E.Shortliffe y sus colaboradores. Su función es la de aconsejar a los médicos en la investigación y determinación de diagnósticos en el campo de las enfermedades infecciosas de la sangre. El sistema MYCIN, al ser consultado por el médico, solicita primero datos generales sobre el paciente: nombre, edad, síntomas, etc. Una vez conocida esta información por parte del sistema, el Sistema Experto plantea unas hipótesis.
Para poder verificarlas comprueba primero la exactitud de las premisas de la regla. Esto se realiza mediante una búsqueda de enunciados correspondientes en la base de conocimientos. Estos enunciados pueden a su vez estar de nuevo en la parte de consulta de otra regla. También lo realiza mediante determinadas preguntas al usuario. Aquí se hacen preguntas del tipo: ¿Se ha practicado en el paciente algún tipo de intervención quirúrgica? Con las respuestas que recibe, el MYCIN verifica o rechaza las hipótesis planteadas. Una serie de tests han demostrado que MYCIN trabaja igual de bien que un médico.(1)(10)(11)


4. ROBÓTICA

Los robots son unas máquinas controladas por ordenador y programada para moverse, manipular objetos y realzar trabajos a la vez que interacciona con su entorno. Los robots son capaces de realizar tareas repetitivas de forma más rápida, barata y precisa que los seres humanos.

La fabricación de robots es el mejor campo de experimentación para la Inteligencia Artificial. La robótica no es ciencia-ficción, no trata de hacer robots que piensen como personas y se parezcan a ellas, sino que trabaja con metas más simples. Los robots no tienen nada que ver con lo que entendemos por humanoides. Son objetos cotidianos que facilitan un poco la vida, como un electrodoméstico. La reproducción de cualquier órgano del ser humano es extremadamente difícil, y para imitar el funcionamiento de una pierna se utiliza algo tan rudimentario como ruedas y cadenas. Algo parecido ocurre con la visión, pues una cámara no se aproxima a la riqueza que tiene el ojo humano, que además tiene visión estereoscópica, mientras que una cámara ve una imagen plana.

El diseño de un manipulador robótico se inspira en el brazo humano. Las pinzas están diseñadas para imitar la función y estructura de la mano humana. Muchos robots están equipados con pinzas especializadas para agarrar dispositivos concretos.
Las articulaciones de un brazo robótico suelen moverse mediante motores eléctricos. Una computadora calcula los ángulos de articulación necesarios para llevar la pinza a la posición deseada.(12)

En 1995 funcionaban unos 700.000 robots en el mundo. Más de 500.000 se empleaban en Japón, unos 120.000 en Europa Occidental y unos 60.000 en Estados Unidos. Muchas aplicaciones de los robots corresponden a tareas peligrosas o desagradables para los humanos. En los laboratorios médicos, los robots manejan materiales que conlleven posibles riesgos, como muestras de sangre u orina. En otros casos, los robots se emplean en tareas repetitivas en las que el rendimiento de una persona podría disminuir con el tiempo. Los robots pueden realizar estas operaciones repetitivas de alta precisión durante 24 horas al día.(13)

Patxi Ibarrondo se refiere a la instalación en el Hospital Universitario de Valdecilla (Santander, España) de un robot informatizado llamado Celedonio que simula todas las situaciones de emergencia en una sala de operaciones, de esta manera el personal del hospital se entrena “sin necesidad de adquirir experiencia únicamente a costa de los pacientes”. Según el artículo, Celedonio “es un robot cibernético, casi de carne y hueso, que simula a la perfección las sofisticadas constantes de la vida humana y está preparado para soportar estoicamente toda manipulación que sea menester sin quejarse”. Celedonio simula, excepto las psiquiátricas, “todas las enfermedades o traumas en sus infinitas variantes y niveles de gravedad”, incluso puede morir si es necesario. Este robot es único en España, solo existen dos similares en Europa y cuesta 45 millones de pesetas. (8)(10)(11)

Redes neuronales artificiales

Un computador tradicional es una máquina que ejecuta una serie de instrucciones de forma secuencial, siendo capaz de realizar complicadas operaciones lógicas y aritméticas muy rápidamente. Sin embargo, la estructura del cerebro es radicalmente diferente. No está compuesto por un único microprocesador complejo y eficiente, sino por miles de millones de neuronas, que realizan de modo impreciso, redundante y relativamente lento un tipo de cálculo muy simple. Y sin embargo estos sistemas resuelven ciertas tareas como la visión manejando grandes cantidades de información redundante, defectuosa y cambiante como ninguna máquina que el hombre haya podido construir hasta la fecha.

Una red neuronal es un modelo computacional que pretende simular el funcionamiento del cerebro a partir del desarrollo de una arquitectura que toma rasgos del funcionamiento de este órgano sin llegar a desarrollar una réplica del mismo. El cerebro puede ser visto como un equipo integrado por aproximadamente 10 bi­llones de elementos de procesamiento (neuronas) cuya velocidad de cálculo es lenta, pero que trabajan en paralelo y con este paralelismo logran alcanzar una alta potencia de procesamiento. El elemento clave de este paradigma es la novedosa estructura del sistema de procesamiento de la información.(12)(13)

Los sistemas neuronales artificiales toman las características esenciales de la estructura neuronal del cerebro para crear sistemas que lo mimeticen, mediante sistemas electrónicos o mediante simulación por ordenador, aprovechando sus propiedades de cálculo. Estos sistemas están compuestos por multitud de procesadores simples que operan sobre la base de reconocimiento de patrones, y que pueden adquirir, almacenar y utilizar conocimiento experimental, obtenido a partir de ejemplos. Esta forma de adquirir el conocimiento es una de sus características más destacables: no se programa de forma directa, como en los sistemas expertos, sino que se adquiere el conocimiento a partir de ejemplos, por ajuste de parámetros de las neuronas mediante un algoritmo de aprendizaje.

La clasificación de las áreas de la aplicación de redes neuronales en el campo de la Medicina, es la siguiente:

1) Diagnóstico: detección de cáncer y patologías cardíacas a a través de las señales que se obtienen a partir de la aparatología médica. Los beneficios del uso de redes neuronales en diagnóstico no se ven afectados por factores como la fatiga, las condiciones desfavorables de trabajo, y los estados emocionales.
2) Analítica: en bioquímica se facilitan los análisis de orina, sangre, control de diabetes, ionogramas, y la forma de detectar condiciones patológicas a través del análisis bioquímico.
3) Imágenes: el procesamiento de imágenes de alta complejidad (RX; TAC; RNM; ecografías; Doppler, etc.) mediante redes neuronales permitió establecer patentes referidas a imágenes significativas de patologías antes no demostradas.
4) Farmacología: singular valor en el desarrollo de drogas para el tratamiento del cáncer. También han sido utilizadas para el proceso de modelado de biomoléculas.
El algoritmo generalmente utilizado en los ítems 1), 2), y 4) es el de retropropagación
El comportamiento de una red neuronal depende de los pesos de las funciones de input-output (Funciones de transferencia).

En términos generales, podemos citar que las funciones típicamente pueden estar en alguna de estas tres categorías:
1) Función linear, donde la actividad de output es proporcional al peso total del output.
2) Gatillo, donde el output es establecido a uno de dos niveles, dependiendo de cuál input total es mayor que otro, o menor que otro, dependiendo del valor del gatillo.
3) Función sigmoideo, donde el output varía permanentemente pero no en forma linear como los cambios del input. Presenta una similitud considerable con las neuronas reales. (14)(15)(16)17)

En medicina, existen algunas aplicaciones relativamente recientes ampliamente usadas todavía que tienen como objetivo fundamental el de servir de apoyo al trabajo del médico en determinadas circunstancias, y entre las cuales podemos señalar las siguientes:

1. Asistente basado en casos para la clínica psiquiátrica.
2. Sistema basado en casos para el procesamiento de imágenes de tomografía axial computarizada y resonancia magnética, de tumores cerebrales.
3. Sistema asistente para el manejo de pacientes en unidades de cuidados intensivos
4. Asistente basado en casos para el diagnóstico y análisis del síndrome dismórfico.).
5. Sistema de razonamiento automatizado para el diagnóstico y pronóstico del cáncer de próstata.
6. Sistema para la evaluación inicial de pacientes con SIDA.
7. Sistema basado en casos que utiliza una red neuronal artificial para el diagnóstico del infarto agudo de miocardio.
8. Sistema de RBC para el pronóstico de cardiopatías congénitas en recién nacidos.).
9. Sistema basado en casos para el cálculo de la dosis de antibióticos en cuidados intensivos.
10. Sistema de RBC para la detección de la enfermedad coronaria por escintigramas coronarios.

OTRAS APLICACIONES:

CAEMF Dedicado al diagnóstico y seguimiento ante parto del estado materno-fetal)
SUTIL Aborda el problema de la monitorización inteligente en una unidad de cuidados coronarios y resuelve algunos problemas importantes relacionados con los sistemas expertos en tiempo real)
MEEDTOL Es una herramienta para el desarrollo de sistemas expertos que incluye un procedimiento propio para la representación del conocimiento mediante "magnitudes generalizadas", una especie de micromarcos)
TAO Consejero de terapia oncológica que incorpora el conocimiento estratégico necesario para la inclusión de enfermos en protocolos de quimioterapia y para el seguimiento del efecto del protocolo)
TAO-MEEDTOOL Sistema experto para ecocardiografía. (1)(3)

Como ejemplo de otros programas se encuentran, el programa Eliza, que simula el comportamiento de un psiquiatra que hace preguntas a un paciente, y el programa Parry, que simula el comportamiento de un paciente paranoico. Ambos tienen una gran capacidad de convencimiento, sin embargo no tienen idea de lo que dicen. Estos programas se limitan a reconocer palabras claves dentro de la frase tecleada por la persona, y tomando en cuenta algunas reglas sintácticas definidas con anterioridad, generan una respuesta adecuada. Por lo que carecen de inteligencia, pues en realidad ignoran lo que hacen.(4)(5)

Hasta aquí, hemos tratado el tema de la IA así como también sus aplicaciones recientes en medicina. En nuestro país se han logrado resultados prometedores en la elaboración de programas de computación de RBC orientados fundamentalmente al diagnóstico médico. Como ejemplo de lo anterior podemos mencionar al Sistema Inteligente de Selección de Información (SISI), (16) elaborado en la Universidad Central de las Villas en 1996.Esperamos que con el proyecto ya en marcha de informatización de la sociedad, estos programas sean incorporados cada vez más al trabajo médico, no con el objeto de sustituirlo y sí como instrumento de apoyo al personal de la salud.

5. EL FUTURO

En el año 2001 se realizó la primera operación transoceánica de la historia. Por medio de la telemedicina y usando dos sistemas de cirugía telerrobótica un equipo médico en New York extirpó con éxito la vesícula biliar a una paciente de 68 años ingresada en un hospital de Estrasburgo, Francia. Esto vaticina un un futuro fascinante para las operaciones a distancia y posibilitará la cirugía de tripulantes de naves espaciales ,trabajadores de plataformas petrolíferas en alta mar, o soldados heridos en el campo de batalla ,eliminándose las restricciones geográficas , los costosos traslados de pacientes a centros de alta especialización o la escasez de científicos muy especializados. Esta novedosa técnica llamada heart pot permite que el tiempo quirúrgico pueda ser televisado y seguido en tiempo real por otros expertos en el mismo salón o a miles de kilómetros de distancia

El sueño de crear un cerebro artificial similar al humano está todavía muy lejos de hacerse realidad. Sin embargo, la Inteligencia Artificial ha servido para elaborar sistemas y dispositivos en cierto modo “inteligentes”: agendas electrónicas, sistemas de reconocimiento facial, programas anti-fraude, aviones de combate sin piloto, etc. Su aplicación en medicina ha conseguido también importantes logros; en Suecia se ha desarrollado una técnica que aplica IA a unos chips que empiezan a usarse para análisis genético de muestra, los denominados “biochips”, cuya labor se centra en distinguir distintos tipos de cáncer.

6. Bibliografía revisada

1. UNIVERSIDAD ALAS PERUANAS" FACULTAD DE INGENIERIA DE SISTEMAS E INFORMATICACURSO: INFORMES TÉCNICOSTEMA: "INTELIGENCIA ARTIFICIAL" PROFESOR: ING. OSCAR MUJICA RUÍZ.2005
2. Inteligencia. Diccionario terminológico de ciencias médicas 11 ed. Barcelona: Salvat, 1990:533.
3. José María Filgueiras Nodar. Un panorama general de la inteligencia artificial y sus aplicaciones actuales.2005
4.Galvez Lio . Daniel . Sistemas basados en el conocimiento.UCLV(2006):4-37.
5.Colectivo de autores.Univ.Guadalajarra.Aplicaciones de la inteligencia artificial.2002.163-253
6. Rích E. Inteligencia artificial. 2da ed. McGraw-Hill, Interamericana de España, 1994:135-7.
7. Winston H. Inteligencia artificial. 3ra ed. Addison-Wesley Iberoamericana, 1994:87-9.
8. Brena R. La inteligencia artificial: enfoques, herramientas y aplicaciones. Soluciones Avanzadas Ao2-13:15.2001
9. Kolodner JL. An introduction to case-based reasoning. Artf Intell Rev 2002; 6:3-34.
10. Kolodner JL, Educational implications of anaiogy. A view from case-based reasoning. Am Psychol 2004; 52 (I): 57-66.
11. Frize M. Computer-assisted decision support system for patient management in an intensive care unit Medinfo 2005; 1009-12.
12. Evans CD. A case-based assistant for diagnosis and analysis of dysmorphic syndrome. Med Inf Lond 1995; 20(2) 121-31.
13. Bartels PH. Automated reasoning system in histopathologic diagnosis and prognosis of prostate cancer and its precursors. Eur Urol 1996; 30(2):222-33.
14. García MM, Bello RE. A model and its different applications to case-based reasoning. Knowledge Based Systems 1996; 9:465-73.
15. Heindi B. A case-based consiliarius for therapy recommendations: computer-based advice for calculated antibiotic therapy in intensive care medicine. Comput Methods Programs Biomed 1997; 52(2): 117-27.
16. Haddad M. Feasibility analysis of a case-based reasoning system for automated detection of coronary heart disease from myocardiai scintigrams. Artif Intell Med 1997; 9(1): 61-78.
17. Redes neuronales y clasificacion de datos: diagnóstico médico,... Journal Title: Inteligencia Artificial, Revista Iberoamericana de Inteligencia Artificial...wotan.liu.edu/docis/dbl/iariia/2006
Autor:
Dr. Alexander Sánchez Arbolaez
diasalva@yahoo.esCuba, Santa Clara
Monografías.com