lunes, 14 de marzo de 2011

Picoproyectores embebidos para smartphones

Las compañías STMicroelectronics y bTendo Ltd., firmaron una alianza para crear en conjunto una nueva gama de picoproyectores embebidos de alta definición con el tamaño más pequeño del mundo para teléfonos inteligentes.

El fabricante de Sistemas Micro Electro-Mecánicos (MEMS), STMicroelectronics, y la compañía desarrolladora de dispositivos de proyección, bTendo, decidieron anunciar el mes de febrero su alianza de cooperación tecnológica para desarrollar el picoproyector embebido con mayor desempeño, alta definición y el más pequeño del mundo para la siguiente generación de teléfonos inteligentes (smartphones).

Con este anuncio la miniaturización de circuitos y componentes para la industria electrónica comienza a incrementar su éxito en distintos sectores. No obstante, la idea de un micro-proyector integrado (picoproyector) a los smartphones con capacidad de reproducir en alta definición sobre un área de buen tamaño no parece estar lejos de ser materializada.

En comunicado de prensa, la compañía STMicroelectronics dio a conocer que la alianza con bTendo dará como resultado la creación de un pico proyector basado en la tecnología de procesamiento de semiconductores de STMicro y la solución de barrido láser para motores de proyección con la que cuenta su ahora socio tecnológico.


El dispositivo cuenta con una dimensión de aproximadamente 2.5 cm2, una altura menor a los 6 mm y su perfil tecnológico le confiere la posibilidad de ofrecer imágenes nítidas en comparación con las soluciones existentes de proyectores en el mercado. Para alcanzar los estándares propuestos, ambas compañías decidieron implementar un diseño compuesto por dos micro-espejos MEMS (Sistemas Micro-Electromecánicos) para el accionamiento al interior de un avanzado motor óptico y administrado inteligentemente por un chip de video-procesamiento.

El nuevo picoproyector será destinado para las compañías de Equipo Original (OEMs) de equipos celulares con el objetivo de integrarlo en sus futuras gamas de teléfonos inteligentes a fin de que su sistema integrado sea optimizado con este innovador elemento.

Entre sus características se encuentra un bajo consumo de energía y un procesador de interface móvil con el cual se asegura una fácil rápida integración.

"La gente quiere compartir sus medios de comunicación con los demás y disfrutar de la opción de ampliar su proyección, incluso por su visión personal", explicó Benedetto Vigna, Vicepresidente de Grupo y Gerente General de la división MEMS de STMicroelectronics.




"ST seleccionó la tecnología de bTendo debido a su tamaño pequeño, baja potencia y características concentradas que son críticas para los módulos embebidos de proyección. ST tiene una larga historia en el desarrollo de tecnologías innovadoras y la cooperación conjunta servirá para ampliar nuestros conocimientos de sensores MEMS, al tiempo que complementará y reforzará nuestro liderazgo en giroscopios y acelerómetros MEMS para las interfaces de usuario avanzado", puntualizó Vigna.

"La entrada de STMicroelectronics en el mercado de los pico proyectores con una solución de escaneo láser de bTendo, representa un hito importante en la realización de nuestra visión de que los teléfonos móviles pueden impulsar el crecimiento de los pico proyectores embebidos de manera exponencial en los próximos dos años", dijo el doctor William (Bill) L. Coggshall, presidente y fundador de Pacific Media Associates.

Cabe mencionar que la feria tecnológica Mobile World Congress celebrada los pasados días 14-17 de febrero en la ciudad de Barcelona, España, sirvió para develar la demostración de este nuevo picoproyector.

Acerca de STMicroelectronics

STMicroelectronics es líder global en el desarrollo y la distribución de soluciones en semiconductores en todo el espectro de las aplicaciones de la microelectrónica. Una combinación sin par de conocimientos en silicio y sistemas, capacidad de manufactura, cartera de propiedad intelectual y socios estratégicos sitúa a la compañía al frente de la tecnología System-on-Chip (SoC) y sus productos desempeñan un rol clave para posibilitar los mercados de convergencia actuales. En el 2010, los ingresos netos de la compañía fueron de 10,350 millones de dólares. Se puede obtener más información sobre ST en www.st.com


Acerca de bTendo

bTendo es una empresa desarrolladora de tecnologías de proyección que permite a los usuarios de aplicaciones móviles compartir contenido multimedia desde sus dispositivos portátiles en cualquier momento y en cualquier parte. Sus principales tecnologías son pantallas de escaneo láser y soluciones que ofrecen imágenes frescas y en alta resolución con un consumo bajo de energía. Fundada en 2006 con aportación de capital privada, bTendo se ha posicionado exitosamente en el mercado con una participación clave con la creación de proyectores embebidos para la siguiente generación de dispositivos electrónicos portátiles. Para mayor información: www.btendo.com
 
Jesús E Ramirez C
caf

Avance en computación cuántica

Hace diez años un equipo de físicos de la Universidad de Stanford e IBM sorprendió al mundo al revelar que había construido un ordenador capaz de utilizar las extrañas reglas de la mecánica cuántica para procesar la información. Una década después, este campo de la informática en el que no parecen haberse producido avances espectaculares, vuelve a ser noticia gracias a una máquina de resonancia magnética con un cabezal del tamaño de un alfiler, capaz de "operar" con átomos de nitrógeno incrustados en diamante. ¿La computación cuántica está de vuelta?


Diez años han pasado desde que el equipo compuesto por físicos de IBM y la Universidad de Stanford, en Silicon Valley, reveló que había construido un equipo capaz de aprovechar las extrañas reglas de la mecánica cuántica para procesar información. Aquel "ordenador cuántico" había sido diseñado especialmente para factorizar números, un problema en el que los ordenadores convencionales han demostrado ser especialmente ineficientes. Con orgullo, el equipo mostró cómo su invento hallaba los dos factores primos del número 15 (3 y 5). A pesar de su aparente simplicidad, ese logro fue una hazaña impresionante. Aquel ordenador pudo realizar esa tarea gracias a que un objeto cuántico -o "qbit"- es capaz de existir en dos estados al mismo tiempo, representando un 0 y 1 simultáneamente. Este tipo de "superposición cuántica" permite que un objeto cuántico pueda operar con 2 bits al mismo tiempo, dos objetos cuánticos lo hagan con cuatro bits de forma simultánea, los siete "qbits" que poseía el ordenador de IBM/Stanford bastan para calcular con 128 bits y así sucesivamente. Se estima que un ordenador cuántico de solo 30 "qbits" sería más potente que cualquier ordenador convencional disponible en la actualidad.

Sin embargo, y a pesar de que la prensa se hizo eco de algunos discretos avances en este campo, en los diez años transcurridos de aquel anuncio ningún laboratorio pudo construir un ordenador cuántico más potente que aquel. El motivo principal detrás de esta falta de avances concretos se encuentra en el corazón mismo del sistema utilizado. En 2001, el equipo trabajó con una técnica basada en la resonancia magnética nuclear, con la que se manipulaban los núcleos atómicos de una molécula de forma independiente. Tal como ocurre cuando un paciente se somete a un análisis utilizando una de estas máquinas, el ordenador cuántico enviaba ondas de radio a los núcleos y luego escuchaba su "eco". La técnica es bien conocida, y funciona con todo tipo de moléculas, incluidas la acetona, el alcohol, la cafeína y -por supuesto- la elegida por el equipo de IBM/Stanford, un compuesto ferroso llamado perfluorobutadienyl iron.


Nitrógeno y diamantes
Pero esta técnica tiene un talón de Aquiles. La señal devuelta por una sola molécula es demasiado débil, por lo que el ordenador debe utilizar una enorme cantidad de ellas para efectuar sus cálculos. Y esta situación impone severos límites a la escalabilidad del sistema. Este es el principal problema que mantuvo a los físicos estancados durante tanto tiempo. Pero un equipo de la Universidad de Harvard, liderado por Mike Grinolds parece haber resuelto este problema, reduciendo drásticamente el tamaño del "cabezal de lectura" de la máquina de resonancia magnética. Utilizando un potente imán pueden crear un gradiente de campo magnético muy poderoso en un volumen de espacio de sólo unos pocos nanómetros, lo que les permite estimular y controlar la resonancia magnética de electrones individuales. Los miembros del equipo de Grinolds han utilizado su invento sobre muestras de nitrógeno incrustados en diamante. El diamante proporciona una excelente protección contra el medio ambiente, y las reacciones del nitrógeno son fáciles de ver por los fotones que emiten.

Colocando juntos varios de estos objetos de forma adecuada, se pueden crear puertas lógicas cuánticas, funcionales gracias a la nueva técnica de resonancia magnética. Grinold asegura que su descubrimiento tiene "interesantes aplicaciones potenciales, que van desde sensibles magnetómetros a nanoescala hasta procesadores de información cuántica escalables." Este avance es fácilmente duplicable en otros laboratorios. Las muestras de nitrógeno en diamante se utilizan desde hace años, y el equipo de resonancia puesto a punto por Grinold es relativamente simple de duplicar. Si a esto le sumamos el hecho de que quien ponga a punto un ordenador cuántico realmente funcional seguramente será un firme candidato a obtener el Premio Nobel de Física, tenemos todos los elementos necesarios para que la carrera hacia la informática cuántica vuelva a ser emocionante.
 
Jesús E Ramirez C
caf

Transmisión en vivo en HD para cualquier videocámara

La transmisión en vivo y en directo de alta calidad es un fenómeno que en general está fuera del alcance del usuario promedio y que el sólo hecho de pensar en el término puede remitir a exagerados artefactos cuyo costo y operación técnica requieren inversión y entrenamiento. Esta presunción de dificultad se ha ido agotando con el correr de los días y las presentaciones que han hecho grandes compañías del rubro como Qik con su sistema de captura y envío automático de video a la red desde móviles. Pero ahora hay algo mejor, y viene de parte de una de las compañías que está más inmersa en el tema, Teradek. Acaban de presentar Teradek Cube, un sistema de transmisión en vivo a través de streaming desde cualquier cámara.

Teradek Cube funciona como un complemento que se conecta a casi cualquie video cámara y crea un puente digital para que la codificación del video en curso sea transmitido en vivo a través de redes WIFI o Ethernet sin elementos de terceros, crean una vía rápida para la transmisión para usar en cualquier medio de comunicación y aprovechando la alta calidad de los dispositivos de grabación de hoy día, prestaciones que son imposible acceso para agencias modestas. Incluso para redes pequeñas, la existencia de los codificadores y decodificadores Cube permiten conexiones utilizando móviles o hasta iPads, lo que le daría un nuevo impulso al videobloging en vivo y acercaría al usuario promedio a una transmisión en vivo profesional. A parte de la conexión y el adaptador adecuado para la cámara, Cube no requiere el uso de ningún tipo de software, así que será cuestión de "enchufarlo" y ponerse a transmitir.
La transmisión en vivo y en directo de alta calidad es un fenómeno que en general está fuera del alcance del usuario promedio y que el sólo hecho de pensar en el término puede remitir a exagerados artefactos cuyo costo y operación técnica requieren inversión y entrenamiento. Esta presunción de dificultad se ha ido agotando con el correr de los días y las presentaciones que han hecho grandes compañías del rubro como Qik con su sistema de captura y envío automático de video a la red desde móviles. Pero ahora hay algo mejor, y viene de parte de una de las compañías que está más inmersa en el tema, Teradek. Acaban de presentar Teradek Cube, un sistema de transmisión en vivo a través de streaming desde cualquier cámara.

¿Cuántas cosas buenas y malas se podrán transmitir en vivo con Teradek Cube?
Teradek Cube funciona como un complemento que se conecta a casi cualquie video cámara y crea un puente digital para que la codificación del video en curso sea transmitido en vivo a través de redes WIFI o Ethernet sin elementos de terceros, crean una vía rápida para la transmisión para usar en cualquier medio de comunicación y aprovechando la alta calidad de los dispositivos de grabación de hoy día, prestaciones que son imposible acceso para agencias modestas. Incluso para redes pequeñas, la existencia de los codificadores y decodificadores Cube permiten conexiones utilizando móviles o hasta iPads, lo que le daría un nuevo impulso al videobloging en vivo y acercaría al usuario promedio a una transmisión en vivo profesional. A parte de la conexión y el adaptador adecuado para la cámara, Cube no requiere el uso de ningún tipo de software, así que será cuestión de "enchufarlo" y ponerse a transmitir.
Cube™ native integration with Livestream.com from Teradek on Vimeo.
Como se ve en el video, las dimensiones del Teradek Cube no parecen agregar mucho peso a una video cámara, por lo que la portabilidad es absoluta. Además de las cualidades que posee de por sí Cube, en pos de la promoción de este producto que ronda los 1500 dólares de costo para los paquetes más sencillos que pueden soportar tecnología 4G LTE provista por Verizon, Teradek promete regalar una cuenta de Livestream para cada uno de los compradores. Las conexiones HDMI están disponibles en toda la serie, por lo que pensar en una transmisión en vivo a alta calidad presionando un botón es ahora algo más factible para cualquiera de nosotros.
http://vimeo.com/20660563
 
Jesús E Ramirez C
caf

Radeon HD 6990: El nuevo monstruo de AMD

Hasta hace poco tiempo, la Geforce GTX 580 de Nvidia era una de las mejores cosas que el dinero podía comprar. Este detalle aún no se ha visto alterado, ya que continúa siendo una tarjeta con un rendimiento de otro planeta. Pero por cada carta revelada de un lado, la respuesta por parte del otro se vuelve inevitable. AMD ya tenía en el mercado un producto que podía superar a lo mejor de Nvidia, con un detalle importante: La Radeon HD 5970 es una tarjeta con dos chips en su interior, y más memoria disponible. Sin embargo, la HD 5970 está a punto de cumplir un año y medio en el mercado, y el siguiente ejemplar de Nvidia con dos chips (la esperada GTX 590) está programado para el primer cuatrimestre de este año. De más está decirlo, AMD necesita de un soldado para proteger el fuerte.


Y así encontramos a la Radeon HD 6990, la nueva tarjeta insignia del gigante de Sunnyvale. Con el nombre código "Antilles", y basada en la familia de tarjetas "Northern Islands", la HD 6990 tiene unas especificaciones impresionantes. Básicamente, es la HD 6970 multiplicada por dos, sobre un mismo PCB. Dos chips con 2.640 millones de transistores, y 4 GB de RAM GDDR5 forman la base de la tarjeta. Sin embargo, encontramos velocidades de reloj un poco más bajas en comparación con la HD 6970, 830 Mhz de núcleo y 1250 Mhz de memoria respectivamente. La razón para esto no es otra más que el consumo energético y la generación de calor. Para quienes decidan que pueden darse el lujo de exprimir un poco más a la tarjeta, AMD integró en la HD 6990 un interruptor que coloca tanto a los chips como a la memoria en sus velocidades originales.

Semejante bestia concentrada en un sólo PCB tiene sus consecuencias. En el modo "por defecto", la HD 6990 posee un umbral térmico de 375 vatios, pero con sus relojes liberados con el interruptor, el TDP puede ascender a unos temerarios 450 vatios. Estamos hablando de picos de temperatura que pueden llegar a los 95 grados Celsius, una generación de ruido que roza los setenta decibelios, y un requerimiento de fuente de alimientación no menor a 800 vatios. Al mismo tiempo, esta tarjeta necesita de una cuidadosa instalación en una carcasa que pueda resolver rápidamente los problemas de acumulación de calor en su interior. ¿Qué es lo que entrega AMD a cambio de estas molestias? Nada menos que la tarjeta más rápida del mercado. En promedio se ubica veinte cuadros por segundo por encima del mejor día que pueda tener una GTX 580, y no hay escasez de escenarios en donde la diferencia es mayor. El costo de la HD 6990 es de 700 dólares, y aunque algunos ya han destacado que comprar dos 6970 para instalarlas en CrossFire es más eficiente, nadie le quita a AMD el privilegio de estar en la cima... al menos hasta que veamos a la GTX 590.
 
Jesús E Ramirez C
caf

¿Cómo se fabrica un microprocesador?

Cuando los transistores comenzaron a desbancar a los tubos de vacío en la mayoría de los circuitos electrónicos, el material que se empleaba para construirlos era el germanio.

No mucho tiempo después comenzó a utilizarse el silicio, cuyo costo, características y abundancia lo hacían mucho más interesante. El silicio es el elemento mas abundante en la corteza terrestre (27,7%) después del oxigeno.

Su uso en la electrónica se debe a sus características de semiconductor. Esto significa que, dependiendo de que materiales se le agreguen (dopándolo) puede actuar como "conductor" o como un "aislador".
Durante los últimos 40 años, este modesto material ha sido el motor que impulsa la revolución microelectrónica. Con el silicio se han construido incontables generaciones de circuitos integrados y microprocesadores, cada una reduciendo el tamaño de los transistores que lo componen. Puestos a hablar de tamaños, en la superficie de un glóbulo rojo podríamos acomodar casi 400 transistores. O, ya que estamos, se pueden poner unos 30 millones sobre la cabeza de un alfiler. Es decir, son pequeños de verdad.

Pero ¿Cómo es posible fabricar algo tan pequeño? El proceso de fabricación de un microprocesador es complejísimo, y apasionante. Todo comienza con un buen puñado de arena (compuesta básicamente de silicio), con la que se fabrica un monocristal de unos 20 x 150 centímetros. Para ello, se funde el material en cuestión a alta temperatura (1370º C) y muy lentamente (10 a 40 mm por hora) se va formando el cristal.


De este cristal, de cientos de kilos de peso, se cortan los extremos y la superficie exterior, de forma de obtener un cilindro perfecto. Luego, el cilindro se corta en obleas (wafer) de menos de un milímetro de espesor, utilizando una sierra de diamante. De cada cilindro se obtienen miles de wafers, y de cada oblea se fabricarán varios cientos de microprocesadores.

Estas obleas son pulidas hasta obtener una superficie perfectamente plana, pasan por un proceso llamado "annealing, que consiste en un someterlas a un calentamiento extremo para remover cualquier defecto o impureza que pueda haber llegado a esta instancia. Luego de una supervisión mediante láseres capaz de detectar imperfecciones menores a una milésima de micrón, se recubren con una capa aislante formada por óxido de silicio transferido mediante deposición de vapor.

De aquí en más, comienza el proceso del "dibujado" de los transistores que conformarán a cada microprocesador. A pesar de ser muy complejo y preciso, básicamente consiste en la "impresión" de sucesivas máscaras sobre el wafer, que son endurecidas mediante luz ultravioleta y atacada por ácidos encargados de remover las zonas no cubiertas por la impresión. Salvando las escalas, se trata de un proceso comparable al visto para la fabricación de circuitos impresos.

Cada capa que se "pinta" sobre el wafer permite o bien la eliminación de algunas partes de la superficie, o la preparación para que reciba el aporte de átomos (aluminio o cobre, por ejemplo) destinados a formar parte de los transistores que conformaran el microprocesador.

Dado el pequeñismo tamaño de los transistores "dibujados", no puede utilizarse luz visible en este proceso. Efectivamente, la longitud de onda de la luz visible (380 a 780 nanómetros) es demasiado grande. Los últimos procesadores de cuatro núcleos de Intel están fabricados con un proceso de 45 nanómetros, empleando una radiación ultravioleta de longitud de onda más pequeña.
Un transistor construido en tecnología de 45 manómetros tiene un ancho equivalente a unos 200 electrones. Eso da una idea de la precisión absoluta que se necesita al momento de aplicar cada una de las mascaras utilizadas durante la fabricación.

Una vez que el wafer ha pasado por todo el proceso litográfico, tiene "grabados" en su superficie varios cientos de microprocesadores, cuya integridad es comprobada antes de cortarlos. Se trata de un proceso obviamente automatizado, y que termina con un wafer que tiene grabados algunas marcas en el lugar que se encuentra algún microprocesador defectuoso.

La mayoría de los errores se dan en los bordes del wafer, dando como resultados chips capaces de funcionar a velocidades menores que los del centro de la oblea. Luego el wafer es cortado y cada chip individualizado. En esta etapa del proceso el microprocesador es una pequeña placa de unos pocos milímetros cuadrados, sin pines ni capsula protectora.

Todo este trabajo sobre las obleas de silicio se realiza en "clean rooms" (ambientes limpios), con sistemas de ventilación y filtrado iónico de precisión, ya una pequeña partícula de polvo puede malograr un procesador. Los trabajadores de estas plantas emplean trajes estériles para evitar que restos de piel, polvo o pelo se desprendan se sus cuerpos.

Cada una de estas plaquitas será dotada de una capsula protectora plástica (en algunos casos pueden ser cerámicas) y conectada a los cientos de pines metálicos que le permitirán interactuar con el mundo exterior. Cada una de estas conexiones se realiza utilizando delgadísimos alambres, generalmente de oro. De ser necesario, la capsula es dotada de un pequeño disipador térmico de metal, que servirá para mejorar la transferencia de calor desde el interior del chip hacia el disipador principal. El resultado final es un microprocesador como el que equipa nuestro ordenador.

Todo el proceso descrito demora dos o tres meses en ser completado, y de cada cristal de silicio extrapuro se obtienen decenas de miles de microprocesadores. La diferencia astronómica entre el costo de la materia prima (básicamente arena) y el producto terminado (microprocesadores de cientos de dólares cada uno) se explica en el costo del proceso y la inversión que representa la construcción de la planta en que se lleva a cabo.
 
Jesús E Ramirez C
caf

CCD vs CMOS

El elemento básico que determina las características de una cámara fotográfica digital es el sensor, dispositivo electrónico-digital que reemplaza a la película.
Es una matriz de pequeñas celdas perfectamente alineadas en filas y/o columnas. Cada una de esas celdas es un elemento fotosensible microscópico, con la capacidad de producir impulsos eléctricos de distinta intensidad en función de la cantidad de luz que recibe. Cada celda es, entonces, como un pequeño "fotómetro" que producirá un flujo eléctrico variable sobre la base de cantidad de luz que incida en su superficie. Este dispositivo, a pesar de su fotosensibilidad, percibe las variaciones de intensidad de la luz, pero sin distinguir los colores de la imagen. Es un dispositivo "ciego" al color.

Para que el sensor pueda captar los colores, se deben emplear filtros que dividan los colores de la escena en rojo, verde y azul. Los primeros equipos de fotografía digital Sinar, venían equipados con esos tres filtros de color (RGB), montados en una rueda rotativa, través de los cuales se efectuaban exposiciones sucesivas. Todavía se comercializa hoy la cámara CMOS-Pro de Sound Vision, que conectada a la computadora permite fotografiar escenas estacionarias a través de tres exposiciones en color.

En el caso de los respaldos de escaneado para cámaras de estudio como, por ejemplo el Phase One, el sensor está compuesto por tres filas contiguas de elementos sensibles, cada una de ellas sensible al azul, al verde y al rojo. Este sensor recorre en forma longitudinal el plano focal de la cámara de estudio capturando la información de modo secuencial, sin tener posibilidad de captura.
Estos equipos son sólo aptos para la fotografía de estudio de sujetos estáticos. El sistema de rueda rotativa permite la captura con tres disparos sucesivos de flash, en tanto que el respaldo de escaneado requiere luz continua. Muchas veces, esta luz continua debe ser estabilizada mediante un estabilizador ferro-resonante de alta potencia, para evitar la aparición de bandas en la imagen debidas a fluctuaciones de voltaje.


Estos dos sistemas, el de rueda rotativa de filtros o el de escaneado, vuelcan la información directamente en cada canal del archivo RGB en forma directa. Por eso decimos que estos son dispositivos que trabajan sin interpolación. Cada celda en el sensor se corresponde con un pixel de la imagen, de modo que se obtiene una foto de gran pureza.

La cosa se complica cuando queremos fabricar un dispositivo que funcione en color con disparo único. Para esto, se colocan en las diferentes celdas del sensor pequeños filtros de color azul, verde y rojo.

Esto genera una limitación física a la resolución, porque con cada celda de la matriz sólo podremos capturar la luz de un solo color, y el archivo resultante sería en consecuencia muy pequeño, generándose además "huecos" de información.

El problema se soluciona "rellenando" estos huecos mediante técnicas matemáticas de interpolación, en las que el soft de la cámara calcula el color posible de una celda sobre la base de los colores de las celdas adyacentes. La mayoría de las cámaras actuales usan este tipo de sensores de un solo disparo.

La información que entrega el sensor consiste en diferentes niveles de corriente eléctrica para cada celda. Esta información es procesada por un DAC (Digital-Analog Converter o Conversor Analógico-Digital), donde la señal eléctrica es convertida en datos digitales. Aquí es donde tiene lugar la interpolación. Luego esos datos digitales son archivados en la memoria de la cámara o enviados a la computadora. De modo que el tamaño del sensor es tan importante como la tecnología usada para la interpolación de la imagen. En algunas cámaras, este procesado de la imagen puede ser programado -en parte- por el propio usuario, especificando diferentes parámetros de nitidez, tono, contraste, y calidad final.




Tipos de sensores de un solo disparo

Pueden estar basados en dos tipos de tecnologías, CCD (Charged Couple Device) o CMOS (Complementary Metal Oxide Semiconductor). Los sensores CCD tienen mayor sensibilidad a la luz, más calidad y también precio más alto, en tanto que los de tipo CMOS son menos sensibles y de menor calidad, pero al ser fáciles de fabricar son más baratos. Tradicionalmente se utilizaron los CCD para las cámaras profesionales y semiprofesionales y los CMOS para las cámaras de aficionados y las Web-cam.

La noticia es que esta distribución parece estar cambiando. Algunas cámaras como la Foveon y la Canon D30 están basadas en el sensor CMOS y su rendimiento es alto. Seguramente algunos fabricantes incorporarán a sus próximos modelos la tecnología CMOS, en tanto que otros continúan mejorando las prestaciones del CCD.

El consumo de energía

Uno de los problemas más grandes que tiene cualquier dispositivo portátil es el del consumo eléctrico.

Las cámaras digitales no están exentas de este problema, en parte por el monitor LCD y en parte por el consumo del sensor. Los CMOS están altamente optimizados, de modo que consumen entre 30 y 50 mW, en tanto que un CCD consume entre 2 y 5 Watt. Este mayor consumo lleva a su vez al uso de baterías más costosas y pesadas, o a reponer pilas comunes con mayor frecuencia, generando problemas de autonomía. Es una buena comparación manipular una cámara digital conectada a la red o con batería.

La clave: diferencias tecnológicas

Mientras que en el CCD toda la información es transmitida a través de las mismas celdas vecinas hacia sus bordes, donde la información es recolectada, el CMOS tiene capacidad de transmisión en cada una de las celdas. Esto evita el afecto de "blooming" o de contaminación entre pixeles vecinos cuando hay situaciones de sobre exposición y, además, permite mejores opciones de interpolación de la imagen.

El interés en el CMOS por parte de la industria radica en que, a diferencia de la fabricación de CCDs, que debe hacerse en plantas especializadas a partir de materias primas no comunes, los CMOS pueden ser fabricados en las líneas de producción normales de semiconductores a partir de materias primas muy baratas y de uso generalizado.


Teniendo en cuenta entonces que la tecnología de fabricación del CMOS es la misma que la de los microprocesadores, tendrá que haber una baja de precios en cuanto la tecnología CMOS se adapte de manera eficiente a las cámaras digitales. Por las características de su fabricación, los CMOS son también más fáciles de interconectar a nuevos sistemas que los CCD. Porque en realidad podemos considerar al CMOS como un microprocesador. Esto quiere decir que los CMOS son una alternativa flexible para los fabricantes, y les permitirán nuevos desarrollos. Todavía el CMOS es muy sensible al ruido de imagen, tiene un rango dinámico reducido y presenta poca sensibilidad, pero sus características estructurales son mejores que las del CCD.

¿Ciencia Ficción?

Hemos visto que la principal diferencia constructiva entre el CCD y el CMOS es que las operaciones matemáticas de conversión análogo-digital y de ajuste se hacen en el CMOS en el mismo chip, en vez de requerir un circuito adicional para el cálculo.

Esto ahorra costos, permite diseños más compactos, y ha desembocado en uno de los proyectos más alucinantes que involucra a los CMOS: El Electronic Film System, propuesto por la compañía Silicon Film (*). Se trata de un casette que podría ser colocado en lugar del rollo 35 mm en una cámara fotográfica común. Tendría una resolución de 1280 X 1024 pixeles y contendría también la fuente de alimentación eléctrica y una memoria para 24 fotos. Cuando el casette se llena, se retira y se coloca en una unidad lectora para trasladar las fotos digitales a la computadora. El proyecto esta en preparación desde hace 2 años y al cierre de esta edición no hay planes todavía para su comercialización inmediata.

Conclusión

Actualmente, el nivel que ofrecen las cámaras con CCD es mejor que el de las equipadas con CMOS. Sin embargo, la calidad de estas últimas aumenta progresivamente. Las cámaras sencillas, incluso las Webcams, están ofreciendo prestaciones sorprendentes para su precio, y esa tendencia va en aumento. El CMOS es una tecnología que tiene las mejores perspectivas para el futuro.

Los datos que aquí volcamos, y la información que podamos recoger en la web (incluida la de los fabricantes) es importante. Pero para poder elegir entre una cámara equipada con un tipo de sensor y otro, el fotógrafo debe efectuar una evaluación práctica, basada en testeos propios. Ningún vendedor local de cámaras profesionales (y no profesionales también...) se niega hoy a que el futuro usuario haga una toma de prueba en su local y se lleve el archivo para evaluarlo. La lectura y comparación de datos técnicos es importante, pero es más importante chequear la cámara en las condiciones reales de uso del fotógrafo (preferencias personales, autonomía, calidad, programabilidad, tamaño y calidad de impresión final, etc.)
 
Jesús E Ramirez C
caf

Sensores inerciales

A pesar de que la tecnología MEMS (micro-electro-mechanical systems) se utiliza desde hace más de dos décadas para manejar el despliegue de los airbags de un automóvil y para sensores de presión de todo tipo, la verdadera fama y la aceptación generalizada llegaron de la mano de las consolas de videojuegos Nintendo Wii y de los teléfonos inteligentes iPhone. A partir de ciertas características particulares, estos equipos llamaron la atención de mucha gente que se preguntó: ¿como se puede realizar esta clase de transformación desde una acción mecánica hacia un resultado electrónico? Fue entonces cuando comenzaron a conocerse mejor y a cobrar notoriedad los términos acelerómetros o sensores inerciales. Hablemos de ellos.

Existen cinco movimientos físicos que puede adoptar un objeto y que pueden relacionarse con la aceleración los cuales, sumados a ésta son: vibración, golpe, inclinación y rotación. Estas opciones de aplicación, para un sencillo medidor de aceleración, expanden de manera enorme sus posibilidades de inclusión dentro de desarrollos inteligentes y novedosos. Por supuesto que no podemos dejar de mencionar los sensores de posición, traslación y orientación de un cuerpo, pero ellos serán objeto de otro artículo. Por otro lado, cabe destacar que una detección de movimiento en un mecanismo puede ser, por ejemplo, uno de los mejores elementos para desarrollar un sistema de gestión de ahorro energético. En palabras sencillas: sería informarle a nuestro (hipotético) robot alimentado a baterías, que debe entrar en un modo de consumo mínimo (sleep) ya que al interrumpirse el desplazamiento, muchos sub-sistemas no necesitan estar en funcionamiento (detección de obstáculos, drivers para motores de locomoción y muchos más). D
en este modo, estamos desarrollando un sistema inteligente que puede entender su situación de acción y actuar en consecuencia.

Aceleración, vibración, golpe (choque, shock), inclinación (tilt) y rotación (pan) son los cinco movimientos fundamentales que un sistema inteligente debe detectar a todo momento para tener un control pleno sobre el objeto que desea gobernar o interpretar. Todas son, en realidad, manifestaciones diferentes de una aceleración durante períodos de tiempo distintos. Sin embargo, los seres humanos no relacionamos de manera intuitiva estos movimientos como variaciones en la aceleración/deceleración de un cuerpo. En cambio, si tenemos en cuenta y analizamos cada modalidad por separado podremos comprender de manera más sencilla muchas posibilidades que un acelerómetro puede ofrecernos. La aceleración (incluyendo el movimiento de traslación) mide la variación de velocidad en una unidad de tiempo. La velocidad se expresa en metros por segundo (m/s) e incluye tanto la tasa de desplazamiento como la dirección del movimiento (vector). Del análisis planteado se deduce que la aceleración se mide en metros por segundo al cuadrado (m/s2). Cuando la aceleración adopta un valor negativo (imagínate un coche reduciendo su velocidad cuando el conductor aplica los frenos) se la conoce como la des-aceleración (desaceleración).

Consideremos ahora la aceleración en varios períodos separados de tiempo. La vibración puede considerarse como una aceleración seguida de una desaceleración y una nueva aceleración en el sentido inverso de traslación que ocurre rápidamente y de manera periódica. Del mismo modo, el choque es una des-aceleración que se produce de forma instantánea. Ahora volvamos a estirar los tiempos en que suceden los acontecimientos. Cuando un objeto se mueve y modifica su inclinación existen cambios donde la acción gravitatoria está involucrada. Ese movimiento tiende a ocurrir de forma lenta en comparación con un evento de vibración o de choque. Debido a que estos primeros cuatro modos de detección de movimiento (aceleración, vibración, choque e inclinación) se producen con la participación de determinados aspectos de la aceleración, se los mide con la unidad de la fuerza que ejerce la gravedad sobre un objeto en la Tierra, es decir, por la fuerza "g". (Recordemos que una unidad g es igual a 9,8 m/s2.) Un acelerómetro detecta la inclinación al medir el efecto que la fuerza de la gravedad ejerce sobre los ejes del acelerómetro que estén expuestos a esta acción en función de su posición en el espacio. Es decir, si consideramos un acelerómetro de tres ejes inerciales (X, Y, y Z) debemos considerar las tres acciones de aceleración por separado para obtener los productos (resultados) de los ejes de movimiento.

La mayoría de los acelerómetros que existen en la actualidad en el mercado contrastan sus mediciones con la fuerza de gravedad y luego convierten sus resultados en Voltios o en Bits (para el caso de los dispositivos con salida digital). Esta información se pasa a un microprocesador/microcontrolador y allí se realiza el proceso de interpretación de los datos adquiridos y se presentan de modo audiovisual o se los utiliza para ejecutar otras instrucciones de programa. Los recientes avances de la tecnología han hecho posible la fabricación de pequeños acelerómetros de tecnología MEMS (micro-electro-mechanical systems) en los rangos de detección de bajas y altas unidades de gravedad con anchos de banda mucho más amplios que antes, aumentando de este modo el campo de las aplicaciones potenciales. Se considera un rango de "bajo-g" de detección a valores inferiores a 20 g y dentro de este grupo se encuentran las acciones de movimiento que un ser humano puede generar. En consecuencia, las unidades de "alto-g" se utilizan en los movimientos de máquinas o vehículos, es decir, en los sistemas que el ser humano no puede recrear.


Hasta aquí sólo hemos hablado de movimientos lineales, específicamente del tipo de movimiento que incluye aceleración, vibración, choque e inclinación. La rotación en cambio requiere la comprensión de un movimiento angular. Este modo difiere de los anteriores porque la rotación puede tener lugar sin observarse cambios en la aceleración. Para entender cómo funciona debemos observar la imagen de un sensor inercial de 3 ejes, es decir, debemos imaginar a los ejes del sensor X e Y en posición paralela a la superficie de la Tierra y el eje Z apuntando hacia el centro de la Tierra. En esta posición, el eje Z entrega una medición de 1 g, mientras que los ejes X e Y obtienen una medición 0 g. Girando el sensor de movimiento sólo sobre el eje Z, los ejes X e Y nunca abandonan la medida de 0 g ya que no sufren desplazamientos lineales en ninguna dirección, en tanto que el eje Z siempre continúa entregando la medida de 1 g ya que está siempre en el mismo lugar sin avanzar, ni retroceder. Por lo tanto, entendemos de este modo que para detectar los movimientos de rotación de un cuerpo se utilizan los giróscopos. En el mercado actual es común encontrar en una única unidad de medición inercial (IMU) un giróscopo y un acelerómetro multi-ejes destinados a medir los cinco movimientos fundamentales enunciados al comienzo del artículo.
 
 
Jesús E Ramirez C
caf

Taiwan Researchers Seek to Perfect LED Backlights, MEMS

A government-funded research institute in Taiwan have kicked off a three-year effort to develop cheaper, longer-lasting LED backlights in mobile phones, notebook PCs and television sets, a project manager said on Friday.

Taiwan's Industrial Technology Research Institute (ITRI) established a research center late last month with U.K.-based developer Oxford Instruments to study high-brightness LED (light emitting diode) screens.



Findings along the way should make backlights cheaper for manufacturers and more resilient for consumers, said Lin Chin-yuan, micro-systems technology center manager with the research institute. LED backlights are normally used in LCD (liquid crystal display) screens. The technology is replacing CCFL (cold cathode fluorescent lamps) as backlights in products from mobile phones to LCD TVs because LEDs are brighter and more energy efficient.


The 23-person research team will look at a packaging process and the micro-structure technology behind high-brightness LEDs to come up with "new and improved technology," the institute said in a statement. The institute would not say how much the project would cost.


Lin said he was unable to estimate the cost savings or new lifespan of backlights following the research results, which will be made available to Taiwan product designers.

Work to date by Taiwan's research institute has helped the island's numerous high-tech hardware manufacturers stay competitive with rivals in Japan, South Korea and elsewhere. The research institute develops new technologies, files patents and licenses the discoveries cheaply to Taiwanese companies. It brought in Oxford Instruments because of the company's experience with LED, Lin said.

Over the same three years, the institute and Oxford Instruments will look into perfecting micro-electromechanical systems (MEMS), the sensor technology behind wireless motion-based gaming machines such as the Wii, Lin said. That research comes as the market for motion-sensing game machines grows.

MEMS research results should lower the manufacturer cost of sensors while increasing their performance, Lin said.
 
Jesús E Ramirez C
caf

Nano-robot modificador de ADN

Científicos chinos y estadounidenses han logrado desarrollar en conjunto un micrométrico robot con brazos capaz modificar el ADN al colocar bases en los eslabones moleculares con una precisión del 100%. Es considerado el dispositivo más pequeño conseguido para fines nano-tecnológicos.

Los parásitos microscópicamente alojados en nuestro organismo humano no serán dentro de poco los únicos huéspedes internos, ya que científicos chinos y estadounidenses han logrado diseñar un nano-robot articulado capaz de ayudar en la modificación del Ácido Desoxirribonucleico (ADN), toda una hazaña de la ingeniería física-electrónica para el campo de la genética.El robot registra dimensiones de 150 x 50 x 8 nanómetros.

Este proyecto fue y es actualmente liderado por investigadores de la Universidad de Nanjing (China) y de la Universidad de Nueva York (Estados Unidos) quienes festejaron los resultados de su diseño dotado con capacidades de manipular individualmente átomos y moléculas.

El robot registra dimensiones de 150 x 50 x 8 nanómetros (tamaño equiparable a una sub-medida de un millón de veces más pequeño que un glóbulo rojo de sangre). En base con los reportes de los científicos, esta cualidad le confiere al robot la facilidad de colocar bases en una molécula de ADN con una precisión perfecta del 100%.


Dr. Nadrian Seeman, científico de la Universidad de Nueva York.

Algunas de los resultados de los experimentos finales con el robot aparecieron en la revista especializada "Nature Nanotechnology", en donde el doctor Nadrian Seeman, miembro académico de la universidad neoyorquina recitó las virtudes de su invención y apuntó que además el nano robot permite colocar las bases en la posición que más convenga debido a los brazos que posee.

La estructura del robot consiste en una red de cadenas de ADN unidas entre sí de manera delicada y reforzada por cientos de hebras más cortas.
En la imagen pasada se muestra cómo se capturan las distintas etapas de manipulación nano-robótico, además se observa en el panel cómo la matriz de Origami (como es comparada la estructura del pequeño robot) posee ranuras para los casetes y una hendidura para permitir el reconocimiento de la orientación. Tanto las ranuras como la hendidura son visibles en el AFM (Micrografías de Fuerza Atómica).

Cabe destacar que este dispositivo ha sido considerado como el más pequeño desarrollado en el campo de la nanotecnología y principalmente para efectos de tareas genéticas a nivel molecular y atómico.

El informe subraya que el Dr. Seeman ha trabajado participado precedentemente en otros proyectos de nanotecnología, sin embargo todos ellos enfocados al campo de la genética.

Finalmente el prototipo ha demostrado tener una gran precisión y los registros de experimentación final confirman que el nano-robot del Dr. Seeman y sus colaboradores supera en gran medida otros proyectos desarrollados para el mismo fin cuyas fronteras de éxito sólo llegaban al 60 ó 70 por ciento de precisión.
 
 
 
 
 
 
 
 
Jesús E Ramirez C
caf

Desarrolla Toshiba nuevo MOSFET-Espintrónico

La nueva técnica permite a la compañía crear la primera unidad lógica basada en tecnología Spintronic o Transporte de Movimientos Electrónicos con MOSFET, lo que produce un rango alto de operatividad para la excitación magnética de los electrones.

La primera unidad lógica que permitirá la mejora de los dispositivos electrónicos venideros con mayor desempeño, eficiencia energética y miniaturización de tamaño, fue adjudicado el pasado 7 de diciembre a la compañía japonesa de electrónica, Toshiba.

En el marco de las celebraciones del Congreso Internacional de Dispositivos Electrónicos en la ciudad de Baltimore, Maryland (Estados Unidos), representantes de la firma presentaron la nueva "célula" como ellos la llamaron y la cual está desarrollada con tecnología Spintronics o Spin Transport Electronics, una técnica que conlleva al traslado magnético de los saltos de los electrones.

Por si fuera poco, este elemento está elaborado bajo el ya tradicional método MOSFET (Transistores Semiconductores Óxido-Metal efecto-campo) lo cual le confiere la seguridad de una distorsión más baja al controlar el desprendimiento térmico que se produce durante el procesado de la señal.



Al contar por decirlo así con una hibridación tecnológica entre Spintronic y MOS efecto-campo, la nueva propuesta de Toshiba no se ve limitada al perfeccionamiento de tal tecnología para futuros componentes de integración electrónica más pequeños, más eficientes y con menor consumo, pues cabe recordar que en contraposición MOSFET como tecnología se encuentra en vísperas de topar con pared ante factores tendenciales como la miniaturización, incremento de desempeño y reducción de consumo de energía, lo cual es muy limitado para los dispositivos que poseen en su interior tecnología MOSFET, mas no para Spintronics.



Para comprobar que la tecnología más confiable para dar un salto a la frontera tecnológica conformada por rasgos limitantes en la micro-electrónica, lo ingenieros de Toshiba han determinado llevar a cabo una serie de pruebas con su nueva unidad y documentarla en distintas aplicaciones, según precisa el informe de prensa de la firma.

Para entender la propuesta de esta tecnología, el reporte comenta que los Electrones hallados en una capa magnética son naturalmente polarizados en uno ó dos estados de movimiento: abajo o arriba. Señala que tales estados son más o menos permanentes en la misma capa magnética, lo que permite utilizar las características no-volátiles para almacenar datos.

En esta etapa la corriente es fluida hacia el mismo estado del movimiento o Spin sobre la misma capa magnética, lo cual produce a su vez un cambio considerable en la Impedancia del ambiente para determinar con ello la lectura de señal en el spin del dispositivo.



Tal y como se muestra en la imagen anterior, Toshiba ha introducido las capas magnéticas en la misma fuente y drenado la célula MOSFET de tal manera que se pueden controlar exitosamente la dirección del movimiento o spin. Para hacer esto, los ingenieros de la firma se sirvieron de un método conocido como Spin-Transfer-Torque-Switching (STS) y aplicando una puerta y fuente de dren de voltajes.

Asimismo se usó un empalme de un túnel magnético para la lectura de la operación del STS en las capas magnéticas las cuales forman una completa aleación Hausler,un complemento inter-metálico que actúa como alto polarizador de spines.

Con esto, Toshiba aseguró la veracidad de su propuesta debido al desempeño práctico en el nivel del transistor del dispositivo escalable basado en tecnología MOSFET-Spintronics que promete de alguna manera una rápida selección de escritura y accesibilidad a nivel mayor que una tecnología ordinaria con solo MOSFET y por supuesto una reducción valiosa en el consumo de energía.

Finalmente se subraya que esta tecnología abrirá la puerta a la siguiente generación de dispositivos electrónicos con semiconductores no-volátiles y con la capacidad de ser utilizados como dispositivos reconfigurables.
 
Jesús E Ramirez C
caf

Posible método sustituto para litografía

El nuevo sistema inventado por investigadores de la firma IBM permite crear modelos 3D que facilitan el desarrollo de componentes para chips de Silicio en la carga de circuitos ópticos a escalas tan pequeñas que los actuales circuitos electrónicos resultan ineficientes.

Una nueva técnica desarrollada por ingenieros investigadores de la compañía International Business Machines (IBM), permitirá la creación de modelados tridimensionales (3D) aplicables al diseño nanométrico en chips de Silicio y CMOS, por mencionar algunos.

En un informe generado por el departamento de prensa de IBM, se subscribe que la técnica también permitirá abrir paso a nuevas tecnologías para evolucionar o bien sustituir la actual técnica litográfica electrónica (EBL).

A comparación del EBL (Electron Beam Lithography) o Litografía por haz de Electrones, el método de IBM podría entonces reducir los costos de manufactura y desarrollo hasta en un 90% en comparación con el actual sistema EBL, además el ciclo de trabajo resultaría más eficaz pues sería más rápido.


En el mismo informe Michel Despont, físico y co-autor de este documento de investigación, explicó que otro de los beneficios encontrados en el nuevo método es la poca cantidad de procesos que se ocupan para llevarlo a cabo, a diferencia del EBL. Asimismo mencionó que incluso puede ser utilizado para crear estructuras 3D, lo que significa que podría ser usado para un sin fín de aplicaciones no sólo para el sector de diseño electrónico.

En primera instancia, los investigadores comenzaron con un modelo de 25 nanómetros tomando como base un voladizo montañoso llamado Matterhorn localizado entre Italia y Suiza, y la cual posee una altura de aproximadamente 4 kilómetros de altura.



El modelo tridimensional fue construido en escasos 3 minutos y esculpido en una sustancia vidriosa que es al mismo tiempo un material orgánico. Este material orgánico estaba expuesto en una micro lámina condensada de 500 nanómetros de longitud y 5 nanómetros de espesor con bases de Silicio, la cual fue sometida incluso a una temperatura superior a los 330°C, y por cuestiones de microsegundos, soportó la prueba.
Los científicos aplaudieron la resistencia de este material pues reconocieron que si hubiese sido otro material común usado en la industria del Silicio, tales como las cadenas de Hidrógeno, no hubieran resistido.

La demostración produjo al mismo tiempo un mapa tridimensional a nanoescala de 22 x 11 micrómetros. Según el informe de prensa de IBM, el mapa 3D es tan pequeño, que incluso se pudiera dibujar sobre un grano de sal.

Entre sus objetivos a corto o mediano plazo se encuentra la reducción de dibujos nanométricos más pequeños que los 15 nm que alcanza a la fecha, pues creen que esto será posible gracias a la flexibilidad del sistema.

El documento fue publicado en el periódico "Science" y en el mismo aparecen algunas declaraciones de los responsables del invento, indicando que uno de sus prontos planes para esta técnica es la creación de meta-materiales, componentes ópticos para el prototipado de CMOS (Complementary Metal-Oxide Semiconductor), componentes nano-electrónicos, e incluso nanotubos de auto-formación.

Desafortunadamente el líder del proyecto comentó que el sistema no sería por lo pronto comercializado sino dentro de unos 5 años más adelante, aunque señaló que en el caso de Universidades o Centros de Investigación, el sistema será puesto a disposición antes de este tiempo.

En el siguiente video se observa brevemente el proceso de este sistema en el modelado de la montaña Matterhorn en capas moleculares. La superficie inicial fue imaginada y seguida de márgenes que fueron llevados con casi 12 pasos de dibujo entre los propios márgenes.

Jesús E Ramirez C
caf

domingo, 13 de marzo de 2011

Giroscopio MEMS mejora estabilización de cámaras

La estabilización de cámaras tales como las usadas para la seguridad y monitoreo dependen de un buen circuito estabilizador. Este sistema Microelectromecánico ha sido desarrollado para mejorarla.

La compañía InvenSense Inc., presentó un nuevo avance en el sector MEMS (Sistemas Microelectromecánicos) aplicados al área de monitoreo y seguridad con cámaras.

Lo interesante de su propuesta reside en lo barato que resulta el sistema como tal y la cantidad de aplicaciones que se le puede conferir por ser un sistema de Estabilización para Imágenes Ópticas (OIS, por sus siglas en inglés).


Este proyecto ha sido identificado como el primer dispositivo de su tipo en el mercado ya que cuenta con ejes duales desmontables (X-Y) sobre el mismo giroscopio ideal para su adición a video-cámaras y cámaras digitales.

Las dimensiones definidas para la generación "IDG-2000" corresponden a 4 mm x 4 mm x 0.9 mm en encapsulado QFN. Este mismo chip está diseñado para aplicaciones OIS en cámaras digitales y aquellas con alta resolución para 8 Megapixeles o superior.

El informe señala que el IDG-200 destaca al mismo tiempo la adición de dos convertidores analógico-digital (ADC) de 16 bits, además de un filtro digital programable "low-pass" y filtros optimizados para las mismas aplicaciones OIS. Finalmente se integra un sensor de temperatura y ajustes.

En el caso del ADC, éste permite la comunicación directa con los procesadores avanzados de imágenes sobre los protocolos I2C, Interface Serial-Periférica (SPI) bus, y con esto el resultado es la eliminación de otros componentes discretos adicionales para el funcionamiento del sistema de estabilización.

"Fuimos desde las 6 pulgadas en la oblea, hasta las 8 pulgadas, a fin de incluir más funciones y bajar los costos del chip", comentó Steve Nasiri, fundador y presidente de InvenSense. "Desarrollamos un proceso de pulverización o molienda que nos permite fabricar obleas 20% más delgadas, yendo de los 1.2 mm a los 0-9 mm".

En este mismo aspecto Nasiri estimó que actualmente el mercado de los OIS requiere de soluciones tasables económicamente en los 5 a 10 dólares, y agregó que el KIDG-2000 rondará 1 dólar sobre cantidades específicas en pedidos.

"La estabilización óptica de imágenes está convirtiéndose rápidamente en una característica clave para los consumidores que buscan nuevas cámaras", opinó Chris Chute, gerente investigador para la firma internacional IDC Digital Imaging Practice. "Inclusive con los millones de cámaras digitales siendo vendidas en el mundo, la competencia para la diferenciación de los productos acompañador con los bajos precios, están forzando que los fabricantes reduzcan más que nunca sus costos para mantenerse competitivamente en el mercado".

Esta familia de giroscopios registra un mayor ancho de banda para los filtros de bajo paso. Otro detalle es que se incluye un control automático de amplificación de ganancia, filtros de anti-usurpación y sensibilidad sobre ejes cruzados inferior a los +/- 1%
Asimismo posee con una inmunidad al ruido ambiental. Estas características están siendo monitoreadas por las variaciones de rango de frecuencia ancha desde los 0.1 Hz a los 20 Hz con un ruido excepcionalmente bajo de unos 0.033%/s-rms. La frecuencia operática en el rango de los 30 kHz es inmune al ruido ambiental. Al mismo tiempo estas características se requieren cuando se están capturando fotos con sensores de alta resolución o cuando se está utilizando una función de zoom a cualquier resolución.

Entretanto el consumo de energía se redujo para este circuito en un 50% comparado con los giroscopios analógicos con corrientes inferiores a los 2.1 V en modo activo y 5 µA en máxima energía para su modo de inactividad o "sleep mode".

Como se aprecia en esta imagen, posee un nivel de estructura novedoso para la integración en el chip del giroscopio MEMS.
 
 
Jesús E Ramirez C
caf

Estándares facilitarán diseño de microchips

Investigadores han desarrollado una nueva despensa de estándares que prometen servir como facilitadores en el diseño de circuitos complejos o SoCs. Según sus creadores, con estas técnicas los ingenieros crearán microchips más fácil, económica y rápidamente.

(ElectronicosOnline.com Magazine / Oswaldo Barajas).- En un mundo de constantes cambios y adaptaciones tecnológicas, los procesos de diseño electrónico no deben quedarse atrás y también requieren de técnicas de perfeccionamiento para lograr sintetizar el trabajo, ahorrar recursos económicos y con mayor calidad.

Lo anterior parece haber sido adoptado por científicos europeos como base de su proyecto, tras lograr crear nuevos estándares de diseño electrónico que según presumen, permitirá a los diseñadores de microchips crear más sencillamente circuitos complejos o SoC. Además significará procesos de diseño más veloces, ahorro de energía y reducción de costos del microchip debido a su nivel de eficiencia con el que serán desarrollados.

El proyecto que por ahora corre en Internet bajo el nombre de "SPRINT Project" asume la responsabilidad como mediador innovador a través de la creación de dichas técnicas para reactivar el diseño de los llamados sistemas complejos, mejor conocidos en la actualidad como Systems-on-Chip (SoC).

El reporte informativo comenta que a lo largo de los últimos años el diseño de SoCs ha comenzado a decrecer en su uso por factores tales como lo costoso que es trabajar en sus diseños, lo difícil que resulta y principalmente lo arduo que resulta su integración, lo cual además es tardado.

En este aspecto es importante reconocer que dicha complejidad se debe a que en los llamados SoCs, se encuentran embebidos -por así decirlo- en un mismo paquete bloques funcionales de señales analógicas, digitales, mixtas, e incluso funciones de radiofrecuencia (RF) tales como las encontradas en teléfonos celulares con servicios de GPS o sistemas de navegación.

Pese a que el informe expone los adelantos que han registrado las labores de diseño, también subraya algunos de los inconvenientes que han surgido en estos campos:

SoCs extraños o atípicos:


Algunos elementos de los SoCs provienen a menudo de diferentes compañías con canteras de propiedad intelectual. Dichas empresas comercian sus derechos de uso industrial para cada función a utilizar en el diseño particular de un chip.

Por otro lado, también existen diferentes interfaces físicas en sus diseños ya patentados, así que los integradores de sistemas están obligados a ligar las interfaces para adaptarlos a sus necesidades e producto, lo cual no es nada sencillo.

Al intentar esta operación los integradores de sistemas se topan entonces con una transferencia de información a un bajo nivel de mapeo, lo que involucra muchos protocolos. Aquí parte el nivel de complejidad pues entre más protocolos sean requeridos para llevar a cabo la adaptación de los sistemas integradores al SoC, esto se vuelve a su vez más costoso, tardado y riesgoso incluso para prevenir fallas en los circuitos.

USB para SoCs

El proyecto SPRINT tiene por objetivo librar de esos cuellos de botella a los ingenieros moviendo los Sistemas de Integración (SIs) del llamado "registro de transacciones" a un campo conocido como "modelo de capa de transacción" (TLM, por sus siglas en inglés).
Aquí se haya por así decirlo el talón de Aquiles para el diseño de SoC, pues en el registro de transacción se concentra la operación en la transferencia de datos –qué tipos de datos se han transferido y de qué ubicación- y no se concentra en su actual implementación, que está en el protocolo utilizado para la transferencia de datos.

El informe señala que lo anterior significa que los elementos del sistema provenientes de los distintos proveedores conformarán en un momento dado el TLM. Con esto los diseñadores no tendrán que preocuparse por los registros ya que los estándares se encargarán de ello. Asimismo los ingenieros podrán concentrarse en las transacciones que corren a través de los registros; el comunicado compara esta acción a mover un alambre a un circuito.

Participantes del proyecto han llevado a cabo demostraciones sobre el uso de su propuesta y han cosechado éxito entre la comunidad especializada en el desarrollo de SoC. En tales demostraciones, los ingenieros fueron capaces de integrar circuitos individuales 20 veces más rápido, y en el caso de la simulación del diseño de SoC fue reportado unas 500 veces más veloz que en condiciones ordinarias.

"Por supuesto, esos son laboratorios especializados de pruebas; en el mundo real la foto es un poco más compleja", advirtió Wido Kruijtzer, coordinador del Proyecto SPRINT e integrante de la plantilla de desarrolladores de la compañía NXP Semiconductor. "Pero esto refleja un gran avance en el diseño e integración de sistemas de los SoC", puntualizó.

SPRINT también desarrolló extensiones para el estándar IP-XACT (un estándar de descripción meta-dato para IP). Este esquema meta-dato tiene la consigna de crear un lenguaje común y neutral para la descripción del IP y que a su vez resulte compatible con técnicas automatizadas de integración que permitan a los integradores hacer uso del IP en múltiples fuentes con herramientas IP-XACT.

Lo que viene:

Como es bien conocido la proposición de nuevos estándares industriales lleva un largo proceso de sometimiento para que sea validado y aprobado por los organismos responsables de su gestión tales como la IEEE. Sin embargo, los responsables del SPRINT Project han manifestado confianza en que en breve se estará trabajando en reglas para su utilización con la ayuda de esfuerzos de la industria.

Otro de los organismos involucrados es la OSCI (Iniciativa Abierta de Sistemas C) y a la fecha según el comunicado de esta noticia, han adoptado algunos de los estándares del SPRINT y algunos de los socios del proyecto a su vez han integrado estándares a sus líneas de productos.
 
 
 
Jesús E Ramirez C
caf

Placas Base

En los ordenadores actuales existen seis tipos básicos de placas base, en función de la CPU: Socket 7, Socket 8, Super 7, Slot 1, Slot 2 y Socket 370. Las placas Socket 7 albergan los procesadores Pentium, K5 de AMD, 6x86 de Cyrix y Winchip C6 de IDT; ya no se venden, pues carecen de las interfaces más utilizadas en la actualidad, como
el bus AGP y el puerto USB. Estos dos estándares se incorporan en las placas Super 7, también compatibles Pentium y K6. Las placas Socket 8, muy escasas, albergan los extinguidos procesadores Pentium Pro. Las placas Slot 1 son necesarias para suministrar soporte a los Pentium II/III y Celeron, y suelen disponer del formato ATX, que reorganiza la localización de las tarjetas, para que quepa mayor cantidad en el mismo espacio, y se reduzca el cruce de cables internos. Las placas ATX también necesitan una carcasa especial ATX. Una variante son las placas Slot 2, soporte de la versión Xeon del Pentium II, utilizada en servidores profesionales. Finalmente, las placas Socket 370 alojan una versión especial de Celeron, con las mismas prestaciones que el modelo Slot 1, pero más barato para el fabricante.




El Bus y ranuras de expansión.

El bus de la placa base son los canales por donde circulan los datos que van y vienen del microprocesador. Con la aparición de microprocesadores muy rápidos se desperdiciaba parte de su potencia debido a que el bus hacía de cuello de botella, atascando los datos y haciendo esperar al microprocesador a que estuvieran disponibles los datos. Tras el tradicional bus ISA de 8 MHz han surgido otras alternativas como el Vesa Local Bus y el PCI, que ampliaban el ancho de banda de 16 hasta 32 bits. El resultado es una mejora en el rendimiento al transferir el doble de información (de 16 a 32 bits) en una misma operación. El Vesa Local Bus se quedó rápidamente obsoleto, permaneciendo el bus PCI que es el que se ha estado usando en las placas Pentium. Las placas más modernas soportan una velocidad del bus que varía entre los 50 y los 100 MHz, en función del procesador utilizado. Otros valores intermedios son 66, 75 o 112 MHz, por ejemplo. La placa también incorpora distintos multiplicadores: 2x, 3x, etc. Valores superiores a 5x comienzan a ser imprescindibles. Estos dos datos se utilizan para soportar todo tipo de procesadores. A mayor número de velocidades del bus y multiplicadores, la placa soportará mayor cantidad de procesadores. Para instalar un Pentium II a 400 MHz, por ejemplo, se configura el bus a 100 MHz y se activa el multiplicador 4x. 100x4=400 MHz. Un Pentium a 200 MHz se configura con un bus a 66 MHz y un multiplicador 3x. 66x3=198 MHz.

Todas las placas soportan diferentes voltajes. No obstante, puesto que se desconoce el voltaje de los futuros procesadores, es bueno adquirir una placa que permita establecer este valor a voluntad, mediante fracciones de 0.1 voltios.

Una placa base actual debe disponer de una ranura AGP para la tarjeta gráfica, cuatro o cinco PCI y, al menos, dos ISA para las tarjetas viejas, como modems internos, tarjetas de sonido, placas SCSI, etc. Los puertos exteriores no deben bajar de dos entradas USB, dos COM, y varios puertos en paralelo.

AGP

Este nuevo bus es capaz de paliar el cuello de botella que existe entre el microprocesador y la tarjeta gráfica.

Hemos de tener en cuenta que el actual bus PCI va a 33 MHz. (132 Mb/s máximo), una velocidad bastante inferior a la del microprocesador. AGP incorpora un nuevo sistema de transferencia de datos a más velocidad, gracias al uso de la memoria principal del PC. Las placas base que lo soportan (sólo contienen 1 slot de este tipo) son las de Pentium II con chipset de Intel 440LX AGPset y 440BX. Ya están apareciendo las placas base Super 7, con el fin de hacer el estándar compatible con procesadores que van conectados con el zócalo Socket 7, tales como los Pentium, Pentium MMX y los procesadores de AMD y Cyrix.

Para que el sistema funcione, se necesita una tarjeta gráfica compatible con el slot AGP, por lo que una tarjeta PCI no nos valdrá. En este caso varía la velocidad. Existen tarjetas 1x, velocidad estándar, es decir, 66 Mhz (264 Mb/s máximo). Las nuevas AGP llegan con 2x a 133 MHz (dobla al anterior, y alcanza de máxima 528 Mb/s); y un último tipo de 4x a 400 Mhz (ya que la velocidad interna se aumenta a 100 Mhz). Aunque el chipset BX de Intel en teoría lo soporta, no saldrán tarjetas de este tipo hasta principios de 1.999.

El bus AGP permite cargar texturas en la RAM principal, es decir, ya no se limita a la capacidad de la memoria de la tarjeta gráfica; y además se apreciará de un aumento de imágenes por segundo, mayor calidad gráfica y la reproducción de vídeo más nítida. En teoría, un juego de 30 fps con una PCI alcanzaría con una AGP 240 fps. Microsoft dice que su API DirectDraw incluido en DirectX 5.0 es compatible con esta tecnología.

PCI

La tecnología PCI fue desarrollada por Intel para su microprocesador Pentium, pero se extendió hasta las placas para 486 (sobre todo las de la última generación que soportaban 486DX4). El funcionamiento es similar al del bus VESA. La diferencia es que todos los slots de expansión se conectan al microprocesador indirectamente a través de una circuitería que controla las transferencias. Este diseño permite conectar (teóricamente) hasta 10 placas de expansión en PCI.

La Bios

Es una memoria especial que contiene las rutinas necesarias para que el ordenador funcione correctamente y gestione las operaciones de entrada y salida de datos, de ahí su nombre BIOS, Basic Input/Output System (Sistema básico de entrada/salida).

Es muy recomendable que se pueda actualizar por software, es decir, tipo Flash, y que sea lo más reciente posible. Con respecto al programa de Setup, teniendo en cuenta nuestros conocimientos nos decantaremos por una BIOS con el mayor número de funciones de configuración automática posible (detectado de unidades IDE y de sus parámetros, ajuste automático de velocidades de acceso a RAM y a caché, etc), o por otro lado, podemos desear un mayor control de sus parámetros para ajustar al máximo el rendimiento. Una BIOS buena debe permitir arrancar el ordenador desde varios formados, como un disquete, un disco duro IDE o SCSI y un CD-ROM. Igualmente, conviene que las funciones automáticas de Plug and Play puedan configurarse manualmente (asignar IRQ y canales DMA para los posibles conflictos). Y se debe de poder desactivar por Setup los puertos serie y paralelo, o poder modificar sus direcciones de I/0 e IRQ para solucionar problemas al instalar nuevos dispositivos.

Hay distintos fabricantes de BIOS. Los más conocidos son Award y AMI. Por norma las opciones que nos encontramos en estas BIOS son diferentes. Por ejemplo, ambas tienen la posibilidad de obtener los parámetros de los discos duros instalados, pero sin embargo, la de Award no tiene la posibilidad de formatearlos (sólo a bajo nivel) mientras que la BIOS de AMI sí. La de AMI da la posibilidad de utilizar el ratón, mientras que la de Award no.

En el caso de una placa para Pentium II, suele incorporar funciones de desconexión automática y nos tenemos que fijar si soporta configuración del procesador por BIOS (y no por jumpers), y las nuevas características de Windows 98 ACPI y OnNow.


Los Zócalos y la Memoria RAM

La memoria es el almacén temporal de datos y código ejecutable que utiliza el ordenador. La memoria RAM es volátil, esto quiere decir que cuando se apaga el ordenador, toda la información almacenada se pierde. En las placas de Pentium II VX y TX, y en las Placas Pentium II, la RAM va en pequeñas placas llamadas DIMM, de 168 contactos, cuyas capacidades oscilan entre 16 y 128 Mb. cada una. Hasta hace poco eran las placas SIMM (Single In-line Memory Module) de 30 y 72 contactos, con capacidades entre 256 Kb y 32 Mb cada uno. Para insertar estas plaquitas hay en la placa base unos slots del mismo tamaño donde se insertan. Pueden insertarse de dos maneras: encajándolas directamente o insertándolas en sentido inclinado y después girándolas hacia arriba hasta que encajan completamente con los pivotes.

El software de hoy necesita grandes cantidades de RAM para funcionar. No compréis un equipo nuevo que no tenga instalados al menos 64 Mb de memoria RAM, especialmente si es de alta gama. Antes de comprar los módulos de memoria conviene que os informéis de los tipos de módulos que utiliza vuestra placa base. Los módulos de 72 o 168 contactos pueden ser de simple o de doble cara. Aseguraos bien del tipo de módulos que utiliza vuestra placa. Es muy importante que sepáis qué orden llevan los zócalos para los SIMM. Estos zócalos se agrupan en bancos de uno, dos o cuatro zócalos numerados como SIMMO, SIMMI, SIMM2, etc. (o DIMM0, DIMM1...) En las placas base Pentium nuevas hay uno o dos slots DIMM, mientras que en las de Pentium II hay 3 ó 4. Hoy por hoy, se recomienda poner SDRAM a las placas base Pentium y Pentium II (si la placa lo soporta), ya que de lo contrario se ocasionaría un cuello de botella, especialmente en el Pentium II

La placa base debe direccionar un mínimo de 256 Megas de RAM (en las placas base Super 7 se suele llegar a 768 Mb y en las Slot 1 a 1024 Mb). También hay que introducir el concepto de memoria cacheable: hay placas base de mala calidad que admiten mucha memoria pero no es capaz de manejarla eficientemente. En los mejores modelos se especifica el tamaño de memoria cacheable (ej: 256 Mb) y memoria máxima admitida (ej: 769 Mb).

Consultad la documentación de la placa base para saber cuántos módulos de memoria y de qué capacidad tenéis que comprar y así conseguir el número de Megabytes que queréis tener, sobre todo a la hora de combinar antiguos SIMM con nuevos DIMM en los Pentiums.


La Memoria Caché

La memoria caché es una memoria especial de acceso muy rápido. Almacenar los datos y el código utilizados en las últimas operaciones del procesador. Habitualmente el ordenador realiza la misma operación repetidas veces seguidas. Si en lugar de, por ejemplo, leer del disco cada una de las veces que realiza la operación lee de la memoria se incrementa la velocidad de proceso un 1.000.000 veces, es la diferencia de nanosegundos a milisegundos que son los tiempos de acceso a memoria y a disco respectivamente. Las placas base generalmente tienen instalada la memoria caché en unos zócalos para poder ampliarla. La configuración más usual es la de 512 Kb en la actualidad, pero puede haber configuraciones de 1 Mb o 2 Mb en algunas placas (hoy día sólo en los procesadores tipo Pentium (Pentium MMX, K6-x), ya que el Pentium II/II y el K7 la llevan integrada dentro de él).A la hora de la verdad, el rendimiento no es tan grande en los módulos Pipeline de las placas Pentium. Aunque por 3.000 ptas, no es mala idea incrementar la caché de 256 a 512 Kb en las placas Pentium más antiguas.



El chipset

El juego de chips de una placa, o chipset, es posiblemente su componente integrado más importante, ya que controla el modo de operación de la placa e integra todas sus funciones, por lo que podemos decir que determina el rendimiento y características de la misma. Determina lo que puede hacer el ordenador, desde el soporte para varias CPU, hasta la velocidad del bus o el tipo de memoria que se puede utilizar. Es el encargado de comunicar entre sí a todos los componentes de la placa, y los periféricos. Una placa puede disponer de zócalos DIMM, pero si el chipset incluido no los soporta, no podrán utilizarse. Intel fabrica los modelos oficiales para sus procesadores, aunque otras marcas como VIA, SUS o ALI fabrican clónicos a un precio más reducido.

En el caso del Pentium ha habido un gran grupo de chipsets, no sólo los Tritón, sino los Zappa, Endeavour... Hoy día sólo se encuentra el chipset Tritón TX, que es el más recomendado, ya que el VX, además de ser bastante antiguo, no soporta características como el DMA 33. Estos dos chipsets optimizan el rendimiento de la memoria EDO, soportan la técnica Bus Master, que mejora los procesos de transferencia de datos, módulos DIMM de 168 contactos y memoria SDRAM, y admiten la arquitectura SMBA (Shared Memory Buffer Architecture), que permite gestionar la memoria de forma compartida. Las placas Super 7 (las actuales) disponen de varios modelos, como los conocidos VIA Apollo MVP3, o Alladin V de ALI, con menor soporte de tipos de RAM.

En el caso del Pentium II nos encontramos con 4 chipsets: FX, LX, BX y EX (en un futuro el NX, que será el que use Katmai con MMX y 500 MHz). El FX fue el primero que apareció y ocasionaba un gran cuello de botella. Todos los impacientes que se compraron una placa base de éstas la tuvieron que cambiar. Por tanto ¡que no te "encasqueten" una!. Hay que usar el bus LX para los modelos de 233 a 333 MHz y el BX desde el 350 al 400 MHz (este último es de 100 MHz). Es cierto que el BX soporta los modelos del LX, pero también es más caro. Y por último, el chipset EX es el que se usa en el microprocesador Intel Celeron, y lo tendremos que adquirir en caso de comprar este procesador. El modelo ZX es muy utilizado por las CPU Socket 370. Elimina el soporte para varias CPU, reconoce el bus a 100 MHz, y reduce la memoria máxima a 256 Megas.

El modelo 440GX se encuentra en las placas Slot 2. Puesto que también soporta los procesadores Slot 1, puede llegar a sustituir al actual BX. VIA, SIS y ALI también venden clónicos de estos modelos, como el Apollo Pro Plus o el Alladin Pro.

Otros factores importantes

Hay otros detalles a tener en cuenta; por ejemplo, ya es común la inclusión de un conector para ratones y teclados de tipo PS/2 (ya sabéis, los que tienen la clavija pequeña y redonda), de puertos infrarrojos (que permiten la comunicación, sin cables, con dispositivos de este tipo) y USA, o Bus Serie Universal, que permite conectar 127 dispositivos con una transferencia de datos media-baja (webcams, escáneres, monitores...) a 12 Mbps y totalmente Plug and Play. Dentro de poco aparecerá el 1394, y tienes un artículo en el WEB de Duiops para informarte todo lo que quieras.

Algunos modelos incorporan diversos añadidos, como la inclusión de un chip de aceleración gráfica 3D de Intel, una tarjeta de sonido Yamaha o una controladora SCSI. No son aconsejables, pues disponen de menos calidad que los periféricos adquiridos independientemente. También pueden encontrarse chips que miden la temperatura del procesador y el ventilador, y BIOS capaces de controlar la desconexión temporal de periféricos, cuando no se utilizan, para ahorrar energía.

Otro detalle que se suele olvidar, pero que no carece de importancia, lo tenemos en el software que debe acompañar a la placa, los omnipresentes drivers; ya que se recomiendan para dispositivos como la controladora de disco duro.

Y ya por último hablaremos sobre el formato de la placa. El que ha habido siempre ha sido el Baby-AT, y desde finales del 1996 podemos encontrar el ATX. No mejorará la velocidad, sino la flexibilidad, integración y funcionalidad. Reorganiza la distribución de los componentes de la placa base, de forma que al insertar tarjetas no se tropiecen con chips como el procesador. Además, se acorta la longitud de los cables y se mejora la ventilación de los componentes. También cambia el conector de alimentación para la placa base y la forma de la caja, por lo que tendremos que cambiar la caja externa antes de comprar la placa. El ATX permite integrar componentes en la placa como la tarjeta gráfica y la tarjeta de sonido, pero suelen tener una calidad bastante mediocre. Por tanto, si queremos instalar tarjeta gráfica y de sonido independientes, tendremos que buscar una placa base ATX sin estos componentes integrados en ella.
 
 
Jesús E Ramirez C

Circuito Programable Anti-humo

Un nuevo circuito integrado fue desarrollado por la firma Microchip Technology con un perfil programable para calibración, distintos modos de operación y un bajo consumo de energía para la fabricación de sistemas detectores de humo.

(ElectronicosOnline.com Magazine / Oswaldo Barajas).- En países cuya responsabilidad social e industrial comienza a ejercer mayor presión para aumentar los niveles de seguridad anti-desastres en áreas comunes y de esparcimiento, un nuevo Circuito Integrado (IC) desarrollado por la compañía de semiconductores Microchip Technology parece otorgar un nuevo respiro a los fabricantes de sistemas de detección de humo.

El dispositivo REA46C190 3V es un circuito integrado de dimensiones pequeñas (encapsulado tipo SOIC 156 mil. con 16 pines) cuyo nuevo perfil le confiere al fabricante de sistemas de detección de humo mayor flexibilidad de configuración, pues cuenta con más posibilidades de calibración y modos de operación, además su consumo de energía apenas registra los 8 microamperios.

En la ficha técnica depositada en el sitio web de Microchip, se explica que este dispositivo permite configurar los modos operativos deseados durante el proceso de integración y calibrarlos en su manufactura.

La calibración en sí es tan importante ya que los sistemas de detección de humo pueden variar dependiendo al sector al que se dirijan y tienen que apegarse a las disposiciones industriales creadas por cada uno de los países.

De acuerdo a la compañía, esto trae como resultado la simplificación del diseño y manufactura del sistema detector en su fase de proyecto, y al mismo tiempo, reduce la cantidad de componentes adicionales debido a que posee los elementos suficientes en un mismo encapsulado, un ahorro final para el fabricante de sistemas.

De forma reiterada se subraya que el consumo energético del REA46C190 3V es de 8 microamperios y puede ser alimentado mediante una batería de Litio o dos pilas alcalinas, llegando a tener una vida útil de aproximadamente 10 años de operación continua.



La característica de calibración reduce también el número de componentes externos requeridos, pues al ser un dispositivo programable permite la integración de importantes componentes en el mismo IC.

Microchip ya ofrece una línea grande de Microcontroladores PIC, contoladores, circuitos detectores de humo, cadena de señales y dispositivos para la administración de energía que permiten numerosas aplicaciones para detección de humo, desde un simple detector residencial hasta sistemas complejos comerciales", explicó Bryan J. Liddiard, Vicepresidente de Marketing para la división de Productos Analógicos e Interfaces de Microchip. "La adición del circuito de bajo consumo de energía con calibración programable y modos de operación, demuestra el compromiso de Microchip en el desarrollo de productos innovadores para el mercado de detectores de humo".
 
 
 
Jesús E Ramirez C

Alcatel-Lucent ha desarrollado un pequeño cubo que podría ser el que sustituya a las estaciones base

Especialistas e investigadores de Alcatel-Lucent se han
propuesto revolucionar y actualizar las comunicaciones, ahora que estamos en una época en que todo un gran programa, un gran sistema puedes encontrar en un accesorio del tamaño de una uña, de esa forma cambiar esas enormes estaciones que se utilizan para las redes móviles por unos pequeños cubos que caben en la palma de la mano y pesan 300 gramos, fáciles de transportar en otras palabras estamos en la época en que todo es súper portable.

Se trata de un importante proyecto al que han denominado lightRadio y consiste en este pequeño cubo que en su interior contiene un microchip fabricado por Freescale. Con este microchip se puede proporcionar la misma potencia y calidad que las estaciones base que se necesita para las comunicaciones móviles, pero a un tamaño más fácil de transportar, bastante reducido y con un consumo energético mucho menor, un punto importante que a muchos interesa.


La capacidad con que cuenta el lightRadio Cube es grande, puede emitir desde los 400Mhz a los 4.000MHz, siendo compatible con 2G, 3G y 4G. En este importante proyecto ya se están interesando algunas operadoras como Orange, Verizon y China Mobile, están viendo que será una tecnología que promete y han confirmado su intención de probarla.


El Mobile World Congress es el lugar indicado para que los especialistas de Alcatel-Lucent presenten esta tecnología que sí parece que tendrá un buen resultado se inicia la semana que viene y promete dar mucho que hablar teniendo en cuenta la rapidez con la que se están multiplicando las estaciones base esperemos que se hayan fijado en que no debe dañar el medio ambiente, todos vienen con el correspondiente impacto en el paisaje, en el medio ambiente y en el rendimiento energético.
 
 
 
 
Jesús E Ramirez C