admin
EnglishFrenchGermanItalianPortugueseRussianSpanish

Categorías

Coobis

Microprocesadores

Nuevo procesador de IBM que simula una red de un millón de neuronas

Actualidad Informática. Nuevo procesador de IBM que simula una red de un millón de neuronas. Rafael Barzanallana

Tiene el tamaño de un sello de correos, pero en su interior contiene el equivalente a un millón de neuronas con 256 millones de conexiones sinápticas programables. El nuevo chip de IBM da un paso más hacia el objetivo de crear un procesador capaz de simular el funcionamiento del cerebro humano.

TrueNorth, que es como se llama este chip, es un salto cuantitativo impresionante respecto a la primera versión, que solo equivalía a 256 neuronas con 262144 sinapsis programables. De un único núcleo neurosináptico, este proyecto de IBM y el programa DARPA SyNAPSE ha pasado a 4096 núcleos.

Con todo, las cifras son irrisorias en comparación con las de un cerebro humano. Solo en la corteza cerebral tenemos entre 15000 y 33000 millones de neuronas. Cada milímetro cúbico de córtex cerebral contiene aproximadamente 1000 millones de sinapsis.

El reto de la computación cognitiva sigue estando lejos, pero eso no le quita mérito a TrueNorth y, de hecho, demuestra la potencia que tiene esta arquitectura de cara al futuro. Mientras llega el momento en el que tengamos que temer que una inteligencia artificial nos ponga en la lista de especies a extinguir, TrueNorth será especialmente útil para desarrollar dispositivos en los que es importante un funcionamiento similar al del cerebro humano.

Ampliar en: GIZMODO

Computación cognitiva

Actualidad Informática. Computación cognitiva. Rafael Barzanallana. UMU

En poco más de medio siglo de computación el avance en tecnología ha sido gigantesco. Desde que Von Neumann diseñó la arquitectura que lleva su nombre, todos los ordenadores se han construido basados en ella. Gordon Moore estableció la famosa ley que lleva su nombre, la ley de Moore. Según esta ley empírica, cada dos años se duplica el número de transistores en un circuito integrado. Todo esto está basado en la lógica y la física. Y ahí está precisamente uno de los problemas actuales, en la física. En una reciente presentación sobre el esperado chip POWER8, el ponente hizo una broma al respecto: “he preguntado a los físicos y me han confirmado que la física no ha cambiado”. Y es que nos acercamos a la frontera del átomo y no es probable que la ley de Moore se siga cumpliendo.

El otro de los problemas está en la lógica. Como gusta recordar a nuestra presidenta, Virginia Marie “Ginni” Rometty, estamos iniciando la tercera era de la computación. De las tabuladoras pasamos a los ordenadores programables y de ahí a la computación cognitiva. El esfuerzo de programar ordenadores es demasiado costoso, necesitamos otro paradigma, ordenadores que aprendan, computación cognitiva.

¿De dónde podemos aprender? ¿En qué podemos inspirarnos? En el mundo vivo, en la biología.

La neurona, base del sistema nervioso, es un dispositivo muy antiguo. Apareció probablemente en la explosión cámbrica hace la respetable cifra de quinientos millones de años. Es un dispositivo lento comparado con un procesador actual, pero con una gran cantidad de ventajas: conectividad, bajo consumo y plasticidad.  El cerebro humano contiene 86000000000 de neuronas que trabajan en paralelo de forma coordinada. Consume apenas 20 watios, lo que una bombilla pequeña (un superordenador muy eficiente como Sequoia de IBM consume siete  megawatios, 350000 veces más que el cerebro). Y, sobre todo, tiene plasticidad, aprende.

Fuente:  PRIMUM NON NOCERE 2013

Logran romper la clave escuchando el sonido de la CPU con un micrófono

Actualidad Informática. Logran romper la clave escuchando el sonido de la CPU con un micrófono. Rafael Barzanallana. UMU

Tres investigadores de la Universidad de Tel Aviv han conseguido romper elalgoritmos RSA de 4096 bits. El método de extracción de claves se basa en escuchar con un micrófono los sonidos que realiza la CPU del equipo atacado mientras trabaja con datos codificados.

El procesador central de cada ordenador emite diferentes sonidos que delatan los procesos que se están ejecutando. Al trabajar con datos codificados, el procesador emite sonidos característicos entre los que se pueden reconocer patrones que corresponden a la clave utilizada para la codificación.

Este “lenguaje” involuntario de las CPUs lo provoca su regulador de voltaje al intentar contrarrestar constantemente los cambios de carga. Eso deja una “huella acústica” de alta frecuencia (de entre 10 y 150 KHz) que se puede aislar aplicando diferentes filtros de sonido.

Los científicos israelís han conseguido capturar las frecuencias chivatas con el micrófono de un smartphone dispuesto a 30 cm del equipo atacado, pero también desde una distancia de 4 metros con un sofisticado micrófono direccional. En ambos casos consiguieron romper la clave tras una hora de escucha.

Fuente: elotrolado

alquiler carrozas gran canaria
oferta de viajes a india
regalos de empresa

Análisis de ingeniería inversa a los registros del microprocesador 8085

Actualidad Informática. Análisis de ingeniería inversa a los registros del microprocesador 8085. Rafael Barzanallana. UMU

El microprocesador Intel 8085 se fabricó en 1997 y era compatible con el famoso 8080 pero optimizado, para poder crear sistemas más simples y sobre todo baratos.

La conclusión de este análisis revela que los registros del 8085 no son para nada simples almacenes de bits, sino que aparecen muchos trucos interesantes en su implementación que los hacen más rápidos y compactos. También aparecen algunos registros ocultos a los programadores (de uso exclusivamente internos) como el WZ y dos de 8 bits para la ALUACT y TMP.

Es increíble que este chip sólo tiene 40 patillas para comunicarse con el mundo exterior, comparado con las más de 1000 de los procesadores actuales.

Análisis que puedes ver al completo aquí y que vimos en HackerNews.

Fuente: CyberHades

Copyleft

Crean una supercomputadora con 64 placas de bajo coste Raspberry Pi y piezas de Lego

Actualidad Informática. Crean una supercomputadora con 64 placas de bajo coste Raspberry Pi y piezas de Lego. Rafael Barzanallana. UMU

Ingenieros informáticos de la Universidad de Southampton (Inglaterra) han construido un superordenador a base de 64 computadoras de bajo coste Raspberry Pi y de piezas de Lego.

El equipo, dirigido por el profesor Simon Cox, estaba formado por Richard Boardman, Everett Andy, Steven Johnston, Kaiping Gereon, Neil O’Brien, Scott Mark y Pergamino Oz, y el hijo de Cox, James (de seis años), que proporcionó apoyo especializado en relación a Lego y en tests del sistema.

“Tan pronto como fuimos capaces de reunir suficientes computadoras Raspberry Pi (“Frambuesa Pi”), quisimos ver si era posible unirlas en una supercomputadora. Hemos publicado una guía para que todo el mundo pueda construir su propia computadora “, explica Simon Cox.

“El equipo quiere ver este sistema de bajo coste como un punto de partida para inspirar y permitir a los estudiantes aplicar computación de alto rendimiento y manejo de datos para hacer frente a complejos retos científicos y de ingeniería”, añade.

Ampliar en; Alpha Galileo Foundation

CPU DB, sitio con información sobre los microprocesadores

Actualidad Informática. CPU DB, sitio con información sobre los microprocesadores. Rafael Barzanallana

Se trata de un sitio en el cual podemos utilizar su buscador si conocemos el modelo exacto, o bien navegar entre las diferentes familias y microarquitecturas en las cuales todos ellos están clasificados. Y que nos ofrece información relevante acerca de cada modelo, como su cache, velocidad de reloj, cantidad de núcleos, de transistores, voltaje de funcionamiento y varios parámetros más, todo lo cual puede sernos de utilidad si entre otras cosas estamos por hacer oveclocking de nuestro CPU.

CPU DB

Actualización sobre Ivy Bridge, los procesadores de cuatro núcleos de Intel

Actualidad Informática. Intel. Rafael Barzanallana

Intel ha presentado su nueva gama de chips de cuatro núcleos Ivy Bridge para equipos de sobremesa y portátiles. La arquitectura específica del chip asociado con una tecnología de 22 nanómetros da aumento de autonomía y rendimiento del 20%. Los procesadores de doble núcleo y las versiones de baja potencia para ultrabooks saldrán antes del verano.

El programa incluye trece modelos de procesadores de  de Intel familias Quad Core  Core i7 y Core i5 . Dirigidas a las computadoras de escritorio (Mac y PC) y portátiles.

Hace casi un año,  ya se había discutido los detalles de la tecnología incorporada en el puente de la hiedra, incluyendo su arquitectura Tri-Gate. Ello permitirá un aumento en el número de transistores en los chips  tallados en relieve. Así, en este rango, el Extreme Edition i7-3920XM aumentó a 3,5 MHz, contiene 1.4 millones de transistores en una superficie de 160 mm ², contra 1.16 millones de transistores de 214 mm ² de Sandy Bridge, su predecesor . A pesar de este gran salto, la toma que acomoda el procesador en la placa base sigue siendo la misma.

En el futuro, siempre contando con la arquitectura Tri-Gate, Intel todavía tiene que ir más allá en la reducción del tamaño de los circuitos impresios. El objetivo es pasar de una finura de 22 a 14 nanómetros, con una generación de procesadores con nombre Haswell. Con esta combinación, Intel ya ha anunciado una autonomía sorprendente de 24 horas de funcionamiento continuo, que puede extenderse hasta diez días con el modo de reposo cuando el equipo todavía es capaz de recibir e-mails.

Ivy Bridge: 20% de aumento en la autonomía y el rendimiento

Sin embargo, Intel tuvo que modificar la mejora del rendimiento, que anunció hace un año. En lugar de “32% de mejor”,  se ha pasado al 20%. Una cifra que aún está pendiente. Y el 20%, es también el aumento de la autonomía, en comparación con la generación anterior de 32 nm.

Para ahorrar energía, el chip se adapta su velocidad según sea necesario, incluso si el trabaja sólo en uno de los núcleos cuando otros no son necesarios, por ejemplo, en trabajos de oficina, incluso cuando se reproduce un vídeo.

Esta gama  Ivy Bridge también ofrece una gran variedad de opciones adicionales. Esto es especialmente cierto con la seguridad con la integración de la tecnología en encriptación de 64 bits sobre la marcha, llamada Secure Key.

¿El principio del fin de las tarjetas gráficas?

Es principalmente en los gráficos donde los esfuerzos de los ingenieros hacen las pruebas. El procesador incorpora un procesador de Swift 3D, las HD 4000 Gaphics, incluyendo un chip que sabe administrar DirectX 11. También es capaz de soportar la visualización simultánea de tres pantallas. Del mismo modo, las videoconferencias pueden ser manejados ahora en el hardware.

Sobre  los juegos en 3D, Intel dijo como “el chip gráfico integrado muestra el doble de rendimiento en comparación con la generación anterior.” De hecho, nos preguntamos si con un procesador, una tarjeta gráfica sigue siendo necesaria. Intel nos dijo que “la solución gráfica propuesta permite a los jugadores casuales para tener la mejor experiencia de juego posible, sin necesidad de tarjeta gráfica.” Sin embargo, “para” hardcore gamer “, Intel recomienda siempre usar una tarjeta gráfica dedicada asociado con una gama de procesadores Core i7.”

A raíz del anuncio de la disponibilidad del chip de Intel, los fabricantes están empezando a reconstruir sus rangos. De este modo, Asus presentó una portátil de 15,6 pulgadas (55VD-DS71), con un Core i7 quad 2,3 GHz corazón. Unos días más tarde, Samsung, por su parte, dio a conocer un portátil más grande (17.3 pulgadas), su serie 7 que tendría una duración de batería de 8 horas. También se espera que Apple anuncia el nuevo MacBook Pro e iMac.

Por último, Intel nos dijo que además de este rango de cuatro Ivy Bridge, los procesadores de doble núcleo y las versiones de baja potencia para ultrabook deben salir antes del verano.

Fuente: Futura-Sciences

Evolución de los microprocesadores Intel

Actualidad Informática.  Evolución microprocesadores Intel. Rafael Barzanallana

La Universidad de Stanford ha elaborado una base de datos de los microprocesadores que  se han comercializado desde 1970 hasta ahora; para cada microprocesador se ha redactado una ficha bastante completa, lo que permite comparar diferentes modelos y ver como han evolucionado la tecnología a lo largo de los años.

Modelo Año Transistores Tran./mm2 Watios
Procesadores de 8 bits, era previa al PC
4004 1971 2.300 192 0,5
8008 1972 3.500 219 1,0
8080 1974 6.000 300 0,8
Procesadores de PC de 16 bits
8086 1979 29.000 879 1,7
80286 1982 134.000 2.851 3,3
Procesadores de PC de 32 bits
80386DX 1986 275.000 2.670 1,7
80486DX 1989 1.200.000 14.815 3,0
Pentium 1993 3.200.000 10.884 13,0
Pentium II 1997 7.500.000 36.946 12,0
Pentium III 1999 28.000.000 264.151 16,0
Pentium 4 2000 42.000.000 193.548 52,0
Pentium 4 P. 2004 169.000.000 1.251.852 115,0
Procesadores de PC de 2 núcleos
Core 2 Duo 2006 291.000.000 2.034.965 65,0
Procesadores de PC de 4 núcleos
Core i7 N. 2008 774.000.000 2.614.865 45,0
Core i7 S. B. 2011 995.000.000 4.606.481 95,0
Procesador de PC de 6 núcleos
Core i7 980X 2011 1.170.000.000 4.717.742 130,0

Chips operando como mini-internet

Actualidad Informática. Chips operando como internet . Rafael Barzanallana

Los chips han dejado de ser cada vez más rápidos. A fin de mantener el aumento del potencia de los chips de computación a la tasa a la que nos hemos acostumbrado, los fabricantes de chips están dando lugar a otros “núcleos” o unidades de procesamiento.

Actualmente, un chip típico puede tener seis u ocho núcleos, todos comunican entre sí sobre un solo haz de “cables”, llamado bus. Con un bus, sin embargo, sólo un par de núcleos  pueden comunicarse a la vez, lo que sería una grave limitación en chips con cientos o incluso miles de núcleos, que muchos ingenieros eléctricos imaginan como el futuro de la computación.

Li-Shiuan Pe, profesor asociado de ingeniería eléctrica y ciencias de la computación en el MIT (EE.UU.), quiere que los núcleos de  de los ordenadores entren en comunicación de la misma manera que opera  internet, haciendo lo siguiente: “paquetes”  para transmitir la información, cada núcleo tendrá su propio router, que podría enviar un paquete por cualquiera de varios caminos, dependiendo de la condición de la red como un todo.

En la Conferencia de automatización de diseño en junio, Pe y sus colegas presentarán un documento que describe como “resumen 10 años de investigación” en estas “redes en chips.” No sólo los investigadores establecen límites teóricos de la eficiencia de la conmutación de paquetes de -chip- redes de comunicación, pero también las mediciones actuales realizadas en un chip de prueba en la que estuvo muy cerca de llegar a varios de esos límites.

La última parada para los buses

En principio, los chips de varios núcleos son más rápidos que los chips de un solo núcleo, ya que pueden dividirse las tareas computacionales y ejecutarlas en varios núcleos a la vez. Los núcleos de trabajo en la misma tarea en ocasiones tendrán que compartir los datos, pero hasta hace poco, el recuento de núcleos en los chips comerciales ha sido suficientemente bajo para que un solo bus  fuera capaz de manejar la carga de comunicaciones adicional. Eso ya está cambiando, sin embargo: “Los buses han llegado a un límite”, dice Pe. “Por lo general se escala a cerca de ocho núcleos.” Los chips de 10 núcleos que se encuentran en servidores de gama alta con frecuencia añaden un segundo bus, pero ese método no funciona para chips con cientos de núcleos.

Por un lado, Pe, dice, “los buses  consumen mucha potencia, porque están tratando de manejar  ocho o 10 núcleos, al mismo tiempo.” En el tipo de red Pe propone, por el contrario, que cada central se comunica sólo con los cuatro núcleos más cercanos a él. “Aquí, usted está conduciendo a través de segmentos cortos de “cables”, lo que les permite ir por debajo de la tensión”, explica.

Con visión de futuro

Pe y sus colegas han desarrollado dos técnicas para hacer frente a estas preocupaciones. Una de ellas es algo que  llaman “bifurcación virtual” (virtual bypassing).  En internet, cuando un paquete llega a un router, el router inspecciona la información de direccionamiento antes de decidir cuál es el camino para circular. Con enrutado virtual, sin embargo, cada router envía una señal de avance a la siguiente, de manera que puede predeterminar el interruptor, lo que acelera el paquete sin ningún cálculo adicional. En los chips de prueba de su grupo, dice Pe, permiten un enfoque muy cercano al máximo de transmisión de datos, sobre las tasas predichas por el análisis teórico.

La otra técnica es algo que se llama “señalización de baja oscilación”  (low-swing signaling). Los datos digitales se componen de unos y ceros que se transmiten a través de canales de comunicación como tensión alta y baja. Sunghyun Park, un estudiante de doctorado asesorado por  Pe y Chandrakasan Anantha, F. José y Nancy P. Keithley profesor de Ingeniería Eléctrica, ha desarrollado un circuito que reduce la oscilación entre las tensiones altas y bajas de un voltio hasta 300 milivoltios. Con la  combinación de señalización virtual, pasando por alto y bajo, el chip de ensayo de los investigadores consumía energía un 38 por ciento menos que los anteriores chips de prueba de conmutación de paquetes. Los investigadores tienen mucho trabajo por hacer, dice Pe, el consumo de potencia del chip de prueba  se pone tan cerca del límite teórico como su velocidad de transmisión de datos lo hace. Pero, añade, “si lo comparamos contra un bus, tenemos varios órdenes de magnitud de ahorro”.

Luca Carloni, profesor asociado de ciencias informáticas en la Universidad de Columbia, que también investiga las redes en el chip, dice que “el jurado está todavía fuera”, sobre el futuro del diseño de chips, pero que “las ventajas de las redes de conmutación de paquetes de chips parecen convincentes”. Se hace hincapié en que esas ventajas incluyen no sólo la eficiencia operativa de los chips mismos, sino también” un nivel de regularidad y productividad en tiempo de diseño que es muy importante. “Y en el campo, añade,” las contribuciones de Li-Shiuan son fundamentales. ”

Esta historia se publica por cortesía de las noticias del MIT (http://web.mit.edu/newsoffice/ ), un sitio popular que cubre las noticias sobre la investigación del MIT, la innovación y la enseñanza.

Microprocesadores de ordenador: ahorro de energía y dinero

Actualidad Informática. Micrprocesadores. Rafael Barzanallana
En los microprocesadores de hoy en día, gran parte de la potencia consumida  para poner en funcionamiento el procesador se está desperdiciando.

A un equipo de investigadores de  Case Western Reserve University, se le ocurrió una idea novedosa llamada puerta de potencia de grano fino, lo que ahorra energía y dinero en un par de maneras: se utiliza menos energía  y  menos calor.

“El uso de menos energía produce menos calor. Menos calor significa que se necesita menos enfriamiento”, dijo Swarup Bhunia, profesor de ingeniería eléctrica y ciencias de la computación y un autor de la investigación. “Eso puede evitar la necesidad de un ventilador grande para enfriar el procesador, lo que ahorra mucho dinero”. Los procesadores se utilizan en una variedad de productos, desde computadoras hasta teléfonos celulares. Los gastos operacionales podrían reducirse en más de un tercio, dicen los investigadores.

Bhunia,  Lei Wang y  Somnath Paul, cuyo trabajo fue financiado por la Corporación Intel, presentaron su idea en la 25 ª Conferencia Internacional sobre la VLSI (Very-Large-Scale Integration) de diseño. Recibieron el premio a la mejor ponencia en la conferencia, celebrada en Hyderabad, India.

Bhunia explicó que dos partes de un procesador consumen energía: la ruta de datos y la memoria. La ruta de  datos realiza cálculos y toma decisiones de control, mientras que almacena los datos de la memoria. En informática rara vez se requiere todo lo que un procesador es capaz de proporcionar durante  todo el tiempo, pero todo el procesador está totalmente encendido de la misma manera.

Un intento de mejorar la disipación de potencia en los procesadores es a través de algo llamado coarse gating. Se apaga un bloque completo del procesador que no está siendo utilizado. Por ejemplo, habitualmente el bloque que realiza las sumas consume energía aunque no esté el microprocesador efectuando una suma.

El problema con este método es que la mayor parte del tiempo encontrar un bloque completo que no está siendo utilizado en un momento dado es dura.

El equipo de la Case Western Reserve tuvo la  idea de compuerta  para apagar sólo las partes de un componente que no se están utilizando en ese momento.  La memoria funciona del mismo modo. Un procesador tiene que ser capaz de almacenar grandes cantidades, pero rara vez en realidad las almacena.

Esto puede no parecer mucho, pero añade todo y se hace una gran diferencia. El equipo calculó que el ahorro de energía total de un procesador típico de un sistema de alto rendimiento, tales como una computadora de escritorio, sería de alrededor de 40%.

Bhunia explicó que  su sistema no puede ser aplicado a los procesadores actuales, pero podrían ser utilizados por las empresas para construir procesadores de próxima generación. Este nuevo método no sólo ayuda a las corporaciones sin embargo, pues una batería de teléfono móvil celular, pasaría de durar ocho horas a 11, por ejemplo.

Fuente: Case Western Reserve University, via Newswise.

Related Posts with Thumbnails

Calendario

August 2014
M T W T F S S
« Jul    
 123
45678910
11121314151617
18192021222324
25262728293031

Spam

Otros enlaces

  • Enlaces

    Este blog no tiene ninguna relación con ellos, ni los recomienda.


  • Paperblog

    autobus las palmas aeropuerto cetona de frambuesa