admin
EnglishFrenchGermanItalianPortugueseRussianSpanish

Categorías

Coobis

IBM

20 años del primer smartphone

Actualidad Informática. 20 años del primer smartphone, IBM. Rafael Barzanallana

El 16 de agosto de 1994, IBM lanzó el Simon un dispositivo pionero que sentó las bases de una revolución de bolsillo: los smartphones. Aunque el término smartphone se acuñó mucho después, el IBM Simon está considerado el padre de los teléfonos inteligentes. Para celebrar su aniversario. Uno de estos terminales pasará a formar parte de la colección permanente del Museo de la Ciencia de Londres.

Aunque pesaba nada menos que medio kilo (510 gramos), el dispositivo ya era capaz de muchas de las funciones que hoy damos por normales en un smartphone: tenía aplicaciones, servía para tomar notas, y con él se podían enviar correos electrónicos. Su pantalla LCD monocroma de 4,5 pulgadas mostraba una resolución de 160 x 293 píxeles, y tenía funciones táctiles mediante un stylus.

El interior del Simon ocultaba un procesador de 16-bits a 16MHz, y compatible con ordenadores de arquitectura x86. La memoria RAM y el almacenamiento eran de 1MB respectivamente.

Este abuelo de los smartphones solo salió a la venta en Estados Unidos, donde se vendieron unas 50.000 unidades a un precio de 899 dólares. Todo un logro teniendo en cuenta que en aquel tiempo no existía conexión a internet en el móvil como la conocemos ahora, lo que limitaba el uso del Simon a casas u oficinas con línea fija.

Este comunicador personal también apuntaba maneras en cuanto a prácticas comerciales. Se discontinuó apenas un año después (febrero de 1995) y fue sustituido por el IBM Neon, una versión muy similar. El teléfono forma ya parte de la historia en la galería sobre la era de la información del popular Museo británico.

Fuente: GIZMODO

Nuevo procesador de IBM que simula una red de un millón de neuronas

Actualidad Informática. Nuevo procesador de IBM que simula una red de un millón de neuronas. Rafael Barzanallana

Tiene el tamaño de un sello de correos, pero en su interior contiene el equivalente a un millón de neuronas con 256 millones de conexiones sinápticas programables. El nuevo chip de IBM da un paso más hacia el objetivo de crear un procesador capaz de simular el funcionamiento del cerebro humano.

TrueNorth, que es como se llama este chip, es un salto cuantitativo impresionante respecto a la primera versión, que solo equivalía a 256 neuronas con 262144 sinapsis programables. De un único núcleo neurosináptico, este proyecto de IBM y el programa DARPA SyNAPSE ha pasado a 4096 núcleos.

Con todo, las cifras son irrisorias en comparación con las de un cerebro humano. Solo en la corteza cerebral tenemos entre 15000 y 33000 millones de neuronas. Cada milímetro cúbico de córtex cerebral contiene aproximadamente 1000 millones de sinapsis.

El reto de la computación cognitiva sigue estando lejos, pero eso no le quita mérito a TrueNorth y, de hecho, demuestra la potencia que tiene esta arquitectura de cara al futuro. Mientras llega el momento en el que tengamos que temer que una inteligencia artificial nos ponga en la lista de especies a extinguir, TrueNorth será especialmente útil para desarrollar dispositivos en los que es importante un funcionamiento similar al del cerebro humano.

Ampliar en: GIZMODO

IBM investigará en el desarrollo de computación cuántica y cerebros sintéticos

Actualidad Informática. IBM. Rafael Barzanallana

Nuevas investigaciones, así como nuevos proyectos e inversiones de IBM podrían llevar el futuro en dirección de lo que en muchas ocasiones parece tecnología de ciencia ficción como ordenadores que imitan el cerebro humano o la tan famosa computación cuántica.

IBM invertirá 3000 millones de dólares para investigación y desarrollo de estas tecnologías se concentran en dos grandes campos: desarrollo de componentes nanotecnológicos para los chips de silicio para grandes volúmenes de datos y sistemas de nubes, y la experimentación con microchips “post-silicio”. Supratik Guha de IBM señala que los microprocesadores y la escalada en innovación en este sentido está llegando a su fin y que es importante ponerse en marcha para este nueva tecnología.

En cuanto a la otra gran área de inversión, IBM ha estado investigando la viabilidad de la tecnología de la construcción que puede imitar la cognición humana desde hace años. IBM ha estado en la búsqueda de un nuevo lenguaje de programación que se utilizará para el aprendizaje de las máquinas y sistemas de computación cognitiva como Watson, que podemos ver en el siguiente vídeo a prueba:

Circuitos electrónicos fabricados con nanotubos de carbono

Actualidad Informática. Circuitos electrónicos fabricados con nanotubos de carbono. Rafael Barzanallana

La Ley de Moore dice que, más o menos cada dos años, se duplica el número de transistores de un circuito integrado. Hasta ahora se ha cumplido, pero las cosas se están poniendo cada vez más complicadas porque los fabricantes estaban forzando los límites físicos del silicio de los chips. El relevo llega de la mano de IBM y los transistores de nanotubos de carbono. Los primeros procesadores con esta tecnología llegarán en 2020.

Para que haya cada vez más transistores (y por lo tanto más potencia) en el mismo espacio, estos componentes deben ser cada vez de menor tamaño. El transistor basado en silicio más pequeño que hay ahora en el mercado es de 14 nanómetros. Para que la ley empírica formulada por el cofundador de Intel Gordon E. Moore se siga cumpliendo, en 2020 deberían ser de cinco nanómetros, pero el silicio presenta muchos problemas eléctricos a esa escala.

Los nanotubos de carbono son, según IBM, los sustitutos perfectos para el silicio. La tecnología que hay detrás de estos transistores es muy real y, de hecho, está ya en su fase final de desarrollo. IBM logró hacer funcionar el primer transistor de nanotubos de carbono en 1998. Lleva desde entonces afinando esta nueva tecnología, y estará a disposición de los fabricantes de procesadores en 2019.

Fuente: GIZMODO

50 aniversario del “mainframe” IBM 360

Actualidad Informática. 50 aniversario del ibm 360

El siete de abril de 1964 IBM lanzó el System/360, concebido para unificar toda la oferta de que disponían, pero ofreciendo diferentes configuraciones, con el fin de adaptarse a las necesidades de la empresa. Fue por tanto la primera arquitectura de computadores que permitía intercambiar los programas y periféricos entre los distintos equipos componentes de la arquitectura.

Hasta ese momento, IBM era capaz de ofrecer una gran cantidad de máquinas para unas determinadas necesidades. Pero sufrían dos problemas importantes, el primero es que si se tenían varias necesidades, había que contar con varias máquinas y no con una que hiciera todo el proceso. El segundo es que eran sistemas monolíticos que cuando se quedaban cortos de necesidades, había que cambiar toda la máquina.

El System/360 representó el proyecto más ambicioso de IBM de esa época, destinando una cantidad de recursos impresionante: contratación de 7000 nuevos empleados, construcción de cinco nuevas plantas… La consecuencia más importante fue que el resto de máquinas de IBM quedó anticuada con respecto a la competencia, y esto produjo un descenso importante en las ventas y una grave crisis en IBM, hasta el punto de plantearse si el proyecto se podría llevar finalmente a cabo.

Ampliar en:  Tecnología al instante

IBM establece un récord de transferencia de datos

Actualidad Informática. IBM establece un récord de transferencia de datos. Rafael BarzanallanaDe acuerdo con Intel , 639900 GB de datos se transfiere cada minuto en internet . Eso incluye 204 millones de correos electrónicos, 61141 horas de música, y 277000 conexiones de Facebook . La tarea de mantener internet a este ritmo voraz recae en gran medida en la tecnología de comunicación de datos , que nos ayuda a la transferencia de datos entre sistemas informáticos y dispositivos.

Nuestra necesidad de velocidades de datos más rápidas parece cercana a  los límites de nuestra tecnología de comunicaciones de datos actual, pero un descubrimiento reciente de investigadores de IBM es motivo de optimismo añadido. No sólo se estableció un nuevo récord para la transmisión de datos por fibra óptica – batiendo un récord anterior que habían superado el año pasado – lo hicieron utilizando la tecnología y los métodos que muchas personas pensaban que eran anticuados.

Lograron una tasa de datos de 64 Gb/s , que es de alrededor de un 14 por ciento más rápida que su anterior récord y cerca de 2,5 veces más rápida que las capacidades generales de la tecnología actual. Aunque este aumento de velocidad es impresionante por sí solo, este registro de datos también sirve a un propósito más elevado como evidencia tan deseada, que la tecnología de comunicaciones de datos que tenemos ahora todavía tiene algunos años más de vida. ” El tema general de la investigación es tratar de explorar los límites de la tecnología de comunicaciones de datos que está siendo utilizada en la actualidad de hoy”, dice Dan Kuchta , uno de los investigadores de IBM que trabajaron en este proyecto.

Este hito hace hincapié en la utilidad de continuar con la tecnología actual de varias maneras. La fibra óptica multimodo que utilizan es un cable de relativamente bajo costo que a menudo se encuentra en centros de datos y superordenadores. Estos cables se limitan a 57 metros de longitud , pero Kuchta dice que los enlaces ópticos en los dos últimos sistemas que construyeron eran de menos de 20 metros. Uno de estos sistemas era la supercomputadora Sequoia en el Laboratorio Nacional Lawrence Livermore . Los investigadores también utilizaron la modulación estándar de no retorno a cero ( NRZ ) para enviar los datos. El emparejamiento de los dos permite un tiempo de transmisión especialmente rápida, que es vital en la computación de alto rendimiento.

Antes de esta investigación, algunos expertos creen que las tasas de transferencia que utilizan modulación NRZ se limitarían a 32 Gb/s , peligrosamente cerca del 25 a 28 Gb/s de velocidad a la que gran parte de nuestra tecnología se está ejecutando. Como muchos de nosotros sabemos, las tasas de datos lentas pueden obstaculizar la actividad de los ordenadores, como cuando un vídeo se mantiene parando para cargarse . Si las tasas de transferencia caen demasiado lejos para nuestra tecnología, algunas aplicaciones pueden dejar de funcionar por completo .

Está listo para su comercialización en este momento

La clave para alcanzar la velocidad es aplicando un método de comunicación eléctrica a este proceso óptico. “Están usando la electrónica para ampliar el ancho de banda del láser y ese es el gran paso”, dice Stephen E. Ralph , director de Georgia Tech’s Terabit Optical Networking Consortium. Los investigadores emparejaron un láser emisor de superficie de cavidad vertical ( VCSEL ) con un chip de silicio – germanio,  hechos a medida de IBM . El VCSEL, también, es un ejemplo de una tecnología de bajo costo con algunas preguntas sobre su futuro. Su ancho de banda de 26 GHz  generalmente permitiría llegar a una tasa de alrededor de 44 GB/s , pero el chip de IBM logra más allá de eso.

Al final, todo esto se reduce a un ahorro de costes. Kuchta estima que esta tecnología cuesta alrededor de un tercio de otras opciones que utilizan fibras monomodo

IBM despedirá hasta a un 25% de empleados de la división de hardware

 

Actualidad Informática. IBM despedirá hasta a un 25% de empleados de la división de hardware. Rafael Barzanallana

Según los planes de la compañía, que los despidos afectarán hasta a un 25% de los empleados de la división de Sistemas y Tecnología. Este es el grupo que hace los servidores de IBM.

La compañía, que emplea actualmente a más de 400000 personas en todo el mundo, sí explicó que va a prescindir de una parte de su fuerza de trabajo con el fin de centrarse en las nuevas áreas prioritarias, como la nube, análisis y computación cognitiva. Esto significa que algunas divisiones de la empresa van a sufrir recortes.

“Como se informó en nuestro reciente informe de beneficios, IBM sigue reequilibrando su mano de obra para satisfacer las necesidades cambiantes de sus clientes y ser pionero en nuevos segmentos de alto valor de la industria de TI”, declaró el portavoz de IBM, Doug Shelton.  Para ello, IBM se posiciona a la cabeza en áreas tales como la nube, la analítica y la computación cognitiva, y la inversión en estas áreas es prioritaria”.

Así las cosas, la división de hardware tenía muchas posibilidades de verse afectada por los recortes. IBManunció el mes pasado la venta de su negocio de servidores x86 a Lenovo por 2300 millones, por lo que tiene sentido que, al perder buena parte de su carga de trabajo, lleguen los despidos dentro de la división de hardware. Con la venta a Lenovo, se espera que a cerca de 7500 empleados de IBM se les ofrezcan puestos de trabajo en la compañía china.

Fuente: ITespresso.es

 

 

Lenovo compra parte de la división de servidores de IBM

Actualidad Informática. Lenovo compra parte de la división de servidores de IBM. Rafael Barzanallana

Lenovo es el principal fabricante de PC en el mundo, la compañía China puede presumir de excelentes resultados en 2013, aunque las ventas de ordenadores personales siguen cayendo año tras año.

Esa caída de ventas en PCs fue el principal motivo por el que Lenovo se concentró en la fabricación de tabletas, TVs inteligentes y smartphones, y ahora quiere ampliar su servicio de venta de servidores, motivo por el cual ha comprado, por 2300 millones de dólares, una unidad de IBM dedicada a este tema.

En la nota de prensa y en pcworld se explican los detalles de la operación.

No es todo el negocio de servidores de IBM lo que ha adquirido Lenovo, ha comprado el negocio de hardware de servidores x86 de IBM junto al servicio de manutención. IBM mantendrá el negocio de servidores de otras gamas superiores.

Predicción de IBM sobre la medicina dentro de cinco años

Actualidad Informática. Predicción de IBM sobre la medicina dentro de cinco años. Rafael Barzanallana. UMU

Como en años anteriores IBM ha presentado predicciones “5 en 5”, una serie de innovaciones que podrán cambiar la forma en que las personas trabajarán, vivirán e interactuarán en los próximos cinco años. Las predicciones “5 de 5” de IBM de este año exploran la idea de que todos los objetos podrán aprender, gracias a la nueva era de sistemas cognitivos en la que las máquinas van a razonar y participar con nosotros de una manera más natural y personalizada.

Una de las cinco predicciones que definirán el futuro inmediato tiene que ver con la medicina, y es la siguiente: los médicos usarán regularmente el ADN de los pacientes para mejorar su salud.

A pesar de los extraordinarios avances en la investigación y en el tratamiento del cáncer, su incidencia se ha incrementado en más de un 10 por ciento desde 2008. No en vano, afecta  a más de 14 millones de pacientes en el mundo y se cobra la vida de 8,1 millones de vidas cada año, según datos de la Organización Mundial de la Salud. Ante tal realidad, podemos ya imaginar que el tratamiento algún día sea más preciso y que los ordenadores puedan ayudar a los médicos a comprender cómo un tumor afecta a un paciente a través de su ADN y a presentar los medicamentos más indicados para atacar la enfermedad.

En cinco años, los grandes volúmenes de datos y los sistemas cognitivos ??en la nube, junto a los avances en la investigación y las pruebas genómicas, podrían ayudar a los médicos a diagnosticar con precisión el cáncer y a crear planes personalizados de tratamiento para millones de pacientes en todo el mundo. Las máquinas inteligentes analizarán extensos archivos de registros médicos y de publicaciones, los aprenderán y rápidamente proporcionarán una respuesta específica para los oncólogos sobre las opciones de tratamiento. Aunque la atención personalizada del cáncer a nivel genómico ha estado en el horizonte desde que los científicos secuenciaron por primera vez el genoma humano, realmente son pocos los médicos con acceso a las herramientas y el tiempo para evaluar los conocimientos disponibles a este nivel.

Sin embargo, dentro de cinco años, los sistemas cognitivos ??en la nube podrían hacer que tal medicina personalizada esté disponible a una escala y una velocidad únicas.

Estos sistemas están destinados a ser aún más inteligentes en el futuro, gracias al aprendizaje de las personas, la información genómica y la respuesta a los medicamentos, lo cual podría también proporcionar opciones de tratamiento personalizadas para derrames cerebrales o enfermedades cardíacas. A través de la tecnología en la nube, la asistencia sanitaria más inteligente podría llegar a más personas y en más lugares, además de proporcionar el acceso a información vital a una comunidad global de profesionales de la salud.

Fuente: Primum non nocere 2013

Computación cognitiva

Actualidad Informática. Computación cognitiva. Rafael Barzanallana. UMU

En poco más de medio siglo de computación el avance en tecnología ha sido gigantesco. Desde que Von Neumann diseñó la arquitectura que lleva su nombre, todos los ordenadores se han construido basados en ella. Gordon Moore estableció la famosa ley que lleva su nombre, la ley de Moore. Según esta ley empírica, cada dos años se duplica el número de transistores en un circuito integrado. Todo esto está basado en la lógica y la física. Y ahí está precisamente uno de los problemas actuales, en la física. En una reciente presentación sobre el esperado chip POWER8, el ponente hizo una broma al respecto: “he preguntado a los físicos y me han confirmado que la física no ha cambiado”. Y es que nos acercamos a la frontera del átomo y no es probable que la ley de Moore se siga cumpliendo.

El otro de los problemas está en la lógica. Como gusta recordar a nuestra presidenta, Virginia Marie “Ginni” Rometty, estamos iniciando la tercera era de la computación. De las tabuladoras pasamos a los ordenadores programables y de ahí a la computación cognitiva. El esfuerzo de programar ordenadores es demasiado costoso, necesitamos otro paradigma, ordenadores que aprendan, computación cognitiva.

¿De dónde podemos aprender? ¿En qué podemos inspirarnos? En el mundo vivo, en la biología.

La neurona, base del sistema nervioso, es un dispositivo muy antiguo. Apareció probablemente en la explosión cámbrica hace la respetable cifra de quinientos millones de años. Es un dispositivo lento comparado con un procesador actual, pero con una gran cantidad de ventajas: conectividad, bajo consumo y plasticidad.  El cerebro humano contiene 86000000000 de neuronas que trabajan en paralelo de forma coordinada. Consume apenas 20 watios, lo que una bombilla pequeña (un superordenador muy eficiente como Sequoia de IBM consume siete  megawatios, 350000 veces más que el cerebro). Y, sobre todo, tiene plasticidad, aprende.

Fuente:  PRIMUM NON NOCERE 2013

Related Posts with Thumbnails

Calendario

October 2014
M T W T F S S
« Sep    
 12345
6789101112
13141516171819
20212223242526
2728293031  

Spam

Otros enlaces

  • Enlaces

    Este blog no tiene ninguna relación con ellos, ni los recomienda.


  • Paperblog

    autobus las palmas aeropuerto cetona de frambuesa