admin

Categorías

Coobis

General

Cómo se fabrica un microprocesador (CPU)

De la arena la «chip», como se fabrica un microprocesador

Fuente AMD

Carga de la baterías de teléfonos mediante la voz

El ruido puede ser un montón de cosas. Puede ser un medio válido de comunicación. Puede ser una molestia cuando usted está tratando de llegar a la cama por la noche. Puede ser una migraña a punto de ocurrir, y dependiendo de a quién se pregunte, incluso puede ser una forma de contaminación. Pero, ¿podría el hombre que habla fuerte y te molesta a tu lado en el metro, o la televisión del vecino a un volumen sonoro elevado, ser una fuente potencial de energía renovable?

Sang-Woo Kim, investigador en el Instituto de Nanotecnología de la Universidad de Sungkyunkwan en Seúl (Corea)  cree que podría ser así. Está trabajando en un campo conocido como barrido de energía en el que la energía se capta del día a día de la vida de los seres humanos. Otras formas de recuperación de energía  propuesta en California es tomar la energía de vibración de los vehículos  n las carreteras. Estos tipos de innovación tienen la posibilidad de proporcionarnos energía de fuentes renovables que no requieren la colocación de paneles solares o turbinas eólicas   en las zonas donde este tipo de construcción no siempre puede ser posible.

Puede preguntarse cómo esta tecnología basada en sonido puede funcionar. La tecnología propuesta convierte el sonido en un tipo de energía que un teléfono  pueda utilizar por la vinculación de los electrodos con  filamentos de óxido de zinc. Cuando el ruido se produce en el teléfono, una plataforma diseñada para absorber el ruido lo captura, y la vibración del teléfono (u otro dispositivo en cuestión), lo que haría que las fibras de óxido de zinc se expandan y contraigan. La expansión y contracción es lo que realmente genera la energía para la batería.

Un sistema prototipo  fue capaz de convertir 100 decibelios  de sonido, el equivalente al tráfico de la ciudad, en 50 milivoltios de alimentación energética.

Ampliar  información en: http://chem.skku.edu/graphene/

Es posible la generación de materia y antimateria de la nada

Bajo condiciones ideales – que implican una alta intensidad de un haz láser y 1 600 metros de largo y dos aceleradores de partículas –  podría ser posible crear algo de la nada, de acuerdo con investigadores de la Universidad de Michigan (EE.UU.).

Los científicos e ingenieros han desarrollado nuevas ecuaciones que muestran cómo un haz de electrones de alta energía en combinación con un pulso láser intenso puede destrozar un vacío dando origen a componentes fundamentales de materia y antimateria, y se desataría una cascada de eventos que generan pares adicionales de partículas y antipartículas.

«Ahora podemos calcular como, a partir de un solo electrón, varios cientos de partículas pueden ser producidas. Creemos que esto sucede en la naturaleza, cerca de púlsares y estrellas de neutrones», dijo Igor Sokolov, un científico de investigación en ingeniería que realizó esta investigación junto con el científico investigador asociado John Nees,  profesor emérito de ingeniería eléctrica Gerard Mourou y sus colegas de Francia.

En el corazón de este trabajo está la idea de que el vacío no es exactamente nada. «Es mejor decir, siguiendo al físico teórico Paul Dirac, que el vacío, o nada, es la combinación de materia y antimateria – partículas y antiparticles. Es tremendo, pero no podemos percibir cualquiera de ellos, porque sus efectos observables por completo se anulan entre sí «, dijo Sokolov.

La materia y la antimateria se destruyen entre sí cuando entran en contacto en condiciones normales.

«Pero en un fuerte campo electromagnético, esta aniquilación, que suele ser un mecanismo disipador, puede ser el origen de nuevas partículas,» dijo Nees. «En el curso de la aniquilación, los fotones gamma aparecen, y pueden producir electrones y positrones adicionales. »

Un fotón gamma es una partícula de  luz de alta energía. Un positrón es un anti-electrón, una partícula de imagen especular con las mismas propiedades que un electrón, pero una carga opuesta, positiva.

Los investigadores describen este trabajo como un gran avance teórico, y un «salto cualitativo en la teoría.»

Un experimento de finales de los 90 del siglo pasado logró generar a partir de un vacío  fotones gamma y un par electrón-positrón ocasional.  Estas nuevas ecuaciones llevan este trabajo un paso más al modelo de cómo un campo láser fuerte podría promover la creación de más partículas que las que se inyectan inicialmente en un experimento a través de un acelerador de partículas.

«Si el electrón tiene una capacidad para convertirse en tres partículas dentro de un plazo muy corto, esto significa que no es un electrón por más tiempo», dijo Sokolov.  «La teoría del electrón se basa en el hecho de que será un electrón para siempre. Pero en nuestros cálculos, cada una de las partículas cargadas se convierte en una combinación de tres partículas, más un cierto número de fotones.»

Los investigadores han desarrollado una herramienta para poner en práctica sus ecuaciones en el futuro en una escala muy pequeña con el láser HERCULES en la UM. ara probar el potencial completo de su teoría, un láser tipo HERCULES tendría que ser construido en un acelerador de partículas como el SLAC National Accelerator Laboratory en la Universidad de Stanford. Dicha infraestructura no está actualmente prevista.

Este trabajo podría tener aplicaciones en la fusión por confinamiento inercial, lo que podría producir energía más limpia en las reacciones de fusión nuclear, dicen los investigadores. Para Sokolov, es fascinante desde una perspectiva filosófica.

«La pregunta básica ¿qué es un vacío, y lo que es nada, va más allá de la ciencia», dijo. «Está profundamente arraigado en la base no sólo de la física teórica, sino de nuestra percepción filosófica de todo – de la realidad, de la vida, incluso la cuestión religiosa, que todo el mundo podría haber venido de la nada.»

Un artículo sobre este trabajo ha sido publicado en Physical Review Letters.

Sokolov es un científico investigador del Laboratorio de Investigación de Física Espacial del Departamento de Atmospheric, Oceanic and Space Sciences. Nees es un científico investigador asociado en Center for Ultrafast Optical Science y profesor asociado adjunto en el Departamento de Electrical Engineering and Computer Science.  Mourou es el AD Moore distinguido profesor emérito de Ingeniería Eléctrica que se encuentra actualmente en  el Institut de la Lumiere Extreme en Francia.  También contribuyeron Natalia M. Naumova, en el Laboratoire d’Optique Appliquee en Francia.

Esta investigación fue financiada en parte por el Departamento de Energía de EE.UU.

Fuente:  ScienceDaily

_____________

Enlaces de interés:

–  Actualidad informática:  Física

–  La energía es única. Física y pseudociencias

–  Historia de la medida de la velocidad de la luz.

Cuando la tecnología informática funciona deliberadamente mal para que resulte más rentable a su fabricante

Por ejemplo, observemos lo que ocurre con una impresora de la marca IBM, concretamente la impresora láser LaserWriter E. Es una impresora barata y de baja calidad. Pero si la evisceramos, descubriremos que contiene los mismos componentes de la impresora de alta calidad (y más cara) LaserWriter. Lo hace que IBM es introducir un chip en la impresora barata que la hace más lenta.

La razón para esto es doble. Por una parte, si IBM vendiera todas sus impresoras al mismo precio que su versión barata, ganaría menos dinero. Por otra parte, si diseña y produce en masa un único modelo para luego venderla a dos precios distintos, entonces puede ganar mucho más. La razón de esto es el cliente más adinerado.

Cuando las cosas baratas apenas si diferencian de las cosas caras, los clientes con mayor poder adquisitivo prefieren las cosas baratas (son ricos, pero no tontos). Para que un cliente con dinero decida gastar más dinero hace falta un incentivo: que el producto que adquiera sea mejor que el barato (o que se diferencie en algo sustancial, que también puede ser el simple aspecto externo, que será más cuidado).

Parece un verdadero desaprovechamiento del producto, pero aparentemente era más barato para IBM hacer esto que diseñar y fabricar dos impresoras completamente diferentes. Intel, el fabricante del chip, hizo una jugada similar al vender dos chips procesadores muy parecidos entre sí a diferentes precios. En este caso, el chip de inferior calidad era realmente el más caro de producir: se obtuvo desactivando una de las funciones del chip superior, para lo cual debía hacerse un trabajo adicional.

Es decir, que hay productos que son más caros de producir que se venden más baratos que productos que son más baratos que producir, aunque ambos productos sean casi idénticos. El mundo al revés. Y todo para fijar precios según el tipo de cliente que adquiere el producto.

Es la misma lógica que se emplean en la ropa cara respecto a la barata: ¿por qué la ropa barata acostumbra a ser más fea, peor diseñada y de colores menos sofisticados que la ropa cara? Además de que hay menos inversión de medios, una explicación alternativa podría ser que una misma marca fabrica dos versiones de ropa: y la barata la fabrica especialmente fea para que el cliente con dinero no tenga la tentación de sustituirla por la cara.

En los productos alimentarios, las marcas blancas (normalmente fabricadas por marcas importantes) tienen envases más feos y peor diseñados: así comprar comida cara es algo más que comprar comida de mejor calidad.

A menudo, los paquetes de software tienen dos o más versiones: una de ellas tiene todas las funciones activadas (el paquete “profesional”) y la otra se vende al mercado masivo a un precio considerablemente inferior. Algunas personas no se dan cuenta de que lo típico es que la versión profesional se diseñe primero y que algunas de sus funciones se desactiven para la versión destinada al mercado masivo. A pesar del elevado precio de la versión profesional, en realidad es la versión más barata la que tendrá de antemano un coste adicional para quien la desarrolle y, por supuesto, las dos versiones se venden en CD (cuyo coste de producción es el mismo).

Las empresas han descubierto, pues, que una manera eficaz de fijar los precios de acuerdo con el cliente pasa por exagerar las diferencias entre el mejor y el peor servicio, aunque ello sea incluso más costoso en el caso del peor servicio.

Vía | El economista camuflado de Tim Harford

Fuente:  Genbeta

Bajo licencia Creative Commons

Las ventajas de escribir a mano

Los «tengo ganas de verte», «te echo de menos» y, sobre todo, los «te quiero» parecen más sinceros cuando están escritos a mano, cuando al ver el papel o abrir el sobre se descubre la tinta del bolígrafo y quien lee la nota distingue la letra de la persona a la que ama. Pero el aspecto romántico no es el único beneficio de esta práctica, cada vez más en desuso. Además de contribuir a las relaciones amorosas, redactar a mano tiene ventajas para el cerebro, según apuntan recientes investigaciones. Entre otras cosas, ayuda a fijar conceptos, a aprender un nuevo idioma y a mantener la mente activa.

Gracias a imágenes de resonancia magnética, científicos de la Universidad de Indiana (EEUU) han visto que al escribir a mano se activan más regiones del cerebro y se favorece el aprendizaje de formas, símbolos y lenguas. Asimismo, según explican los autores al diario ‘The Wall Street Journal’, esta técnica ayuda a expresar mejor los pensamientos y las ideas. Incluso para algunos trastornos neurológicos, la habilidad en esta escritura puede servir como una herramienta de diagnóstico.

Según indica Virgilio Hernando Requejo, neurólogo del Hospital Madrid-Norte Sanchinarro, «la representación que tiene la mano en la corteza cerebral es enorme. Al escribir con bolígrafo utilizamos mucho más el cerebro que cuando usamos el teclado del ordenador . Si dejamos de escribir a mano durante un tiempo, está claro que las estructuras cerebrales van a cambiar».

Sin embargo, más que el cambio en el cerebro, el mayor peligro que este experto ve en las nuevas tecnologías es «el desentrenamiento de la memoria». El doctor Hernando señala que «ahora está todo en el iPhone y dispositivos similares, tenemos mucha más información en el bolsillo, pero no somos capaces ni de recordar un número de teléfono y eso es lo verdaderamente preocupante».

¿Un retroceso?

«Es bueno seguir escribiendo a mano, porque al hacerlo se piensa más lo que se está diciendo, pero el hecho de que cambiemos esta práctica tampoco quiere decir que retrocedamos», matiza este especialista. «Me recuerda a cuando los mayores nos decían que nos íbamos a atrofiar por dejar de estudiar Latín. Pues tenían razón en parte, porque es un idioma más, la base del nuestro y además con declinaciones, lo que facilita el aprendizaje de otras lenguas. Pero en realidad no ha pasado nada. Pese a todo, pese a que ya casi nadie sabe Latín, lo cierto es que ahora hay más gente que habla más de un idioma, así que lo que se ha perdido por un lado se ha ganado por otro», dice.

Lo mismo se puede aplicar a la escritura manual. «Al ir dejando de lado esta práctica se pierden algunas habilidades, evidentemente, pero se pueden ganar por otra parte «, dice Hernando Requejo, que además bromea con que «la mala escritura manual de algunos médicos da más problemas que ventajas».

Los creadores de los nuevos dispositivos informáticos también son conscientes del ‘encanto’ que tiene la escritura manual y, por eso, han desarrollado algunas aplicaciones que la imitan, aunque sea en la pantalla. El propio presidente de EEUU, Barack Obama, fue tentado para firmar un autógrafo, haciendo su garabato, en la pantalla de un iPad. «Para los nostálgicos, no todo está perdido», reconoce el neurólogo.

Fuente:  Maldita Ciencia

____________________

Enlaces de interés:

–  Grafología, otra pseudociencia. Marisol Collazos Soto

–  Grafología, una clase de pseudocirencia

–  Apuntes Informática Aplicada al Trabajo Social. UMU. Aplicaciones software

–  Prácticas informática. UMU.  Editores de textos

En EE.UU. 16000 muertos al volante en seis años por culpa de los SMS

Los accidentes de tráfico provocados por conductores que envían SMS mientras están al volante causaron 16000 muertes entre 2001 y 2007, según afirma un análisis elaborado por investigadores de la ‘University of North Texas’ (EE.UU.).

La investigación constituye uno de los primeros esfuerzos científicos por cuantificar cuántas personas han muerto en accidentes causados por distracciones al volante que encuentran su origen en el teléfono móvil.

Las conclusiones del informe, además de la cifra de víctimas de este mal hábito al volante, evidencia también la juventud de los que lo practican: un creciente número de estos conductores son menores de 30 años.

«Los resultados sugieren que los aumentos recientes y rápidos en el volumen de SMS que se envían han causado miles de muertes adicionales en las carreteras de los Estados Unidos», afirman en su estudio lo investigadores Fernando Wilson y Jim Stimpson.

Para su estudio, Wilson y Stimpson han contrastado el número de accidentes de tráfico de cada estado, con el número de móviles entre sus habitantes y el volumen de SMS enviados, según datos de la Comisión Federal de Comunicaciones.

«Desde 2001 el volumen de mensajes de texto ha aumentado en varios cientos por ciento», asegura Wilson; y es a ese aumento al que atribuyen cerca de 16.000 personas, según predice su modelo.

Sólo hablar por teléfono puede distraer a un conductor, y varios estudios han demostrado que, incluso con un dispositivo de manos libres. Sin embargo, Wilson añade que los mensajes de texto y el uso de teléfonos inteligentes que proporcionan acceso al correo electrónico y otras aplicaciones de distracción llevar el problema a un nuevo nivel.

Además, los investigadores calculan que, por cada nuevo millón de usuarios de móvil, las muertes ocasionadas por conductores distraídos aumentarán un 19 por ciento.

Fuente:  PORTALTIC.es

_________________

Enlaces de interés:

–  Actualidad informática: Telefonia móvil celular

–  Apuntes Introduccion a la Informática. GAP.  UMU. Redes y comunicaciones

El almacenamiento digital tampoco es eterno

«¿Por qué deberíamos prestar atención a la conservación a largo plazo de la información digital en un momento en el que las posibilidades de almacenamiento nunca han sido tan abundantes ni tan baratas?», se pregunta un estudio realizado por la Academia Nacional de Tecnologías Francesa (NATF). La respuesta de los investigadores es tan sencilla como inquietante: los discos grabables están en constante deterioro, incluso cuando no se utilizan, y tienen una esperanza de vida limitada a entre cinco y diez años. «Los fabricantes quieren hacernos creer que sus medios de almacenamiento mantienen los datos para siempre, pero no es así», resume Franck Laloë, coautor del informe y director de investigación en el Centro Nacional francés de Investigación Científica (CNRS).

A principios de la década de los ochenta, cuando empezaron a aparecer los primeros CD, se dijo de ellos que eran un soporte casi indestructible. Se les auguraba una vida superior a los 100 años al no existir contacto físico entre el disco y el láser que interpreta los contenidos que alberga. Pero hay muchos otros factores que influyen en la degradación del soporte. «Al deterioro físico, sobre todo a los arañazos, hay que sumar aspectos como cambios bruscos de temperatura, humedad, sobreexposición a la luz, etc.», explica Juan Martos, director de laboratorio de Recovery Labs, una compañía española especializada en recuperación de datos en todos los soportes.

En ese tipo de daños no influye directamente el usuario, que ha grabado el disco, lo ha guardado dentro de una caja y cree que podrá acceder a la información muchos años después. Según los investigadores del NATF, el riesgo de perder esos contenidos es proporcional al tiempo transcurrido. El problema es que los discos se estropean incluso si se almacenan cuidadosamente, advierten los investigadores. Las pruebas realizadas ponen de manifiesto que la elección de un fabricante conocido no asegura necesariamente una vida mayor de los discos y que, cuanto mayor es la densidad de información de los soportes físicos, mayor es su fragilidad. Así, los CD grabables son más resistentes que los DVD y estos, a su vez, lo son más que los discos Blu-ray.

Fallos físicos y lógicos

Un estudio realizado en 2007 por Google sobre la vida útil de los discos duros tampoco planteaba a estos soportes como soluciones a largo plazo. «También tienen fecha de caducidad; se estima en unos cinco años», indica Martos. Al contrario de lo que se suele creer, un disco duro que no está funcionando de manera constante tiene más riesgo de averías que uno que está permanentemente conectado. «Si el calor al que está sometido es continuo no tiene por qué ocurrir nada, pero pasar de 15º a 50º provoca que las piezas mecánicas sufran más estrés por la dilatación y la contracción y puede dar lugar a errores», añade Martos.

Recovery Labs tiene un porcentaje de éxito del 70% en la recuperación de datos en soportes dañados. Su jefe de laboratorio explica que, pese a la elevada cifra, hoy es más difícil recuperar la información de los discos duros que antes. «La miniaturización influye. Son cada vez más pequeños, tienen más información y es más difícil encontrar repuestos, que a la vez es una de las áreas que más encarece la reparación cuando se trata de averías físicas».

La migración perpetua

Si los usuarios no pueden depender de conservar en CD o DVD sus archivos, y si los discos duros también tienen un índice elevado de error con el paso del tiempo, ¿qué solución es la que deberían adoptar los usuarios para la conservación de datos a largo plazo? Los investigadores del CNRS apuestan por un remedio sencillo. En su opinión, sólo un constante traslado de datos garantiza la conservación de los mismos, con el coste y las molestias que cada migración conlleva. «Por desgracia, no existe una solución clara al problema del almacenamiento a falta de un método decisivo y ampliamente aceptado. El único consejo que podemos dar a la gente es copiar sus datos a través de múltiples discos y renovar sus copias de seguridad en nuevos soportes cada cierto tiempo», reconocen.

Artículo completo en:  Público.es

Bajo licencia Creative Commons

__________________________________

Enlaces de interés:

–  Actualidad informática: Sistemas almacenamiento

–  Apuntes Informática Aplicada al Trabajo Social. UMU.  Introducción hardware

–  Periféricos de un ordenador. Introducción a la Informática. GAP.  UMU

Dell vendió millones de PC sabiendo que el 97% fallaría en los tres años siguientes

En 2005 trascendió que varios grandes fabricantes de PC, entre ellos, HP, Dell y HP, tenían serios problemas con condensadores defectuosos en las placas madre de PC de sobremesa. El problema afectaba placas producidas por Intel y por el fabricante japonés Nichichon.

La mayoría de los condensadores mostraban una tendencia a expandirse y romperse, permitiendo así la filtración de líquido en otros circuitos y componentes. En 2007 el ISP Advanced Internet Technologies demandó a Dell ya que esta se negaba a asumir la responsabilidad por 2000 PC defectuosos. Esta situación habría ocasionado a AIT pérdidas de varios millones de dólares.

En un artículo sobre el tema, el diario New York Times refiere documentos hasta ahora confidenciales, según los cuales Dell, en lugar de retirar de circulación los PC defectuosos, continuó vendiéndolos, sabiendo que fallarían.

Según un análisis encargado por la propia Dell a una consultora externa, el 97% de los PC afectados presentarían errores durante los tres años siguientes a su venta. A pesar de ello, en el período mayo de 2003 a julio de 2005 Dell vendió 11,8 millones de PC Optiplex con condensadores defectuosos.

La documentación del caso revela que Dell hizo lo posible por disimular e ignorar el problema. Así, dio instrucciones al personal de soporte para evitar hablar sobre los problemas causados por los condensadores, y cuando la empresa debió sustituir algunos de ellos para clientes que habían presentado quejas, sencillamente utilizó los mismos componentes defectuosos.

Ante una consulta hecha por la Universidad de Texas debido al mal funcionamiento de los PC, Dell atribuyó la causa a que “el departamento de matemáticas de la Universidad había recargado excesivamente los aparatos haciéndolos realizar cálculos matemáticos complejos».

A otros clientes, Dell “explicó» que habían utilizado los PC en ambientes demasiado calurosos o que los habían empleado para cálculos demasiado intensos.

Noticia completa en:  Diario TI

La teoría de Kurt Ammon sobre el cerebro humano como una máquina creativa

El cerebro humano parece capaz de realizar tareas que no puede realizar ningún ordenador. Un ordenador sólo puede realizar tareas calculables (o computables). Turing (1969) afirmó que la inteligencia se caracteriza por la creatividad o iniciativa para el procesamiento de conceptos informales. ¿Es el cerebro una máquina creativa? ¿Es calculable computacionalmente la creatividad? Kurt Ammon introduce en “Informal concepts in machines,” ArXiv, 4 May 2010, el concepto de máquina creativa como la que es capaz de evaluar funciones más allá de las posibilidades de una máquina de Turing o de un sistema formal. ¿Existen las máquinas creativas? Su definición se apoya en dos teoremas: el teorema 1 afirma que existe un procedimiento efectivo para generar una función calculable que no está contenida en ninguna enumeración efectiva de funciones calculables, que demuestra utilizando un argumento de diagonalización; y el teorema 2 afirma que existe un procedimiento efectivo para generar una función calculable que no está contenida en ningún sistema formal que incluya predicados sobre dichas funciones, que demuestra usando el teorema 1. ¿Qué significan estos teoremas?

Una función calculable de los números naturales es parcial si no es capaz de dar un valor resultado para todos los números naturales (su dominio es un subconjunto de los naturales). Una función calculable es total en el caso contrario, cuando su dominio son todos los naturales. Obviamente, el problema de la parada implica que no existe ningún algoritmo (máquina de Turing) que pueda decidir si una función calculable parcial es total. Para Ammon, una máquina creativa es la que es capaz de transformar en función total toda función (sea parcial o total) que reciba como entrada. En este sentido un sistema creativo es capaz de calcular valores de funciones no calculables más allá de los límites de cualquier máquina de Turing o sistema formal. Según Ammon, sus teoremas afirman que los procedimientos (máquinas) creativos existen, pero como no pueden ser máquinas de Turing, no podemos describirlos en un sistema formal. Para él, una máquina “inteligente” es una máquina creativa, capaz de calcular más allá de la capacidad de procesamiento de una máquina de Turing.

Si Ammon tiene razón, nunca la inteligencia artificial será capaz de construir un algoritmo (máquina de Turing) inteligente, aunque las máquinas “inteligentes” existen. A los matemáticos les encanta demostrar la existencia de objetos que no se pueden construir (algorítmicamente) o describir (formalmente). Para la mayoría de nosotros es obvio que las máquinas inteligentes existen, nosotros somos una máquina inteligente.

Fuente:   Francis (th)E mule Science’s News

___________________________

Enlaces de interés:

–  Apuntes Informática Aplicada al Trabajo Social. Capitulo 8, Inteligencia Artificial

–  Actualidad informática: Inteligencia artificial

–  Historia de los primeros lenguajes de programación

–  Richard Dawkins se sumó a una campaña para obtener un reconocimiento oficial para Alan Turing

Related Posts with Thumbnails

Calendario

abril 2024
L M X J V S D
« Nov    
1234567
891011121314
15161718192021
22232425262728
2930  

Spam

Otros enlaces

  • Enlaces

    Este blog no tiene ninguna relación con ellos, ni los recomienda.


  • Paperblog

    autobus las palmas aeropuerto cetona de frambuesa