admin

Traductor

EnglishFrenchGermanItalianPortugueseRussianSpanish

Categorías

Archivo diario: 2009/02/21

¿Vi lo que pienso que vi?

[Resumen del artículo original -en inglés- y contacto con los autores en este enlace].

Los testimonios oculares son una parte crucial en muchos juicios criminales, aun cuando la investigación sugiere con creciente frecuencia que no pueden ser tan exactos como a nosotros (y a los abogados) nos gustaría que fueran. Por ejemplo, si usted ve a un hombre con un suéter azul robando algo y oye por casualidad a varias personas hablando sobre un suéter gris, ¿en qué medida es probable que usted recuerde el auténtico color del suéter del ladrón? Los estudios han mostrado que cuando la gente da información falsa sobre un suceso es fácil mezclar los hechos reales con los falsos. No obstante, existe evidencia de que cuando la gente es forzada a recordar lo que vio (poco después del suceso) es más probable que recuerde detalles de lo que ocurrió.

Los psicólogos Jason Chan, de la Iowa State University, Allana Thomas de la Tufts University, y John Bulevich del Rhode Island Collage querían comprobar en qué medida afecta la información falsa en un test de memoria realizado a voluntarios que habían contemplado un suceso. Un grupo de voluntarios observó el primer episodio de “24” y entonces se les pidió someterse a un test de memoria sobre el capítulo o que jugaran un juego. El siguiente paso fue proporcionar a todos los sujetos información falsa sobre el episodio visto y someterse a un test final de memoria sobre el mismo.

Los resultados, publicados en la edición de enero (2009) de Psychological Science, una revista de la Association for Psychological Science, fueron sorprendentes. Los investigadores hallaron que en los voluntarios que realizaron el test de memoria inmediatamente después de ver el episodio era casi dos veces más probable que recordasen la falsa información que los voluntarios que habían jugado a un juego a continuación del episodio.

Los resultados de un experimento subsiguiente sugieren que el primer recuerdo podría haber mejorado la habilidad de los sujetos para aprender la información falsa, esto es, el primer test mejoró el aprendizaje de la información nueva y errónea. Estos hallazgos muestran que la información recordada recientemente tiende a la distorsión. Los autores concluyen que “este estudio muestra que incluso los psicólogos pueden haber subestimado la maleabilidad de los testimonios oculares”.

————————————

Sin salirnos del tema, les dejo un par de enlaces a Misterios del aire, en los que Juan Carlos Vitorio contribuye al adecentamiento de la historia ufológica española:

El «encuentro cercano» de Pontejos (Cantabria), 6/1/69

Primera parte

Segunda parte

Comparen con la mierda mayoritaria difundida por el platillismo patrio en otros sucesos semejantes, los enemigos del sentido común, del razonamiento crítico y de la aclaración de los supuestos misterios. A quien le apetezca, puede seguir cargando con esa lepra.

Fuente:mihteriohdelasiensia

Datos técnicos curiosos sobre el buscador web de Google

Jeff Dean es uno de los más prestigiosos ingenieros que trabajan en Google, y es una de las personas que mejor conoce la arquitectura del clúster de servidores que tiene su buscador web.

La semana pasada, Dean ha estado en Barcelona en unas conferencias en las que ha hecho públicas algunas cifras bastante llamativas del buscador web de Google y de su funcionamiento, que están resumidas en este post y este post de los blogs personales de dos de los asistentes.

Algunos de estos curiosos datos son:

:: En el periodo 1999-2009 han cambiado:
el número de consultas en el buscador, que se ha multiplicado por 10.000
el tiempo entre actualizaciones de un documento web, que se ha reducido 10.000 veces. Antes transcurrían meses hasta que se actualizaba en el índice un sitio web que había sido modificado, y ahora son solamente unos pocos minutos.
la potencia de procesamiento, que se ha multiplicado por 1.000
el tiempo de procesamiento de una consulta, que se ha reducido 5 veces. El tiempo medio hace 10 años era de 1 segundo, y ahora tarda unos 200 milisegundos. pagerank

:: Cosas que había a finales de los 90:
existía un proceso batch que rastreaba las páginas web, y que se detenía cuando había ‘demasiadas’ páginas
existía un proceso de indexado de estas páginas hecho con herramientas Unix, que era bastante propenso a fallar y a ser contradictorio
el formato del índice original (año 1997) era un simple sistema ‘byte-aligned’ que codificaba información del campo ‘ocurrencias de una palabra’, lo que suponía un montón de accesos a disco.

:: Al de unos pocos años:
se redujo un 30% el tamaño del índice, gracias a que se construyo otro de longitud variable basado en bloques que utilizaba tablas para palabras con un gran número de ocurrencias. Además de la reducción del tamaño, el índice era más fácil de decodificar
se añadieron servidores de cacheo tanto para los resultados como para los ‘snippets’ de los documentos que aparecen en estos resultados
a principios de 2001 comenzaron a utilizar un índice construido en memoria donde los servidores de indexado (junto a los servidores de documentos, servidores de cacheo, etc.) hablaban directamente con los servidores web donde los usuarios realizan las peticiones
el índice fue particionado por documentos en lugar de por términos

:: Cosas que se han hecho últimamente:
se utiliza tecnología contruida dentro de Google. Tanto la física (el diseño de los racks, las placas madre) como la lógica (modifica el kernel de Linux, sistema ‘Google File System‘, sistema ‘BigTable‘)
se utiliza el entorno de desarrollo MapReduce para indexar
en 2004 se comenzó a utilizar a un sistema jerárquico para servir los índices, y que estaba basado en índices constuidos sobre ‘Google File System’
actualizaciones del índice mucho más rápidas
en 2007 se añadió el servidor ‘super root’ que comunica con todos los servidores de índices (Google News, buscador de imágenes, buscador de vídeos) para permitir ‘Google Universal Search

:: Pasos que Google sigue para experimentar con cambios en los algoritmos del buscador:
se gesta una idea de nuevo ránking
se generan datos para ejecutar pruebas rápidamente utilizando MapReduce, BigTable, etc.
se realizan pruebas de los resultados tanto con humanos como con consultas aleatorias para comprobar los cambios en el ránking.
se experimenta este cambio con un pequeño porcentaje de las búsquedas reales (por eso a veces los usuarios vemos experimentos)
se realizan ajustes sobre la implementación para pre-procesar los datos y hacerlos factibles a plena carga, incorporando a su vez la información necesaria al índice

:: Futuros retos:
manejo de información en diferentes idiomas. Actualmente hay una funcionalidad parecida, pero se pretende mejorarlo en muchos aspectos
desarrollo de sistema capaz de mostrar en los resultados documentos tanto públicos (rastreados de la WWW), como privados (por ejemplo, archivos de ‘Google Docs‘) o semi-privados (compartidos).
construcción automática de sistemas de tratamiento de la información para diferentes necesidades.

Fuente:  google.dirson.com

Related Posts Plugin for WordPress, Blogger...


Archivos

Calendario

febrero 2009
L M X J V S D
« Ene   Mar »
 1
2345678
9101112131415
16171819202122
232425262728