Hace 16 años | Por mezvan a physorg.com
Publicado hace 16 años por mezvan a physorg.com

[c&p] James Clark un profesor de la Universidad de Maryland ha diseñado un superordenador personal con una velocidad de procesamiento 100 veces superior a la de los actuales ordenadores. Esta velocidad la logra gracias al procesamiento en paralelo en un simple chip. Muy posiblemente esta tecnología sea la base de la próxima generación de pc personales

Comentarios

D

#1 ¿para qué quieres que los "procesos de escritorio" vayan 100 veces más rápido? lol no creo que en el Office se note la diferencia de un retardo de 0,01s a 0,0001s

(#4 "a ver si..." escribimos bien :-p)

D

ya he conseguido bajarme y ojear el paper... aquí os pongo los puntos que más llaman la atención:
- ¿"Explicit Multi-Threading" es la solución para la dificultad de la programación paralela? juassssssssssssss...
- sólo 2 referencias y sean a ellos mismos (mosquea).
- sólo han probado 2 programas: multiplicación de matrices enteras densas y quicksort (creo que distan mucho de ser aplicaciones de escritorio típicas).

ese artículo creo que lo único bueno que tiene es que han pasado del simulador a la implementación en FPGA's, pero parece que se ha inflado bastante...

me resulta extraño que lo hayan admitido para un congreso de la ACM, ya se verá más adelante cómo evoluciona el tema, si es cierto que han encontrado la panacea volveremos a oir hablar de ellos.

ronko

"ahora si me irá el vista y las próximas 5 versiones de windows, Microsoft me va a hacer actualizar el equipo a mi cada dos por tres ¡y un jamón¡ estos no me adelantan" .- pensó.

D

otra cosa más a añadir:
As can be seen, the run time of the 75MHz XMT parallel computer was a bit faster than the recent 2.6 GHz AMD uniprocessor on matrix multiplication and slower on quicksort

es decir, que no es 100 veces más rápido es más o menos igual que un procesador corrientucho, si echas la cuenta de la vieja y dices "ah, pero es que van a 75Mhz, si fuesen a 2.6Ghz..." bien, entonces el truco de quitar las cachés para eliminar los problemas de coherencia les daría bien por saco, porque cuanto más rápido vayan los procesadores más se nota la diferencia de latencia entre el acceso a los registros y la memoria principal.

pues eso, resumiendo, que está muy bien como experimento sobre arquitecturas con alto grado de paralelismo "caseras", pero que si fuese la repolla como nos han querido hacer creer con ese titular tan amarillista ya lo habrían comprado Intel, IBM, AMD o Sun...

D

Estaría bien algo de información técnica, tanto del algoritmo como del hardware, muy interesante, estas son las noticias que me gustan.

g

#1 Es que en aplicaciones de escritorio dependes directamente de la E/S, un cuello de botella hoy por hoy insalvable, y me refiero a la respuesta del usuario, no a la velocidad de los dispositivos.

A mí esto me parece más vaporware que otra cosa.

Mariele

Estoy con #1, la idea de paralelizar no es nueva y de hecho se hace cada vez más, antes con hardware para tareas específicas: DSP de la targeta de sonido, los microprocesadores de las targetas gráficas (que menos que chupártela, lo hacen todo), etc.. y últimamente, a falta de poder augmentar la frecuencia de reloj, añadiendo cpu's en paralelo. El problema es hacer que el software que lo aproveche, no todo se puede dividir fácilmente para ser procesado en paralelo. Se hace dificil de creer que este señor haya inventado la sopa de ajo.

DZPM

Hasta que no lo confirmen en slashdot no me lo acabo de creer... demasiado bonito para ser real.

La paralelización es un proceso muy complejo como para que puedan resolverlo de manera tan sencilla. Tal vez hayan conseguido la mejora de x100 para algún caso específico (eso es trivial), pero conseguirlo para procesos de escritorio sería bastante interesante...

mezvan

#1 El sitio de donde proviene la noticia es demasiado fiable ... de los mejores de ciencia en la actualidad

Truck

Si ese profesor de Maryland es negro, calvete, tiene un hijo, y en su cabeza retumba el nombre de Skynet, yo tendría cuidado con lo que experimenta...

pecesama

#4 es que no fue una persona, esta mal el párrafo que pusieron, es decir James Clark no es el profesor, si no que así se llama la escuela de ingeniería de la universidad de Maryland (University of Maryland's A. James Clark School of Engineering), y los que hiceron esto fueron los investigadores del grupo del Prof. Uzi Vishkin

DZPM

#2, sí, por eso la he meneado sin leer más que el primer párrafo

u

#14 Sirve para ver en Full HD un videojuego 3D con gráficos fotorrealistas, o para crear películas que tengan esas características con tu ordenador doméstico.

Actualmente una sola imagen fotorrealista consume varias horas de proceso en un ordenador personal, a una resolución no muy grande.

D

#9 coño, no funcionan los enlaces interesantes (el paper y el tutorial)... ¿han sufrido el efecto menéame lol?

por curiosidad, no te habrás fijado en qué revista se ha publicado el paper, no?

capullo

#4 "A ver"

nindef

#4 No creo que lo anhelen,... Creo más bien que ya tienen una tecnologia similar pero que, si lanzaran algo así, se saltarían 25 productos intermedios que aun tienen que hacer salir al mercado en cuentagotas. Así venden más y tienen asegurada una progresión de hardware asegurada por tiempo, es evidente que no estan al límite.

a

Este tio no sera pariente de la familia Toledo?

Zade

Pues no sé, pero el procesamiento en paralelo es algo que estaba inventado ya... y en las cpu's de ordenadores personales, hasta ahora se hace con hebras (threads) si el programa lo permite. El problema no está en tener un hardware que procese en paralelo un solo programa, el problema está en que los programas estén hechos con varias hebras o procesos para que este hardware se pueda aprovechar, y esto a día de hoy, solo se puede hacer en muy pocas aplicaciones de escritorio (donde si tiene mayor aplicación es en programas de investigación científica, donde si es fácil separar los problemas, pero en un ordenador domestico...). Y por otra parte, que yo sepa, la investigación de compiladores que cojan un algoritmo cualquiera y lo convierta en un programa de varias hebras... creo que está parada y es prácticamente imposible hacer eso. En fin, creo que sólo serviría para tener la mula encendida, mientras juegas a algún juego que funcione con varios procesos (creo que existen pocos) mientras el spyware nos roba información privada... pero que yo sepa esto ya lo puedes hacer con un dual core (y con quad core lol)

a

#9 buena información

c

#5 para qué quieres que los "procesos de escritorio" vayan 100 veces más rápido?

para conseguir 7'5 en el examen de windows Vista lol lol lol lol lol lol lol lol

D

un salto tecnologico surrealista

m

No es lo mismo que vaya 100 veces más rápido que vaya que a hacer 100 o 1000 cosas en paralelo.

sauco82

¿Y esto para qué sirve? ¿Para ver simultáneamente 47 películas mientras renderizas 5 modelos tridimensionales?

sauco82

#18 Si contestas para contradecirme, por lo menos hazlo bien, si una sola imagen fotorrealista consume varias horas de proceso obviamente un procesador 100 veces más rápido sigue siendo inútil.

Llevamos viendo videojuegos en resolucíon mayor de 1280 * 1024 desde hace años, lo cual es superior al Full HD. Ahora mismo el mayor consumo de recursos en el ámbito de videojuegos está en los vídeos que se aplican a las texturas para emular modelos más detallados, pero de ese relleno se ocupa la gráfica por tanto el procesador si no se aplica a una gráfica...

D

Sisque... que una persona logre lo que probablemente gigantes como Intel, IBM, AMD... anhelan... Haber si es cierto