Archivos de la categoría ‘Tecnologia’

Solo 5 meses mas de soporte para Windows Server 2003

Publicado: 21 febrero, 2015 de nexus2036 en Tecnologia, Windows

En 2014 Windows XP vio su final tras una larga vida llena de éxito, siendo considerado como uno de los mejores sistemas operativos de la historia de Microsoft. Abandonado a su suerte a una cuota de mercado del 25% (que actualmente sigue alrededor del 10%), Microsoft dejó de emitir actualizaciones de seguridad para su sistema operativo de mayor éxito de cara a que los usuarios actualizaran a sistemas operativos modernos como Windows 7 o Windows 8.1.

En esta ocasión quienes van a quedar abandonadas a su suerte van a ser las empresas. En menos de 5 meses, exactamente el próximo 14 de julio, el sistema operativo Windows Server 2003 recibirá su último parche de seguridad, dando así por finalizado su soporte extendido y quedando ya sin soporte ni actualizaciones, expuesto a cualquier vulnerabilidad que se pueda descubrir en él.

Windows Server 2003 Final Soporte

Si cuando finalizó el soporte de Windows XP afirmábamos que una de las principales razones por la que los usuarios seguían utilizando este sistema operativo era el precio de las nuevas licencias y del servicio técnico responsable de actualizar los equipos (si el usuario no tiene demasiados conocimientos), en esta ocasión volvemos a referirnos a los costes. Las ediciones Server tienen unos precios muy por encima de lo que puede pagar un usuario por un Windows de escritorio que, en algunas ocasiones y dependiendo de las necesidades del servidor, los precios pueden llegar a ser desorbitados. No todas las empresas pueden permitirse actualizar sus servidores y equipos de trabajo (entre otras cosas por el tiempo que lleva dicho proceso), por lo que se intenta alargar el máximo posible el uso de los sistemas operativos ya instalados y configurados. Windows Server 2003 tiene ya 12 años pero ¿si funciona y cumple con las necesidades de la empresa por qué han de actualizarlo?

Sea como sea, a partir del 14 de julio, todos los servidores que ejecuten Windows Server 2003 se quedarán sin el soporte extendido, quedando expuestos ante cualquier vulnerabilidad que pueda aparecer en el sistema operativo exponiendo toda la red de la empresa suponiendo esto un riesgo mucho mayor del que puede suponer utilizar un sistema operativo desactualizado en un entorno doméstico y siendo a la vez un objetivo muy interesante para los piratas informáticos.

Todas las empresas que utilicen este sistema operativo en sus servidores y no quieran ser víctimas de piratas informáticos deberán actualizar a una versión más reciente como Server 2008 o Server 2012 (con la correspondiente compra de licencias) o dar una oportunidad a Linux Server que, aparte de ser más seguro es totalmente gratuito y puede permitir a las empresas ahorrarse una considerable cantidad de dinero y obtener un mejor soporte con prácticamente las mismas funcionalidades que ofrece el sistema de servidores de Microsoft.

¿Qué opinas de la decisión de Microsoft de abandonar a los más de 1.5 millones de usuario de Windows Server 2003? ¿Podrían las empresas actualizar a una distribución como Ubuntu Server para garantizar un mayor soporte y mejor seguridad?

Cómo mejorar la memoria virtual en Windows

Publicado: 12 febrero, 2015 de nexus2036 en Intel, Tecnologia, Windows

Memoria_Virtual_Windows

La memoria virtual en Windows, también conocida como archivo de intercambio, es una técnica que permite seguir utilizando el equipo cuando tenemos utilizada toda la memoria RAM física disponible.

Como sabes, un PC estándar cuenta con dos tipos de memoria física. La que proporciona los discos duros o SSD utilizadas para almacenamiento masivo de datos y la memoria RAM, mucho más rápida pero de menos capacidad y volátil, que funciona como un área de trabajo para el sistema, aplicaciones y archivos que tengamos abiertos.

La memoria virtual se coloca en medio de las dos proporcionando una expansión temporal de la memoria RAM utilizado una parte de la capacidad del disco duro. Una función muy útil especialmente en equipos con poca RAM que actúa cuando la memoria RAM disponible se agota, trasladando una parte de sus datos al archivo de intercambio creado por la memoria virtual.

Memoria_Virtual_Windows_2

Si alguna vez te encuentras con errores de “memoria virtual baja” o simplemente quieres gestionar mejor su funcionamiento, comentamos alguna idea para mejorarla.

Para acceder a la gestión de la memoria virtual en Windows (7, 8 / 8.1) vamos a Panel de control-Sistema-Configuración avanzada del sistema. En Opciones avanzadas veremos una pestaña de configuración de rendimiento que incluye el de memoria y memoria virtual.

Memoria_Virtual_Windows_3

Pulsamos sobre configuración de rendimiento-Opciones avanzadas para acceder a la gestión de la memoria. Como verás, podemos incluir la memoria virtual en cualquier de nuestras unidades de almacenamiento o particiones, dejando a Windows que administre su capacidad o asignándola nosotros.

Por defecto, Windows establece el archivo de paginación de memoria virtual inicial igual a la cantidad de RAM que tiene instalada y con un máximo del triple de ella.

Memoria_Virtual_Windows_4

Si tienes errores de “memoria virtual baja” ya sabes, aumenta el archivo de paginación al doble o triple de la memoria RAM instalada y siempre, asegúrate de colocar la memoria virtual en tu unidad de almacenamiento más rápida. Por ejemplo en equipos que unen SSD y discos duros.

Microsoft proporciona una herramienta automática de configuración “Microsoft Fix it 50587″ que fija automáticamente la memoria virtual en un mínimo de 1,5 veces la RAM y un máximo de 3. La herramienta es tan sencilla como descargarla e instalarla, aunque te recomendamos su gestión manual como hemos comentado.

Que es la VRAM y ¿Cuanta Necesitas?

Publicado: 10 febrero, 2015 de nexus2036 en Tecnologia

memoria-VRAM

La llegada de tarjetas gráficas con cantidades enormes de memoria ha llevado a muchos usuarios a lanzarse una pregunta que, ciertamente, se ha ido repitiendo durante los últimos años, y es cuánta memoria VRAM necesitan para cubrir sus necesidades.

Obviamente no podemos dar una respuesta única y exclusiva que sirva para todos los usuarios, sino que debemos matizarla y concretarla en función de las necesidades específicas de cada persona.

Dado que actualmente existen variantes de 1 GB o 2 GB dentro del sector de gama media-baja, de 2 GB a 4 GB dentro de la gama media-alta y 4 GB a 8 GB dentro de la gama alta hemos querido hacer esta guía para ayudaros a elegir, ya que la diferencia de precio entre unas y otras variantes normalmente es abultado y no siempre nos beneficia optar por las versiones con mayor VRAM.

Dicho esto nos ponemos manos a la obra y como siempre os animamos a dejar vuestras opiniones o dudas en los comentarios.

Empecemos por la base, ¿qué es la VRAM?

La VRAM es un tipo de memoria específicamente diseñada para su uso en soluciones gráficas, y juega un papel muy similar al de la RAM principal, aunque obviamente dentro de su propio campo.

Así, y dicho de forma simple, la RAM tiene por objeto el almacenamiento de datos y la “alimentación” con los mismos a la CPU la VRAM hace lo propio pero con la GPU.

Esto supone que la VRAM almacena, por ejemplo, las texturas, actúa como frame buffer y también guarda otros elementos importantes, como por ejemplo los mapas de sombras e iluminación.

Las exigencias de una GPU son muy elevadas, y por ello es conveniente utilizar este tipo de memoria específica, que normalmente resulta ser mucho más rápida que la memoria RAM convencional, sobre todo en el caso de las GDDR5, que actualmente llegan hasta los 7 GHz.

Ello garantiza una mayor fluidez en el trabajo de la GPU, que nunca se quedará “desabastecida” ni tampoco se producirán “atascos” si la VRAM es lo bastante rápida.

Debemos tener en cuenta que la potencia de la GPU es un elemento importante y del mismo depende el aprovechamiento de la memoria de vídeo. Así, una GPU de gama baja no sacará partido ni siquiera a 2 GB de VRAM, aunque la misma sea de tipo GDDR5, mientras que una GPU de gama alta con 1 GB de GDDR5 estará limitada y no podrá funcionar a plena capacidad.

¿Qué elementos influyen en el uso de memoria VRAM?

La respuesta es más sencilla de lo que puede parecer en un primer momento, y para no caer en complicaciones innecesarias vamos a realizar un resumen con los dos más importantes:

  1. La resolución que vayamos a utilizar: Actualmente los juegos se renderizan con una profundidad de color de 32 bits por píxel, lo que se traduce si jugamos a 1080p un sólo fotograma ocupa 8,3 MB, resultado de multiplicar 32 x 1.920 x 1.080. Si subimos la resolución a 4K la cifra aumenta a 33,2 MB for fotograma.
  2. Antialiasing: El suavizado de bordes también influye en la cantidad de memoria de vídeo utilizada, ya que se necesita una mayor cantidad de píxeles para cubrir y disimular los dientes de sierra y ello aumenta, por tanto, el consumo de VRAM.

Esto quiere decir, en esencia, que debemos considerar una mayor cantidad de memoria de vídeo si vamos a jugar en altas resoluciones y a utilizar suavizado de bordes.

Debemos tener en cuenta que actualmente el desarrollo de los juegos tiende a un mayor uso de memoria de vídeo y que, por tanto, la misma juega un papel muy importante actualmente.

ultra-fxaa

¿Entonces cuánta memoria de vídeo necesito?

Lo primer que debemos tener claro tras las bases que hemos expuesto es que depende del juego, evidentemente. No es lo mismo correr juegos como Minecraft a 4K que Skyrim con el pack de texturas a la misma resolución, así que es una necesidad que siempre dependerá del juego en concreto.

Hecha esta matización quiero hacer algunas aclaraciones y desmentir mitos que circulan sobre la VRAM, de forma que así tengamos todos las ideas un poco más claras:

  • Un SLI o CrossFire no duplica la RAM, al menos hasta la llegada de DirectX 12, lo que supone que el hecho de tener por ejemplo dos GTX 680 con 2 GB de GDDR5 cada una no nos da un total de 4 GB, ya que no se acumulan. Lo mismo se aplica a configuraciones con tres o cuatro GPUs.
  • No podemos hacer SLI con dos gráficas idénticas pero con diferente cantidad o tipo de VRAM. Esto quiere decir que si compramos una GTX 770 con 2 GB no podremos hacer SLI con una de 4 GB. El CrossFire de AMD es más flexible en este caso, pero no es recomendable emparejar dos GPUs con diferente cantidad de RAM, ya que la diferencia no se aprovechará.
  • Más memoria de vídeo no implica necesariamente un mayor rendimiento: Esto es una verdad como un templo de grande, ya que si la misma no se utiliza no marca una diferencia, y de hecho en algunos casos puede suponer incluso menos rendimiento. Así, es mejor por ejemplo tener 2 GB de GDDR5 que 4 GB de DDR3. Sin embargo debemos tener cuidado, ya que disponer de menos RAM de la necesaria puede suponer una importante pérdida de rendimiento.

Llegados a este punto podemos lanzarnos a concretar, de forma aproximada ya que como dijimos depende en muchos casos de cada juego en concreto, qué cantidad de VRAM es realmente necesaria.

En tarjetas gráficas de gama alta, como las GTX 980-970 y Radeon R9 290X-290, contar con 4 GB de VRAM es un requisito indispensable, ya que con estas soluciones gráficas utilizaremos altas resoluciones y niveles de calidad ultra que consumirán una gran cantidad de memoria de vídeo.

No es recomendable la compra de estas tarjetas gráficas si vamos a jugar a resoluciones inferiores a los 2K o 1080p en algunos títulos concretos.

Por contra las soluciones con más de 4 GB de RAM no marcan realmente una diferencia de rendimiento, así que no son recomendables ni necesarias, incluso si vamos a jugar en resoluciones 4K.

Puede que a medio o largo plazo marquen una diferencia más visible, pero para entonces habrá soluciones mejores en el mercado y es posible, además, que nuestra GPU no sea capaz de sostener esa resolución con los nuevos juegos que vayan saliendo.

En el caso de tarjetas gráficas de gama media, como las GTX 960 y las R9 280, lo normal es contar con 2 GB o 3 GB de memoria de vídeo. Dicha cantidad es más que suficiente para la finalidad de estas tarjetas gráficas, jugar en 1080p con calidades altas o máximas y no, no tiene sentido comprar las versiones con 4 GB o 6 GB de memoria de vídeo, ya que la misma no se aprovechará, puesto que la GPU de estas soluciones gráficas no tiene la potencia necesaria para mover juegos en resoluciones 4K y calidades aceptables.

Finalmente dentro de lo que podemos considerar gama baja no vale la pena pasar de 1 GB de VRAM, ya que vamos a jugar en resoluciones inferiores a los 1080p.

Evolución de los micros x86

Publicado: 25 abril, 2014 de nexus2036 en Tecnologia

El repaso a la historia de los microprocesadores que han aprovechado las prestaciones de la plataforma x86 de 32 bits es todo un lujo para los que hemos visto pasar todos estos modelos gradualmente en nuestros PCs y portátiles, y aunque hemos destacado algunos de dichos modelos, podréis encontrar muchos más detalles en el extenso y fantástico reportaje original -en inglés, eso sí-publicado en MaximumPC.

 

Intel 4004/8086/80286

 

Evolución de los micros x86

Aunque Intel comercializó en 1971 el modelo 4004 (de 4 bits, común en calculadoras de bolsillo) al que siguieron el 8008 y el 8080 con más capacidad, no fue hasta 1978 cuando comercializó el 8086, un chip de 16 bits que se convirtió en el motor de las computadoras de uso múltiple, dando paso a la arquitectura x86. Su hermano menor, el 8088 (con bus externo de 8 bits), fue adoptado por IBM para lanzar los famosísimos IBM PC e IBM PC/XT. El 8086 tenía frecuencias de trabajo desde 4,77 hasta 10 MHz y fue sustituido por el 80286 con frecuencias de hasta 12 MHz, implementación de la ejecución en modo protegido y un rendimiento que duplicaba al del original. Como curiosidad, comentar que gracias al espionaje industrial y la utilización de ingeniería inversa, la antigua Unión Soviética fue capaz de replicar el Intel 8086, con un chip denominado K1810BM86.

 

AMD 286

 

Evolución de los micros x86

 

La compañía rival de Intel, firmó en 1982 un acuerdo con éste que le permitía fabricar y vender procesadores con arquitectura x86. De tal forma, un año después, la compañía comercializó un clon del 80286 de Intel, mucho más rápido con frecuencia a 20 MHz y bastante más económico, comenzando una lucha que perdura hasta nuestros días.

 

Intel 386/486

Evolución de los micros x86

Con este microprocesador, comercializado en 1985, el primero de 32 bits, nació toda una línea que hoy perdura bajo la referencia IA32 (Arquitectura Intel de 32 bits). El 386 duplicó el número de transistores de su predecesor hasta 275.000, con frecuencias de 16 a 33 MHz, capaz de direccionar hasta 4 Gbytes de memoria y convirtiéndose en el verdadero impulsor de la multitarea. En cuanto al 486, fue el primer modelo con el coprocesador matemático integrado y adicción de memoria caché, utilizándose tanto en máquinas domésticas como en servidores. Salió al mercado en 1989 y su modelo más avanzado corría hasta los 100 MHz.

 

AMD 386/486

 

Evolución de los micros x86

 

Nuevos clones de los modelos de Intel, más rápidos y económicos y que éste intentó, y consiguió, retrasar cuanto pudo su comercialización mediante demanda judicial. El 386 de AMD fue el primero de la firma en usar el marketing de “Windows Compatible”, funcionaba con frecuencias de hasta 40 MHz y fue comercializado en 1991. El 486 salió en el 93, cuatro años después del lanzamiento de su homólogo de Intel con frecuencias de hasta 120 MHz.

 

Cyrix Cx486/Cx5x86

 

Evolución de los micros x86

 

La compañía que fabricaba coprocesadores matemáticos para sistemas 286/386 comercializó su primera CPU x86 en 1992 y a pesar de su nombre, era un modelo compatible con el 386 con frecuencias de hasta 100 MHz. El 5×86 fue comercializado en 1995 con frecuencias de 133 MHz y compatible con tres placas base con socket 486.

 

Intel Pentium/Pentium Pro

 

Evolución de los micros x86

 

La quinta generación de procesadores de Intel evitó el uso de denominaciones anteriores numéricas para que los competidores no pudieran usar el nombre de “586”. El Pentium introdujo varias mejoras como una unidad de punto flotante mejorada y un ancho del bus de 64 bits. La llegada del conjunto de instrucciones “MMX” dio un impulso a las aplicaciones multimedia y de comunicaciones. Fue comercializado en 2003 y su modelo más rápido tenía una frecuencia de 233 MHz. El Pentium Pro (686) supuso otro salto importante con el añadido de la caché de segundo nivel al encapsulado y un rendimiento sobresaliente con código de 32 bits. Utilizaba el enorme socket 8 y a pesar que era el sustituto natural del Pentium, terminó después como chips para servidores y estaciones de trabajo bajo la marca Xeon. Fue puesto a la venta en noviembre de 2005.

 

AMD K5/K6/K6-2

 

Evolución de los micros x86

 

Nueva denominación para los micros AMD, clones del Pentium, y superiores en número de transistores, frecuencias y memoria caché. El K5 no fue un éxito de ventas, todo lo contrario a los K6 para placas base con socket 7, diseñado por “el padre del Pentium” que incluía instrucciones MMX y frecuencias de hasta 300 MHz. Fue comercializado en 1997. El K6-2 de 1998 incluyó nuevas instrucciones denominadas 3DNow, aumento de caché y frecuencias de trabajo.

 

Pentium II/III-Xeon – Intel Celeron

 

Evolución de los micros x86

 

Para mejorar el rendimiento, Intel trasladó la caché de segundo nivel como caché externa, que corría a la mitad de la velocidad del procesador pero duplicaba su tamaño. Contenía 7,5 millones de transistores y necesitaba nuevas placas base con slot 1. El Pentium II dio paso a los primeros micros de marca Xeon con hasta 450 MHz comercializados en 1997. El Pentium III, liberado dos años después, supuso un nuevo salto en rendimiento 3D, streaming y multimedia gracias a las instrucciones SSE y al aumento de frecuencias hasta 1,4 GHz en su modelo más rápido. La original Xbox utiliza un modelo derivado del Pentium III en factor de forma Micro-PGA2. El modelo Intel Celeron sacrificó el rendimiento (el modelo original no contaba con caché L2) de sus hermanos mayores, para lograr un precio muy inferior. Era, y sigue siendo la gama de entrada a la plataforma Intel.

 

AMD Athlon/Duron/XP

 

Evolución de los micros x86

 

Quizá el lanzamiento reciente más importante de la historia de AMD. El actual jefe ejecutivo de la compañía, Dirk Meyer, fue el responsable de su diseño, superando por primera vez la barrera del GHz y con caché de segundo nivel de 512 Kbytes. Un año después, fue comercializado el modelo Duron, que incorporaba las instrucciones SSE, contaba con un bus frontal más rápido y elevaba su frecuencia hasta 1,8 GHz. La revisión del Atom de 2001 (XP), aumentaba la frecuencia hasta 2,25 GHz, también el bus frontal, duplicaba la caché L2 hasta 512 Kbytes y contaba con 54,3 millones de transistores.

 

Transmeta Crusoe/Efficeon

 

Evolución de los micros x86

 

Crusoe fue el máximo exponente de la compañía estadounidense fundada en 1995 y que intentó hacerse un hueco en el mercado de microprocesadores compatibles con x86, con diseños de ultrabajo consumo y pequeño tamaño. Comercializado en el año 2000, el pobre rendimiento de Crusoe y la falta de instrucciones SSE limitó su venta masiva y escondió su excelente diseño. Su revisión “Efficeon”, mejoró notablemente el rendimiento del original e incorporó instrucciones MMX y SSE. La creciente competencia de Intel y AMD en el mercado móvil de esos años acabó con Transmeta.
 

Pentium 4

 

Evolución de los micros x86

 

La séptima generación de Intel basado en x86 fue el primer diseño completamente nuevo desde el Pentium Pro, introdujo instrucciones SSE2 y SSE3, combinado con Hyper-Threading, aunque no mejoró en sus primeros modelos el rendimiento de los modelos más rápidos del Pentium III ni de la variante del AMD Athlon, Thunderbird. El Pentium 4 más avanzado, denominado Prescott, utilizó procesos de fabricación de 65 nanómetros, permitió alcanzar mayores frecuencias y un overclocking más viable, aunque mostraba graves problemas de consumo energético.

 

Athlon 64/64 X2/Turion 64 X2

 

Evolución de los micros x86

 

El microprocesador x86 de octava generación de AMD incorporó las instrucciones AMD64 que fueron introducidas en los micros para servidores Opteron, ganando por primera vez el pulso a Intel en cuanto a instrucciones sucesoras de x86.  El Athlon 64 incorpora el controlador de memoria en el mismo integrado del procesador y tiene varios modelos en el mercado con socket 754, 939 y 940. Fue comercializado en 2004 y trabaja a frecuencias desde uno a 3,2 GHz. En 2006, AMD presentó su microprocesador multinúcleo de 64 bits, compatible con socket 939, fabricado en procesos de 65 nanómetros, con instrucciones SSE3 e HyperTransport a 2000 MHz. Incluyeron tecnologías de virtualización y mejoras en la gestión de energía. Turion es la línea específica de AMD para portátiles y fue el primero en el segmento en combinar el doble núcleo y los 64 bits.

 

Intel Core 2 Duo/Quad – Pentium Dual Core

 

Evolución de los micros x86

 

El gigante despertó de su letargo tras los problemas con el Pentium 4, con un microprocesador de 167 millones de transistores, proceso de fabricación de 65 nanómetros, 2 Mbytes de caché de segundo nivel y bus frontal a 1.066 MHz. A pesar de las relativas bajas frecuencias de los primeros modelos (1,86 y 2,13 GHz) obtuvieron un buen rendimiento acompañado de una agresiva política de precios de venta.La llegada de tecnologías de fabricación de 45 nanómetros (Penryn) apuntaló aún más su dominio, junto a la llegada del multinúcleo con dos y cuatro procesadores. En cuanto al primer Pentium de doble núcleo, estaba basado en la tecnologías de los Core y en principio tenía el objetivo de los equipos portátiles, aunque terminaron pasando al escritorio para llenar el hueco entre los Celeron y la serie Core 2.

 

AMD Phenom/Phenom II

 

Evolución de los micros x86

 

Phenom, es la serie que sustituye a los Athlon 64 X2, con microprocesadores de tres y cuatro núcleos con arquitectura K10. Es compatible con socket AM2, AM2+ y AM3, incluye tecnología de comunicaciones bidireccional para comunicación entre chips HyperTransport 3.0, controladora de memoria integrada DDR2 y unidades de punto flotante de 128 bits. La segunda versión de los Phenom, lanzado a comienzos de este mismo año, da el salto a tecnología de fabricación de 45 nanómetros, compatible con socket AM2+, con controladora de memoria integrada DDR3 y hasta 6 Mbytes de caché de tercer nivel.

 

Intel Core i7

 

Evolución de los micros x86

 

Core i7 es la familia de procesadores bajo plataforma Nehalem, actualmente, los más potentes y caros para el mercado doméstico. Fabricado en procesos de 45 nanómetros se ofrecen de serie con frecuencias desde 2,66 GHz a 3,2 GHz. Cuentan con instrucciones x86, x86-64, MMX, SSE, SSE2, SSE3, SSSE3, SSE4.1 y SSE4.2. Al contrario que los Phenom de AMD requieren placas con nuevo socket “B” (LGA 1366). Soportan únicamente memoria DDR3 con una controladora integrada de triple canal.Tienen hasta 8 Mbytes de caché de tercer nivel, 731 millones de transistores, administración avanzada de energía y amplias posibilidades de overclocking.

 

Intel Atom – VIA Nano

 

Evolución de los micros x86

 

El Atom es el gran dominador del segmento del netbook, portátiles de bajo coste y tamaño de pantalla, y los nettop, máquinas básicas de escritorio. Con un consumo muy reducido desde 0,6 a 2,5 vatios, está fabricado en procesos de 45 nanómetros y frecuencias desde 800 MHz a 2 GHz. Tienen 47 millones de transistores, 512 Kbytes de caché L2 y próximamente contarán con modelos de doble núcleo. En cuanto al Nano de la compañía taiwanesa VIA, es el único que parece podrá hacerle sombra al Atom en el mercado de netbooks. Soporta varios conjuntos de instrucciones, incluyendo MMX, SSE, SSE2, SSE3, y SSSE3. Tiene frecuencias de hasta 1,8 GHz, bus frontal de 800 MHz y 1 Mbyte de caché L2. También contarán el año próximo con un modelo de doble núcleo.

 

Saludos

Cantata, un reproductor de música que deberías probar

Publicado: 6 marzo, 2014 de nexus2036 en Tecnologia
Etiquetas:,

cantata

Si eres de esas personas que todavía no ha sucumbido al streaming sin freno y conservas una buena colección de música en tu disco duro, préstale atención a Cantata, porque la merece. Este reproductor Qt ha madurado lo suficiente como para posicionarse muy alto en una tabla que siguen dominando Amarok y Clementine.

Cantata es un cliente para Music Player Daemon (MPD), uno de los cientos de clientes existentes que “puede ser compilado con soporte para KDE o como aplicación Qt pura“, lo que significa que no trae consigo dependencias innecesarias en el caso de que te interese usarlo en un ambiente GTK+, por ejemplo.

MPD, además de ser versátil, tiende a ser comedido en su consumo de recursos. Éste es uno de los grandes atractivos de Cantata, que por lo demás ofrece todo un surtido de extras.

Con Cantata puedes gestionar tu colección de música al completo, gestionar listas de reproducción y crear dinámicas, añadir tus flujos de audio a la selección predeterminada o recibir tus podcasts. Cantata tiene soporte para gestionar dispositivos conectados e incluye integración con los servicios en línea Jamendo, Magnatune y SoundCloud.

Hasta aquí, Cantata no “suena” mal, ¿verdad? Pero tampoco sorprende. Lo mejor viene ahora, por supuesto. Si hubiese que destacar las tres virtudes de Cantata, la primera sería el mencionado consumo moderado de recursos; la segunda, lo bien que va el panel de información del reproductor.

cantata1

El panel de información incluye letras, con un montón de proveedores disponibles y un resultado de notable alto -también lee letras de archivos-; información de Wikipedia, con la posibilidad de elegir el idioma; e incluso te deja tunear el fondo del panel

La tercera virtud de Cantata, de hecho, es la gran cantidad de opciones de configuración y personalización que presenta. Esto último es lo más llamativo. Puedes modificar el panel de herramientas lateral en diseño y funcionalidad, configurar el tipo de vista de las diferentes herramientas o ponerlo en “modo mini”. Muy completo, desde luego.

¿Puntos flacos? Si me lo preguntas hace unos días, habría dicho estabilidad, pero la semana pasada llegó una actualización, Cantata 1.3.0, que parece haber asentado la aplicación a un nivel más que aceptable. Necesita pulir algún pequeño detalle aquí y allá, pero está lista para la acción Por eso, te recomiendo probarla.

El único ejecutable oficial disponible, sin embargo, es para Windows, por lo que deberás acudir a los repositorios de tu distribución. Por ejemplo, para Ubuntu y derivadas existe un PPA; en openSUSE ha llegado finalmente con esta versión a KDE Extra; en Arch Linux está en los repositorios oficiales, etc.


 supercomputadoras top 500 630x450Las 10 supercomputadoras más rápidas del planeta

La supercomputadora china Tianhe-2 cuya imagen encabeza esta entrada, se ha convertido en la más rápida del planeta con un rendimiento de 33,8 petaFLOPS, según la nueva lista actualizada del top-500 de supercomputadoras, que también encumbra a Intel como mayor suministrador de procesadores y a Linux como rey absoluto en sistemas.

Tianhe-2 (nombre en clave ‘Vía Láctea 2′) está instalada en la Universidad Nacional del centro de tecnología de defensa en China. Su ascenso al primer puesto de supercomputadoras ha sido posible gracias a la instalación de 3,12 millones de núcleos de procesamiento, entre ellos 48.000 coprocesadores Intel Xeon Phi de los que Intel acaba de anunciar nuevas versiones en la conferencia ISC 2013.

Junto al primer puesto de China en rendimiento de la supercomputación mundial, destacar el 80 por ciento de cuota de mercado que tiene Intel como suministrador de soluciones para estos sistemas.

2-Titan
Laboratorio Oak Ridge EE.UU. Cray AMD. 17,6 petaFLOPS supercomputadoras top 500 2 630x262Las 10 supercomputadoras más rápidas del planeta

3-Sequoia
Laboratorio Libermore EE.UU. IBM BlueGene/Q Power BQC. 17,2 petaFLOPS supercomputadoras top 500 3 630x324Las 10 supercomputadoras más rápidas del planeta

4-K
Instituto Riken Japón. Fujitsu SPARC64 VIIIfx. 10,5 petaFLOPS supercomputadoras top 500 4 630x416Las 10 supercomputadoras más rápidas del planeta

5-Mira
Laboratorio Argonne EE.UU. IBM BlueGene/Q Power BQC. 8,6 petaFLOPS supercomputadoras top 500 5 630x352Las 10 supercomputadoras más rápidas del planeta

6-Stampede
Universidad Texas EE.UU. PowerEdge C8220 Xeon E5, Xeon Phi. 5,2 petaFLOPS supercomputadoras top 500 6Las 10 supercomputadoras más rápidas del planeta

7-JUQUEEN
Centro Forschungszentrum Alemania. IBM BlueGene/Q Power BQC. 5 petaFLOPS supercomputadoras top 500 7 630x312Las 10 supercomputadoras más rápidas del planeta

8-Vulcan
Centro Livermore. IBM BlueGene/Q Power BQC. 4,3 petaFLOPS supercomputadoras top 500 8 630x338Las 10 supercomputadoras más rápidas del planeta

9-SuperMUC
Leibniz Rechenzentrum Alemania. iDataPlex DX360M4 Xeon E5. 2,9 petaFLOPS supercomputadoras top 500 9Las 10 supercomputadoras más rápidas del planeta

Tianhe-1A
Centro Supercomputación China. Xeon X5670, NVIDIA 2050. 2,6 petaFLOPS supercomputadoras top 500 10 630x355Las 10 supercomputadoras más rápidas del planeta

 

Fuentes:

http://top500.org/

http://newsroom.intel.com/

Desde Windows 1 a Windows 8 Pro

Publicado: 5 junio, 2013 de nexus2036 en Intel, Novedades, procesador, Tecnologia, Windows

Desde Windows 1 a Windows 8 Pro

Un usuario con bastante tiempo libre y ganas de experimentar, ha publicado un vídeo en el que demuestra cómo se puede ir actualizando desde el Windows original de 1985 hasta la última versión cliente Windows 8 Pro, pasando por casi todos los sistemas operativos de Microsoft.

Una vuelta nostálgica por múltiples sistemas actualizados en el mismo equipo y en concreto pasando desde Windows 1.01 a Windows 2.03, Windows 3.0a, Windows 3.1, Windows 95, Windows 98, Windows ME, Windows XP, Windows Vista y Windows 7, para acabar en Windows 8 Pro.

Copmo es lógico se ha utilizado una máquina virtual en este caso bajo software VMware y se ha obviado algún salto entre sistemas que no son posibles como de Me a Windows 2000. En todo caso una chulada curiosa con la que te dejamos: