lunes, 18 de enero de 2010

Los 10 mandamientos en el mundo wireless

En toda actividad práctica existen reglas de oro que no se pueden eludir, alterar y mucho menos cambiar. La realidad que nos entrega la construcción de un sistema inalámbrico de enlace de datos es una sola y hay algunos mandamientos esenciales que no pueden dejarse de lado. Pequeños detalles que pueden transformarse en gigantes obstáculos serían capaces de arruinar una comunicación inalámbrica si no son atendidos con el criterio, la lógica y la teoría que este artículo te acerca. Si has intentado las mil y una formas de controlar tu robot a distancia sin éxito o si has fracasado hasta el cansancio tratando de mejorar tu conexión Wi-Fi, este artículo puede ayudarte a comprender donde estás fallando y cómo resolverlo. El futuro de la transmisión de datos es inalámbrico y necesitas aprender estos diez mandamientos sagrados para transmitir y recibir datos a la mayor distancia posible.

1 - La unidad de potencia
La potencia en radiofrecuencia (RF) se mide por lo general en Watts (W) o miliwatts (mW) aunque en muchas aplicaciones, también se encuentran referencias a esta magnitud expresada en decibelios o decibeles (dB). La relación que existe entre ambas formas de mesurar el nivel de señal de RF sostiene que 1mW = 0dBm. Los dBm expresan la potencia absoluta mediante una relación logarítmica, siempre respecto a un valor de referencia que es 1mW (miliWatt). En el siguiente cuadro podemos ver la fórmula de cálculo para obtener el valor expresado en dBm de una potencia igual a P, referida a un valor determinado de 1mW. Los ejemplos mostrados en la tabla de la derecha son muy comunes de aplicarse al momento de, por ejemplo, sumar antenas y determinar la cantidad de señal que incrementará el sistema. Es decir, duplicar la cantidad de señal recibida, equivale a un incremento de 3dB respecto a si tuviéramos una sola antena. Si en lugar de dos, colocamos cuatro antenas, la ganancia aumenta a 6dB, es decir, 3dB más.

Cálculo del dBm y valores prácticos para una mejor comprensión
Cálculo del dBm y valores prácticos para una mejor comprensión

Como las antenas pueden sumarse en un número progresivo en base 2 (2, 4, 8, 16, etc.) pasaríamos en el siguiente caso a una instalación de 8 antenas. De cuatro pasamos a ocho, por lo tanto, al duplicar cantidad incrementamos 3dB. Esto significa que 4 antenas tendrán una ganancia de 6dB, mientras que 8 antenas sumarán una ganancia de 9dB. O sea, 3dB más que 4 antenas. Estos valores expresados en dB para una antena son características que ofrecen ganancia de señal a un sistema, tanto para transmisión como para recepción. Teniendo en cuenta lo expresado, un transmisor que emite con 1 Watt de potencia y una antena de cuatro elementos irradiantes, equivaldrá a un transmisor de 4 Watts transmitiendo con una antena simple (un solo elemento). Existen otros casos en los que no se utiliza la unidad dB para cuantificar ganancia sino pérdidas. En estos casos se utiliza el término atenuación que también se expresa en decibeles. Por lo tanto una correcta instalación de antena con mínimos factores de atenuación es fundamental para una conexión inalámbrica eficiente y segura.

2 – Relación entre la frecuencia utilizada y la propagación
La mayoría de las aplicaciones industriales, domésticas, científicas y de orden investigativo, suelen trabajar con sistemas de radio que operan en bandas denominadas “libres”. Es decir, las organizaciones gubernamentales o privadas que administran el uso racional del espectro radioeléctrico de cada país asignan determinadas porciones o bandas de frecuencias donde no es necesario solicitar autorización, ni abonar cánones o impuestos para trabajar de forma libre dentro de sus límites. Estas bandas son conocidas también como ISM (Industrial, Scientific and Medical) y los valores más populares (de UHF hacia arriba) son:

* 2.4Ghz. para casi todo el mundo en la actualidad
* 915Mhz. para América (Norte y Centro y Sur)
* 868Mhz. para Europa
* 5Ghz es una banda que poco a poco comienza a popularizarse por todo el mundo.

La gran ventaja de poder trabajar en frecuencias cada vez más altas es que el ancho del canal a utilizar aumenta. Esto significa tener la posibilidad de transmitir mayor caudal de datos o información dentro de un canal único. La desventaja de esto es que la distancia a enlazar y la capacidad de la señal para superar obstáculos (atravesar muros o paredes) decrece de manera notable al aumentar la frecuencia de transmisión. Por ejemplo, para una misma distancia de enlace, una señal de 2.4Ghz sufrirá una pérdida (o atenuación) de 8 a 9 dB en comparación a una misma potencia emitida en 900Mhz. Pero como todo tiene su pro y su contra en la vida, las frecuencias bajas requieren de antenas de mayor tamaño, mientras que a frecuencias mayores, se pueden colocar sistemas de antenas de mayor ganancia para suplir las pérdidas mencionadas con anterioridad.

3 – Emplear un receptor sensible
La sensibilidad en un receptor de radio viene dada por la capacidad que pueda tener de recuperar señales muy débiles, ubicadas casi al mismo nivel que el ruido de banda. Esto significa que cuanto mayor sea la cifra expresada en dBm (en valores negativos), más sensible será el receptor y mayor posibilidad de recuperar datos correctos y realizar un enlace exitoso tendremos. Por ejemplo, un receptor que se ofrece con una sensibilidad de -120dBm, será más sensible (escuchará más y mejor) que un receptor con una sensibilidad de -105dBm. Para graficarlo de otro modo, una señal de -70dBm equivale a 100pW (picoWatts) mientras que otra de -80dBm equivale a 10pW. Esto clarifica que a mayor valor negativo, mayor capacidad de escuchar señales muy débiles.

La importancia de utilizar transistores de bajo NF en la entrada del receptor
La importancia de utilizar transistores de bajo NF en la entrada del receptor

En la actualidad los receptores utilizan transistores de entrada con un nivel de figura de ruido tan bajo como sea posible. En el gráfico podemos ver con claridad como un transistor con alta figura de ruido (A), pierde la mayor parte de la información y sólo puede recuperar las señales fuertes. Mientras tanto, con un transistor de entrada de baja figura de ruido (B), hasta las señales más débiles son recuperadas, amplificadas y aprovechadas. En la práctica esto significa ganar o perder distancia en el enlace. Algunos suplen estos defectos reduciendo la velocidad de transmisión de datos o mejorando la calidad de las antenas de recepción, cuando en realidad lo que se debe mejorar es la etapa de entrada de la señal de RF en el receptor. Vale aclarar que la figura de ruido es generada por la agitación electrónica, dentro del semiconductor, provocada por la temperatura ambiente.

4 – Aprender a determinar el origen de los ruidos
No todos los problemas de recepción se resuelven con mejorar los transistores de entrada en los receptores. Existen una variedad enorme (y siempre cambiante) de fuentes generadoras de ruido que serían capaces de ensordecer al receptor más apto. Veamos el problema de este modo: en un gran estadio absolutamente vacío, sin más personas que tú ubicado en un extremo del campo de juego y un interlocutor ubicado en otro extremo. Seguramente podrían intercambiar un diálogo tranquilo sin necesidad de levantar la voz. Imagina ahora el mismo escenario pero colmado de público rugiendo un aliento ensordecedor a su equipo favorito. El resultado será que las señales emitidas por ti y por tu interlocutor quedarán sumergidas en el ruido generado por la multitud. Algo similar ocurre con las señales de radio. La proliferación de emisoras de radio, de maquinas eléctricas, de equipos de comunicaciones de todo tipo, forma, banda y potencia, sumadas todas al ruido cósmico propio de la banda a utilizar, provocan un “ensordecimiento” del receptor que debe ser resuelto mediante el uso de mejores antenas, con mayor ganancia y más direccionales hacia la fuente de emisión, evitando recibir ruido desde otras fuentes.

5 – Tener un margen de desvanecimiento aceptable y seguro
Este es uno de los tantos puntos cruciales para lograr obtener una instalación inalámbrica robusta y eficiente. Es decir, un enlace capaz de soportar las pérdidas de señal que pueden acarrear cambios climáticos severos. Esto es: lluvia o nieve y en caso de interferencias externas. El valor que se toma como norma es de 10dB de pérdida de señal y aún así seguir teniendo el enlace activo. Es muy importante tener prevista esta condición en la instalación ya que un enlace de datos que se construye a partir de una recepción en el límite de las posibilidades, se transforma en un vínculo muy frágil que deja de funcionar con apenas un poco de lluvia. Y luego de invertir dinero y tiempo en el trabajo, una perdida de enlace por cualquier tontería no prevista a tiempo será muy molesta e irritante.

La intensidad de la señal recibida decrece con el cuadrado de la distancia del enlace
La intensidad de la señal recibida decrece con el cuadrado de la distancia del enlace

Existen varias formas de realizar una atenuación de 10dB en la recepción de una señal para tener la seguridad de seguir manteniendo el enlace, simulando condiciones severas y extremas de origen externo a la instalación. Estos son algunos:

  • Existen equipos transmisores que poseen la potencia de salida ajustable o programable. Bastará con reducir la emisión en 10dB y comprobar que en el receptor el enlace continúa siendo eficaz. Recuerda que 3dB, significaría reducir la potencia a la mitad mientras que 10dB equivalen a reducir la potencia 10 veces.
  • En el mercado se consiguen fácilmente atenuadores calibrados para distintas bandas de frecuencias. Sería una buena inversión comprar uno que atenúe 10dB en las frecuencias de mayor utilización para así facilitar las tareas de ajuste. Si el enlace se pierde al colocar el atenuador, significa que debemos mejorar la instalación de antenas o incrementar la potencia de los transmisores hasta lograr un margen de desvanecimiento seguro y aceptable de 10dB.
  • Cualquier instalador de sistemas inalámbricos de datos utiliza cable coaxil en grandes cantidades. Un cable RG-58 de 20 metros de largo puede significar una atenuación de 10dB en señales de 900Mhz., mientras que con 8 a 10 metros obtendremos 10dB de atenuación a 2.4Ghz. Si el sistema continúa funcionando de manera eficiente con estos cables ”extras”, estamos ante un enlace confiable y con un margen de desvanecimiento de al menos 10dB.

6 – Utilizar la lógica y la matemática junto a las especificaciones
En un mundo ideal, podríamos establecer de acuerdo a la potencia de transmisión de un equipo y a la sensibilidad de un receptor la distancia máxima admisible para un enlace seguro. Sin embargo, existen muchos factores que intervienen y hacen que esto no sea así. Por lo tanto, siguiendo una lógica simple y aplicando sobre ella los valores nominales que entregan los fabricantes de los elementos empleados, podemos aproximarnos de manera casi total a los resultados obtenidos en nuestro mundo real.

Este cálculo lógico sería el siguiente: La potencia del transmisor (Tx) sumada a la ganancia de la antena de transmisión, descontando la atenuación que se produce en el cable que conecta el transmisor con la antena en la torre, descontando además el margen de desvanecimiento de 10dB del punto anterior, descontando las pérdidas que se producen en el camino del enlace (a través de la atmósfera) y sumando la ganancia del equipo receptor, debemos obtener un resultado “X”. Este resultado deberá ser siempre mayor a la sensibilidad del receptor. Es muy simple, es muy lógico. El receptor debe escuchar el resultado obtenido de todos los factores positivos y negativos que intervienen en la constitución del sistema inalámbrico. Todos los datos involucrados son provistos por los fabricantes de los elementos mencionados. Sólo deberás aplicar la lógica.

7 – Mantener un enlace óptico entre las antenas
Cuando colocamos las antenas de los sistemas a enlazar en un espacio abierto y libre de obstáculos entre ellas, la atenuación provocada por el medio (el aire) se incrementa con el cuadrado de la distancia a medida que se alejan las antenas entre sí. Por lo tanto, podemos decir que reducir la distancia entre antenas emisora y receptora a la mitad, disminuye la pérdida en 6dB. Dicho de otro modo, aumentar la distancia al doble, aumenta la pérdida de señal el 6dB. Estos valores se incrementan a 9dB cuando al menos una de las antenas se encuentra en el interior de alguna edificación. La atenuación provocada por las paredes y otros obstáculos incrementan notablemente las pérdidas.

El enlace óptico es fundamental en un sistema wireless
El enlace óptico es fundamental en un sistema wireless

Las antenas deben orientarse y elevarse desde el suelo de modo tal que puedan verse entre sí (expresión metafórica). Es decir, que se encuentren alineadas y libres de obstáculos que favorezcan las pérdidas de señal. Atravesar una arboleda frondosa puede provocar pérdidas muy importantes que deben ser resueltas con mayor altura de las instalaciones de antenas. Por otra parte, hay obstáculos en el recorrido de la señal que no son fijos, sino móviles. Un árbol que crece de una estación a otra, una edificación nueva que sube muchos pisos y se interpone en el camino de la señal, un camión con un contenedor encima, o cualquier otro objeto metálico que se interponga en el recorrido previsto en el inicio de la instalación puede arruinar de forma temporal o permanente un enlace que en sus orígenes pudo ser funcional y muy seguro.

8 – Antenas
Las antenas son el último eslabón en la cadena de transmisión y el primero en la del receptor. Por lo tanto, la optimización constructiva permitirá obtener ganancias significativas (a veces vitales) para garantizar un enlace óptimo. Las antenas direccionales son capaces de enfocar toda la potencia que llega a ellas para ser transmitida en una única dirección. Por el contrario, una antena omnidireccional emitirá en todos los sentidos (360º a su alrededor), perdiendo la concentración de señal que una antena direccional es capaz de ofrecer. Por supuesto que esto es válido tanto para transmisión como para recepción. Por lo tanto, una antena direccional de alta ganancia montada, respetando el punto anterior, a la máxima altura posible, nos brindará una ganancia de potencia que servirá para afianzar el vínculo del enlace.

9 – Pérdidas en el cable
La elección del cable y los conectores apropiados para lograr un enlace exitoso dependen de muchos factores y todos varían de un usuario a otro y de un escenario a otro. Esta situación algo difícil de equilibrar se basa en la propiedad de atenuación que poseen todos los cables coaxiles (o coaxiales) que se utilizan para enlazar los equipos (transmisores o receptores) con la antena, allí arriba en el extremo superior de la torre. Cables de bajas pérdidas y de mayor calidad son mucho más caros (a veces a precios prohibitivos) y un gasto semejante no se justifica. Por otro lado, las pérdidas se podrían resolver con mayor altura en las antenas, pero ello significa mayor longitud de cable y en consecuencia, mayor pérdida dentro del mismo. Un buen estudio preliminar de las distancias a cubrir, junto a la potencia del equipo transmisor, la ganancia de las antenas y la experiencia del instalador, ayudan a seleccionar la mejor relación costo/beneficio a la hora de comprar el cable que permita una comunicación segura y libre de gastos innecesarios.

Las pérdidas provocadas por un cable coaxil de mala calidad puede aniquilar el enlace sin que nosotros podamos entender la causa
Las pérdidas provocadas por un cable coaxil de mala calidad puede aniquilar el enlace sin que nosotros podamos entender la causa

10 – La transferencia de datos en un medio inalámbrico
Antes de comenzar la instalación, asegúrate que los sistemas que quieres conectar a través de ondas de radio admitan una tasa de error y corrección de los mismos en la transmisión o recepción de los datos, superior a lo que podría ser mediante una conexión por cable. Es decir, el protocolo de comunicación de los datos a enlazar, debe ser capaz de sortear las deficiencias lógicas que posee un sistema inalámbrico. Las terminales de transmisión y recepción deben sincronizar su velocidad de proceso y adaptarse al límite que imponga el enlace de acuerdo a su frecuencia de trabajo y ancho de banda del canal (caudal de datos).

Teniendo en claro estos 10 mandamientos ineludibles, el enlace radial estará asegurado obteniendo un intercambio de datos eficiente y seguro. Por supuesto que si tienes alguna recomendación que agregar a las expuestas aquí, será muy bienvenida en beneficio de todos los que por una razón u otra necesitamos a menudo optimizar sistemas inalámbricos de datos.


ATI Radeon HD 5670


A pesar de que Nvidia ha declarado "insignificante" la ventaja de AMD al adoptar a DirectX 11 de forma temprana, lo cierto es que el mercado informático suele apreciar un poco más a aquel que llega primero, algo que ha quedado patentado con la creciente popularidad de la familia 5000 de las ATI Radeon HD. En NeoTeo ya le hemos dado un vistazo a los modelos superiores, pero en esta ocasión AMD ha presentado a la tarjeta HD 5670. Basada en el mismo diseño que sus hermanas mayores, la HD 5670 posee las capacidades suficientes para ofrecer un rendimiento decente sin provocar que los usuarios deban incendiar sus bolsillos, y como suele pasar con la mayoría de los productos de AMD, el tema del precio es especialmente jugoso con la 5670: Es la primera tarjeta compatible con DirectX 11 por debajo de los cien dólares. Aún así, ¿el precio es correcto, o debería estar aún más abajo?






Es verdad que DirectX 11 aún representa poco y nada en materia de juegos. Actualmente sólo hay tres títulos que soportan a DirectX 11 de forma oficial, y los juegos que fueron exclusivos para DirectX 10 no ofrecieron nada extraordinario, mientras que la gran mayoría de los desarrolladores sigue apoyándose en la versión 9 para lanzar juegos. Tal vez esa haya sido la razón principal por la que Nvidia le restó importancia al hecho de que AMD haya incorporado a DirectX 11 en la serie 5000 de sus tarjetas Radeon HD. Sin embargo, eso no es lo único que las tarjetas de AMD ofrecen en la actualidad. Se encuentran entre las más rápidas del mercado, y su relación entre costo y beneficio es imbatible para las tarjetas de Nvidia. Un sector en el que AMD es sumamente popular es en el de consumo general, con aquellos usuarios que buscan un procesamiento de vídeo aceptable, sin tener que entregar un riñón como parte de pago. La serie 4000 de Radeon tiene a varios exponentes en ese sector, pero ahora llega la HD 5670, primera de la serie 5000 que sin problemas puede ser considerada como "de bajo costo", ya que su precio en el mercado es de exactamente 99 dólares.

La Radeon HD 5670, más pequeña en varios sentidos, pero aún así interesante

Entre sus especificaciones técnicas encontramos una velocidad de reloj de 775 Mhz, casi 100 Mhz por debajo del modelo HD 5770, mientras que su frecuencia de memoria GDDR5 se ubica en los 1000 Mhz. Su bus es de 128 bits, y su cantidad de procesadores shader es de 400, exactamente la cuarta parte de los procesadores disponibles en el modelo de alta gama HD 5870. Un dato que puede ser considerado como una ventaja es el de su consumo de energía. En espera, la 5670 sólo demanda 14 watts, lo que la hace muy atractiva para aquellos que deseen armar un HTPC con un vídeo más poderoso de lo común, aunque no estamos seguros de que sea posible para los OEM lanzar diseños basados en esta tarjeta con un disipador pasivo.

Los diseños de la tarjeta varían entre los fabricantes, incluyendo la presencia y disposición de los puertos

En lo que se refiere a rendimiento, los resultados están un poco mezclados. Si tomamos como referencia a la GeForce GT 240 de Nvidia, también considerada como una tarjeta de bajo costo, la nueva 5670 es superior. Sin embargo, modelos anteriores tanto de Nvidia como de AMD lograron superar a la 5670. Por el lado de Nvidia, la GeForce 9800 GT, con casi dos años en el mercado, ha logrado colocarse por encima de la nueva oferta de AMD, y entre las generaciones anteriores de Radeon, la 4770 ha demostrado un rendimiento netamente superior. El inconveniente que enfrenta la 5670 es que estos dos modelos superiores en rendimiento han bajado sus costos de forma considerable, y puede el punto de 99 dólares en el que está ubicada la 5670 no sea suficiente para tentar a los consumidores. Para algunos será una compra mucho más eficiente el gastar unos pocos billetes adicionales y comprar una placa más poderosa, pero todo el que en algún momento haya considerado a la GT 240 como tarjeta de vídeo para su ordenador, debería pensarlo dos veces con la HD 5670 en el mercado.

martes, 27 de octubre de 2009

Se anuncia nuevo procesador de cien núcleos


Desde unidades accesibles de tres y cuatro núcleos hasta las dudas científicas sobre si debemos seguir agregando más núcleos, los procesadores se mantienen en constante movimiento. Con los nuevos anuncios de Intel y AMD, la competencia se ha hecho un poco más intensa, pero fuera de estos dos gigantes también se puede registrar actividad. Una joven empresa llamada Tilera ha anunciado que tiene planes de crear un procesador capaz de contener la nada despreciable cantidad de cien núcleos, y que además tendrá funciones especiales que le permitirán evadir los problemas de falta de ancho de banda que sufren los procesadores multinúcleo actuales.

Por un lado tenemos a Intel con sus i7, i5, y todo el resto de su familia Core a través de tres zócalos diferentes. Por el otro, AMD ofrece múltiples opciones con sus familias Phenom, Athlon y Sempron, confiando en la versatilidad de un único zócalo retrocompatible. Sin embargo, ambas empresas apuntan a un mismo objetivo, y es aumentar la cantidad de núcleos en sus procesadores. Los futuros Core i9 y AMD Thuban planean alcanzar la barrera de los seis núcleos para procesadores de escritorio durante el próximo año, algo que obviamente será apreciado por todas las aplicaciones optimizadas para procesos de múltiples hilos que haya disponibles. ¿Pero qué tal sería llevar el límite de núcleos mucho más allá, no sólo a un número de dos dígitos, sino de tres? Ese parece ser el plan de Tilera, empresa fundada en el año 2004 que ya lleva lanzados varios procesadores de múltiples núcleos, algunos de ellos hasta con 64 en su interior.

Según los técnicos de Tilera, este chip de cien núcleos podría "como mínimo" cuadruplicar el rendimiento de los Nehalem-EX de alto nivel creados por Intel, necesitando solamente un tercio de su energía. De hecho, este nuevo procesador sólo necesitaría la increíble cantidad de 55 watts durante su utilización en carga completa. Como si eso fuera poco, Tilera ha dicho que puede "escalar" a sus procesadores de forma casi lineal gracias a la eliminación del bus en el chip, reemplazándolo por un sistemas de interruptores instalados en cada núcleo, en combinación con su Caché de Distribución Dinámica, que permite a cada núcleo compartir su caché a través de todo el chip de forma más coherente. Además de su procesador de 100 núcleos, Tilera planea lanzar variantes de 16, 36 y 64 núcleos.

Intel ya puede haber presentado algunos de sus prototipos, y es lógico asumir que AMD está llevando a cabo sus propias pruebas, pero parecen ser cada vez más los ojos que se posan sobre Tilera. Sus influencias provenientes de nada menos que el MIT demuestran que hay personas muy inteligentes entre su equipo, y si ya tienen en el mercado procesadores especiales de 64 núcleos, entonces es más que factible que este procesador esté en el mercado hacia el año 2011, tal y como lo han dicho. Antes de que pregunten, no, este chip no puede recibir a Windows 7, ya que no está basado en la arquitectura x86, pero eso no impide que una distro modificada de Linux pueda aprovechar su poder, o quién sabe, que Tilera lance una versión x86 de este mismo procesador.

Nuevo material almacenaría 1 TB en el tamaño de una uña





Si bien consideramos que las capacidades actuales de almacenamiento de un ordenador pueden llegar a ser muy impresionantes, lo cierto es que la ciencia no deja de trabajar en la búsqueda de formas más eficientes de almacenar más información en dispositivos de menor tamaño. Este parece ser el descubrimiento de un grupo de científicos al dar con un material especial que podría permitir una capacidad de almacenaje cercana a un terabyte de datos, en algo tan pequeño como una uña. El material, una mezcla compleja de metal con cerámico, podría superar a los mejores ejemplos de tecnología basada en silicio que se conocen hasta la fecha.

Ya es algo bastante común tener algunos gigabytes de almacenamiento en algo que no es mucho más grande que un llavero, pero la tecnología que nos permitiría superar la barrera del terabyte manteniendo esas escalas, todavía se encuentra en fase experimental. Uno de los ejemplos más prometedores parece ser este nuevo material desarrollado por ingenieros de la Universidad Estatal de Carolina del Norte, que en teoría podría almacenar hasta un terabyte de datos en un tamaño tan pequeño como el de la uña de un dedo humano. Lo más sorprendente sobre este material es que el almacenamiento de información no sería el único campo en el que podría representar un avance radical, sino también en la eficiencia de los motores de combustión interna, y en la reducción de calor generada por los semiconductores.

El material fue creado a partir de un procedimiento conocido como "dopaje selectivo". En electrónica, el dopaje consiste en la introducción de impurezas en un semiconductor para alterar su comportamiento. Trabajando a escala nanométrica, los ingenieros han logrado introducir impurezas de níquel en óxido de magnesio. El resultado son pequeños grupos de níquel de un tamaño no superior a diez nanómetros cuadrados. Esto representa una reducción de tamaño de un 90 por ciento en comparación con las técnicas actuales. Los ingenieros utilizaron el ejemplo de que, con esta técnica, un chip que normalmente almacenaría 20 gigabytes, podría multiplicar su capacidad por 50 si fue hecho de este material especial.

Básicamente, este nuevo proceso inyecta propiedades metálicas a un cerámico, lo que abre la puerta a otras aplicaciones además del almacenamiento de datos. Se han teorizado "motores cerámicos" que podrían soportar el doble de temperatura de los motores actuales, llevando su rendimiento hasta niveles cercanos a los 34 kilómetros por litro, un nivel que ni siquiera los coches híbridos más avanzados pueden alcanzar en la actualidad. Como si eso fuera poco, también se habla de mejoras en la conductividad térmica del material, algo que sería muy valioso en la recolección de energía solar, y también de avances en la espintrónica, una tecnología que aprovecha el espín de los electrones para obtener energía. Hasta aquí, este material suena como algo casi mágico, pero todo indica que habrá que esperar un buen tiempo para que alcance una etapa lo suficientemente avanzada como para considerar una aplicación comercial.

martes, 13 de octubre de 2009

JDownloader v0.8.930




Con JDownloader el proceso de descarga es mucho más sencillo. Sólo tienes que añadir todos los enlaces del contenido que quieres descargar e iniciar la descarga para que el programa se encargue de todo: accede al enlace, espera el tiempo necesario, valida los mensajes e inicia la descarga. Así con todos los enlaces incluidos en la cola. practicamente puedes descargar de cualquier servidor, MU,RS,UL,HF. entre otros... asi como videos y cualquier link que copies de la web.


Solo descomprimir el archivo, y dentro de la carpeta generada ejecutar el archivo "JDownloader.exe"

DESCARGA:

http://www.megaupload.com/?d=Z0D2Y748



JAVA 6 actualizacion 14 (podria ser necesario si no lo tienes actualizado):

http://www.megaupload.com/?d=LYTSN94T





- En Windows Vista no correr JDownloader desde "c:/Program files/"

en windows 7 da errores



lunes, 3 de agosto de 2009

GIMP Portable 2.2.17


GNU Image Manipulation Program (GIMP) permite crear y manipular gráficos, incluyendo retoque de imagen, composición e incluso presentaciones multimedia.

The GIMP posee un completo conjunto de herramientas de dibujo y coloreado, clonación y muchas más que ofrecen unos resultados de anti-aliasing de una calidad muy elevada.

Soporta distintas capas y canales, posee una base de datos integrada de procesado para llamar a funciones internas de The GIMP desde aplicaciones externas, e incluye capacidades avanzadas de script.

The GIMP también permite múltiples posibilidades de “deshacer” y “rehacer”, posibilidad de apertura de un número “ilimitado” de imágenes simultáneas, e incluye un editor de gradiente y una herramienta de combinado.

Con The GIMP puedes cargar y grabar animaciones en el formato que creas más adecuado, puedes rotar las imágenes, cambiar de tamaño (a escala), recortar y hacer efectos espejo, también permite la conversión entre distintos formatos, y el uso de herramientas de selección, como círculos, elipses, libre y fuzzy.

Todo lo mencionado, la compatibilidad con los formatos gráficos BMP, GIF, JPG, PCX, PNG, PS, TIF, TGA, XPM, entre otros, la inclusión de más de 100 plugins y que sea gratuito hacen de este GIMP una alternativa "pero no comparativa" a programas consagrados como Photoshop.


Descarga:

http://switch.dl.sourceforge.net/sourceforge/portableapps/GIMP_Portable_2.6.6.paf.exe

ABRviewer.NET v2.0, Visualiza Pinceles (.ABR) de Photoshop antes de Instalarlos

English/Free/56 KB

ABRviewer es una pequeña herramienta que permite visualizar los brushes o pinceles de Photoshop sin tener que instalarlos. Si eres aficionado a coleccionar estos pinceles, ABRviewer te ayudará a mantenerlos bien ordenados.
La aplicación muestra en su interfaz una vista en miniatura de todos los pinceles contenidos en un paquete de brushes de Photoshop.
El usuario puede elegir tanto el tamaño de la vista en miniatura como el color de fondo y del pincel. Si haces doble clic sobre un pincel determinado, ABRviewer mostrará una vista previa de éste en tamaño real.
Además, ABRviewer permite exportar a formato PNG todos los pinceles que hayan sido cargados en su interfaz.

Nota: ABRviewer requiere Microsoft .NET Framework 2.0.


viernes, 31 de julio de 2009

Autodesk 3DStudio Max 2010



Autodesk 3D Studio Max es un programa de creación de gráficos y animación 3D desarrollado por Autodesk Media & Entertainment (Anteriormente conocidos como Discreet y Kinetix). Fue desarrollado como sucesor para sistemas operativos Win32 del 3D Studio creado para DOS. Kinetix fue más tarde fusionada con la última adquisición de Autodesk, Discreet Logic.
3d Studio Max es uno de los programas de animación 3D más utilizados. Dispone de una sólida capacidad de edición, una omnipresente arquitectura de plugins y una larga tradición en plataformas Microsoft Windows. 3ds Max es utilizado en mayor medida por los desarrolladores de videojuegos, aunque también en el desarrollo de proyectos de animación como películas o anuncios de televisión, efectos especiales y en arquitectura.


Requisitos de software
Autodesk® 3ds Max® 2010 necesita uno de los siguientes sistemas operativos de
32 o 64 bits:

Microsoft® Windows® XP Professional (Service Pack 2 o superior)
Microsoft® Windows® Vista (Business, Premium y Ultimate)
Microsoft® Windows® XP Professional x64
Microsoft® Windows® Vista 64 bits (Business, Premium y Ultimate)
3ds Max 2010 requiere el siguiente explorador de Internet:

Microsoft® Internet Explorer® 6 o posterior
3ds Max 2010 requiere el siguiente software suplementario:

DirectX® 9.0c* (necesario), OpenGL® (opcional)
* Algunas características de 3ds Max 2010 sólo están disponibles con hardware de gráficos compatible con Shader Model 3.0 (Pixel Shader y Vertex Shader 3.0). Consulte a su fabricante para saber si su hardware es compatible con Shader Model 3.0.

Requisitos de hardware:
3ds Max 2010 de 32 bits necesita como mínimo un sistema con lo siguiente:

Procesador Intel Pentium® 4 o superior, AMD Athlon® 64 o superior, o AMD Opteron®
1 GB de RAM (se recomienda 2 GB)
1 GB de espacio de intercambio (se recomienda 2 GB)
Tarjeta gráfica Direct3D 10, Direct3D 9 u OpenGL con 128 MB
Ratón de 3 botones con software de controlador para ratón
2 GB de espacio en disco
Unidad de DVD-ROM
Nota: Es compatible con los sistemas Apple® basados en procesadores Intel que llevan sistemas operativos Microsoft usando Apple Boot Camp. Actualmente no es compatible con entornos de máquina virtual.

3ds Max 2010 de 64 bits necesita como mínimo un sistema con lo siguiente:

Procesador Intel® EM64T, AMD Athlon 64 o superior, AMD Opteron®
1 GB de RAM (se recomienda 4 GB)
1 GB de espacio de intercambio (se recomienda 2 GB)
Tarjeta gráfica Direct3D 10, Direct3D 9 u OpenGL con 128 MB
Ratón de 3 botones con software de controlador para ratón
2 GB de espacio en disco
Unidad de DVD-ROM






Imagen generada por computadora (render) mostrando una sala, modelada en 3D Studio Max.



Descarga:

http://www.megaupload.com/?d=9YASSKV3
http://www.megaupload.com/?d=4T3BN366
http://www.megaupload.com/?d=43LQG7S0
http://www.megaupload.com/?d=DSA6QMFS
http://www.megaupload.com/?d=YHJA7WHF

Trampa:

http://rapidshare.com/files/220541352/EQX2010.rar

Corel Painter X



Corel® Painter™ X | 95MB | Inglés | Crack incluido

Corel® Painter™ X, el software de pintura e ilustración más potente del mundo, ofrece ahora exclusivos pinceles digitales, materiales y texturas que calcan el efecto y la sensación de la pintura tradicional en lienzo. El estudio de arte de Corel Painter X establece la norma en el mundo de la pintura e ilustración digital con la introducción de nuevas herramientas de composición, un rendimiento sin paralelo y el nuevo sistema de pintura RealBristle™, que imita como nunca el comportamiento de pinceles tradicionales hasta el último detalle de cada cerda individual del pincel.

Diseñado para artistas, diseñadores y fotógrafos…y para la nueva generación de profesionales del arte digital.



Descarga:

Como se elabora una manual de identidad corporativa

Si usted posee un negocio debe de contar con un logotipo que lo diferencie e identifique en el mercado, el cual tendrá que ser impreso con diferentes técnicas y en diferentes sustratos. Para la sana reproducción de la imagen de su marca, no basta con sólo contar con un logotipo, es esencial la elaboración un Manual de identidad corporativa. Definimos dicho manual como un documento gráfico que comunica las normas y guías que se deben de acatar en la reproducción de la identidad corporativa de una marca, ya sea publicándose para un receptor externo o interno a nuestra empresa.


Un manual de identidad corporativa se divide en:

1. Presentación de la marca
- Historia
- Misión
- Visión
- Valores
- Logotipo
- Significado del logotipo

2. Normas de construcción de la identidad
- Retícula de trazo
- Geometrización de la identidad
- Área de aislamiento

3. Normas cromáticas
- Logotipo a color
- Usos cromáticos para reproducción RGB, CMYK y Tintas directas (Pantones)

4. Normas tipográficas
- Tipografía institucional

5. Usos permitidos y usos no permitidos

6. Papelería institucional (tarjeta de presentación,hoja membretada,sobre,folder,factura)

7. Señalización (interna y externa)

8. Comunicación externa e interna (Uniformes, flotilla vehicular, equipamientos, indicadores, etc)

9. Merchandising (Bolígrafos, gorras, bolsas, tazas, llaveros, etc)

A continuación ejemplos de manuales de identidad corporativa realizados.

? Cuando debo cambiar mi logo¿

La identidad de una marca debe de evolucionar conforme a los años, son pocos los casos donde una identidad puede permanecer por mucho tiempo de vida sin necesidad de cambios. Definir puntos exactos de cuando es necesario cambiar una imagen sería muy arbitrario y poco profesional de nuestra parte, pues es una decisión que se debe de apoyar con estudios de mercado. Sin embargo, presentamos ciertos criterios cuando a nuestro parecer es necesario refrescar la imagen de un negocio.

1. Se ve viejo: El tiempo siempre hace estragos en toda imagen y estos se hacen más visibles cuando una identidad fue diseñada basándose en modas. Unos pequeños cambios en los rasgos de su logotipo evitarán que se vea viejo y anticuado.


2. Es ineficaz: Generalmente sucede en un logotipo que utiliza muchos colores y elementos (brillos, sombras, relieves, texturas y demás adornos). Puede parecernos “bonito” al elegirlo, sin embargo se transforma en un dolor de cabeza cuando queremos plasmarlo sobre un soporte pequeño o cuando necesitamos aminorar los costos de impresión.


3. No comunica lo deseado: Todas las identidades corporativas deben de comunicar a la perfección la filosofía (valores, visión, misión, objetivos) de una empresa. El consumidor debe de entender a simple vista el giro y el tono (si es formal, creativa, divertida, seria, familiar, etc.) del negocio.

4. No es profesional: Hay empresarios que por ahorrarse dinero, dejan algo tan de GRAN IMPORTANCIA como lo es la imagen de su negocio en manos de gente no profesional, que invariablemente entrega un trabajo de muy baja calidad. Evite a toda costa los diseñadores “patito” que lo único que hacen es disminuir el valor monetario de su marca.

A continuación un claro ejemplo de evolución de identidad con la marca AT&T: