lunes, 14 de diciembre de 2009


DVD

DVD contracción de las iniciales del inglés DIGITAL VERSATILE DISC
Inicialmente no tuvo la finalidad de ser para video, sino para almacenamiento. Con capacidad para almacenar hasta 9,5 gigabytes y puede contener datos, música o vídeos.
No es fácil encontrar, en el campo de la electrónica de consumo, un estándar capaz de poner de acuerdo a los principales fabricantes de CD-ROM, vídeos VHS, laserdiscs y equipos musicales. La tecnología DVD consigió unificar diferentes soportes en uno más "versátil" donde cabía tanto la información multimedia como la de datos.

DISCO 5 1/4

Un disquete o disco flexible (en inglés floppy disk o diskette) es un medio o soporte de almacenamiento de datos formado por una pieza circular de material magnético, fina y flexible (de ahí su denominación) encerrada en una cubierta de plástico cuadrada o rectangular.


Los disquetes se leen y se escriben mediante un dispositivo llamado disquetera (o FDD, del inglés Floppy Disk Drive). En algunos casos es un disco menor que el CD. La disquetera es el dispositivo o unidad lectora/grabadora de disquetes, y ayuda a introducirlo para guardar la información.
Este tipo de dispositivo de almacenamiento es vulnerable a la suciedad y los campos magnéticos externos, por lo que, en muchos casos, deja de funcionar.
Refiriéndonos exclusivamente al ámbito del PC, las unidades de disquete sólo han existido en dos formatos físicos considerados estándar, el de 5¼" y el de 3½". En formato de 5¼", el IBM PC original sólo contaba con unidades de 160 KB, esto era debido a que dichas unidades sólo aprovechaban una cara de los disquetes

MINI DISCO

El MiniDisc, miniDisk o MD, es un disco magneto-óptico digital desarrollado en los 90 por la multinacional de origen japones Sony, de menor tamaño que los CDs convencionales y mayor capacidad en comparación.


El MiniDisc, junto con el TV P (Tele Vision Player) de Matsushita y Philips, fue diseñado para reemplazar las cintas de cassette como sistema de grabación, pero a nivel consumidor no ha tenido todo el éxito que se esperaba. No se afianzó en el mercado norteamericano, ni tampoco en el europeo, tan sólo llegó a ser realmente popular en Japón, aunque hoy en día está siendo rápidamente reemplazado por los reproductores basados en memoria flash, o los basados en disco duro (como iPod). Su discreto éxito inicial se achacó al reducido número de álbumes disponibles a la venta, debido a que muy pocos editores acogieron este nuevo formato de grabación. También tuvo mucho que ver el elevado coste de los equipos para reproducir/grabar.


Los álbumes editados en MD desaparecieron del mercado a finales de los 90.Sony evitó caer de nuevo en el error que cometió en la década de los 70 con el sistema de vídeo Betamax (más conocido como Beta), y licenció la tecnología del MD a otros fabricantes como JVC, Sharp, Pioneer y Panasonic, produciendo cada uno sus propios sistemas de MD. El cassette ha ido desapareciendo, y la lucha para su sustitución entre el CD-R, la memoria flash, y el disco duro, en la que el MiniDisc ha jugado también su papel, no ha cesado. La principal ventaja que ofrece es su fiabilidad como dispositivo portátil de almacenamiento de sonido.

Memoria USB

Una memoria USB (de Universal Serial Bus; en inglés pendrive, USB flash drive) es un pequeño dispositivo de almacenamiento que utiliza memoria flash para guardar la información que puede requerir y no necesita baterías (pilas). La batería era necesaria en los primeros modelos, pero los más actuales ya no la necesitan. Estas memorias son resistentes a los rasguños (externos) al polvo, y algunos al agua –que han afectado a las formas previas de almacenamiento portátil-, como los disquetes, discos compactos y los DVD. En España son conocidas popularmente como pinchos o lápices.


Estas memorias se han convertido en el sistema de almacenamiento y transporte personal de datos más utilizado, desplazando en este uso a los tradicionales disquetes, y a los CD. Se pueden encontrar en el mercado fácilmente memorias de 1, 2, 4, 8, 16, 32, 64, 128 y hasta 256 GB; siendo impráctico apartir de los 64GB por su elevado costo. Esto supone, como mínimo, el equivalente a 180 CD de 700MB o 91.000 disquetes de 1.44 MB aproximadamente. Su gran popularidad le ha supuesto infinidad de denominaciones populares relacionadas con su pequeño tamaño y las diversas formas de presentación, sin que ninguna haya podido destacar entre todas ellas. El calificativo USB o el propio contexto permite identificar fácilmente el dispositivo informático al que se refieren.


Los sistemas operativos actuales pueden leer y escribir en las memorias sin más que enchufarlas a un conector USB del equipo encendido, recibiendo la energía de alimentación a través del propio conector que cuenta con 5 voltios y 2,5 Watios como máximo. En equipos algo antiguos (como por ejemplo los equipados con Windows 98) se necesita instalar un controlador de dispositivo (driver) proporcionado por el fabricante. Linux también tiene soporte para dispositivos de almacenamiento USB desde el kernel 2.4

domingo, 13 de diciembre de 2009


Código binario decimal
Binary-coded decimal (BCD8421) es un sistema numérico usado en sistemas computacionales y electrónicos para codificar números enteros positivos y facilitar las operaciones aritméticas. Es un código ponderado debido a que cada posición numérica tiene un peso específico (8421).
Como se observa con el BCD sólo se utilizan 10 de las 16 posibles combinaciones que se pueden formar con números de 4 bits, por lo que el sistema pierde capacidad de representación, aunque se facilita la compresión de los números. Esto es porque el BCD sólo se usa para representar cifras no números en su totalidad. Esto quiere decir que para números de más de una cifra hacen falta dos números BCD
• Una forma sencilla de calcular números en BCD, es sumando normalmente bit a bit, y si el conjunto de 4 bits sobrepasa el número 9, entonces se le suma un 6 (0110) en binario, para poder volver a empezar, como si hiciéramos un módulo al elemento sumante.
Desde que los sistemas informáticos empezaron a almacenar los datos en conjuntos de ocho bits (octeto), hay dos maneras comunes de almacenar los datos BCD:
• Omisión de los cuatro bits más significativos (como sucede en el EBCDIC)
• Almacenamiento de dos datos BCD, es el denominado BCD "empaquetado", en el que también se incluye en primer lugar el signo, por lo general con 1100 para el + y 1101 para el -.
De este modo, el número 127 sería representado como (11110001, 11110010, 11110111) en el EBCDIC o (00010010, 01111100) en el BCD empaquetado.
El BCD sigue siendo ampliamente utilizado para almacenar datos, en aritmética binaria o en electrónica. Los números se pueden mostrar fácilmente en visualizadores de siete segmentos enviando cada cuarteto BCD a un visualizador. La BIOS de un ordenador personal almacena generalmente la fecha y la hora en formato del BCD, probablemente por razones históricas se evitó la necesidad de su conversión en ASCII.
La ventaja del código BCD frente a la representación binaria clásica es que no hay límite para el tamaño de un número. Los números que se representan en formato binario están generalmente limitados por el número mayor que se pueda representar con 8, 16, 32 o 64 bits. Por el contrario utilizando BCD añadir un nuevo dígito sólo implica añadir una nueva secuencia de 4 bits.
SISTEMA HEXADECIMAL
El sistema hexadecimal, a veces abreviado como hex, es el sistema de numeración posicional de base 16 —empleando por tanto 16 símbolos—. Su uso actual está muy vinculado a la informática y ciencias de la computación, pues los computadores suelen utilizar el byte u octeto como unidad básica de memoria; y, debido a que un byte representa 28 valores posibles, y esto puede representarse como , que, según el teorema general de la numeración posicional, equivale al número en base 16 10016, dos dígitos hexadecimales corresponden exactamente —permiten representar la misma línea de enteros— a un byte.

En principio dado que el sistema usual de numeración es de base decimal y, por ello, sólo se dispone de diez dígitos, se adoptó la convención de usar las seis primeras letras del alfabeto latino para suplir los dígitos que nos faltan. El conjunto de símbolos sería, por tanto, el siguiente:


Se debe notar que A = 10, B = 11, C = 12, D = 13, E = 14 y F = 15. En ocasiones se emplean letras minúsculas en lugar de mayúsculas. Como en cualquier sistema de numeración posicional, el valor numérico de cada dígito es alterado dependiendo de su posición en la cadena de dígitos, quedando multiplicado por una cierta potencia de la base del sistema, que en este caso es 16. Por ejemplo: 3E0A16 = 3×162 + E×161 + 0×160 + A×16-1 = 3×256 + 14×16 + 0×1 + 10×0,0625 = 992,625.

El sistema hexadecimal actual fue introducido en el ámbito de la computación por primera vez por IBM en 1963. Una representación anterior, con 0–9 y u–z, fue usada en 1956 por la computadora Bendix G-15.

Sistema octal
El sistema numérico en base 8 se llama octal y utiliza los dígitos 0 a 7.
Por ejemplo, el número binário para 74 (en decimal) es 1001010 (en binario), lo agruparíamos como 1 / 001 / 010, de tal forma que obtengamos una serie de números en binário de 3 dígitos cada uno (para fragmentar el número se comienza desde el primero por la derecha y se parte de 3 en 3), despues obtenemos el número en decimal de cada uno de los números en binario obtenidos: 1=1, 001=1 y 010=2. De modo que el número decimal 74 en octal es 112.
Hay que hacer notar que antes de poder pasar un número a octal es necesario pasar por el binario. Para llegar al resultado de 74 en octal se sigue esta serie: Decimal -> Binario -> Octal.
En informática, a veces se utiliza la numeración octal en vez de la hexadecimal. Tiene la ventaja de que no requiere utilizar otros símbolos diferentes de los dígitos. Sin embargo, para trabajar con bytes o conjuntos de ellos, asumiendo que un byte es una palabra de 8 bits, suele ser más cómodo el sistema hexadecimal, por cuanto todo byte así definido es completamente representable por dos dígitos hexadecimales.
Es posible que la numeración octal se usara en el pasado en lugar del decimal, por ejemplo, para contar los espacios interdigitales o los dedos distintos de los pulgares.

CODIGO BINARIO
El código binario es el sistema de representación de textos, o procesadores de instrucciones de ordenador, utilizando el sistema binario (sistema numérico de dos dígitos, o bit: el "0" y el "1"). En informática y telecomunicaciones, el código binario se utiliza con variados métodos de codificación de datos, tales como cadenas de caracteres, o cadenas de bits. Estos métodos pueden ser de ancho fijo o ancho variable.
En un código binario de ancho fijo, cada letra, dígito, u otros símbolos, están representados por una cadena de bits de la misma longitud, como un número binario que, por lo general, aparece en las tablas en notación octal, decimal o hexadecimal.
Según Anton Glaser, en su History of Binary and other Nondecimal Numeration, comenta que los primeros códigos binarios se utilizaron en el año 1932: C.E. Wynn-Williams ("Scale of Two"), posteriormente en 1938: Atanasoff-Berry Computer, y en 1939: Stibitz ("excess three") el código en Complex Computer.

Cookie
Una cookie (pronunciado ['ku.ki]; literalmente galleta) es un fragmento de información que se almacena en el disco duro del visitante de una página web a través de su navegador, a petición del servidor de la página. Esta información puede ser luego recuperada por el servidor en posteriores visitas. En ocasiones también se le llama "huella".
Las inventó Lou Montulli, un antiguo empleado de Netscape Communications. Al ser el protocolo HTTP incapaz de mantener información por sí mismo, para que se pueda conservar información entre una página vista y otra (como login de usuario, preferencias de colores, etc), ésta debe ser almacenada, ya sea en la URL de la página, en el propio servidor, o en una cookie en el ordenador del visitante.
De esta forma, los usos más frecuentes de las cookies son:
• Llevar el control de usuarios: cuando un usuario introduce su nombre de usuario y contraseña, se almacena una cookie para que no tenga que estar introduciéndolas para cada página del servidor. Sin embargo una cookie no identifica a una persona, sino a una combinación de computador y navegador.
• Conseguir información sobre los hábitos de navegación del usuario, e intentos de spyware, por parte de agencias de publicidad y otros. Esto puede causar problemas de privacidad y es una de las razones por la que las cookies tienen sus detractores.
Originalmente, sólo podían ser almacenadas por petición de un CGI desde el servidor, pero Netscape dio a su lenguaje Javascript la capacidad de introducirlas directamente desde el cliente, sin necesidad de CGIs. En un principio, debido a errores del navegador, esto dio algunos problemas de seguridad. Estas vulnerabilidades fueron descubiertas por Roberto Santizo.[cita requerida] Las cookies pueden ser borradas, aceptadas o bloqueadas según desee, para esto sólo debe configurar convenientemente el navegador web.

EL USO DEL COOKIE
Las cookies son utilizadas habitualmente por los servidores web para diferenciar usuarios y para actuar de diferente forma dependiendo del usuario. Las cookies se inventaron para ser utilizadas en una cesta de la compra virtual, que actúa como dispositivo virtual en el que el usuario va "colocando" los elementos que desea adquirir, de forma que los usuarios pueden navegar por el sitio donde se muestran los objetos a la venta y añadirlos y eliminarlos de la cesta de la compra en cualquier momento. Las cookies permiten que el contenido de la cesta de la compra dependa de las acciones del usuario.
Si bien las cookies pretenden facilitar el acceso a las páginas web visitadas con anterioridad, no tienen acción sobre las actividades multimedia, ya sea video, audio o imágenes de caché considerable, dado que, como son almacenadas en la memoria temporal del disco duro, ocuparían demasiado espacio. Sus funciones se limitan únicamente a almacenar los ficheros HTML para facilitar el acceso a ellos por parte del usuario.
Otro uso de las cookies es identificarse en un sitio web. Los usuarios normalmente se identifican introduciendo sus credenciales en una página de validación; las cookies permiten al servidor saber que el usuario ya está validado, y por lo tanto se le puede permitir acceder a servicios o realizar operaciones que están restringidas a usuarios no identificados.
Otros sitos web utilizan las cookies para personalizar su aspecto según las preferencias del usuario. Los sitios que requieren identificación a menudo ofrecen esta característica, aunque también está presente en otros que no la requieren. La personalización incluye tanto presentación como funcionalidad. Por ejemplo, las páginas de Wikipedia permiten a los usuarios identificados elegir un estilo de presentación a su gusto; el motor de búsqueda de Google permite a los usuarios (incluso a los no registrados) decidir cuántos resultados de búsqueda quieren ver en cada página.
Las Cookies se utilizan también para realizar seguimientos de usuarios a lo largo de un sitio web. Las cookies de terceros y los errores en servidores web que se explican más abajo también permiten el seguimiento entre diferentes sitios. El seguimiento en un mismo sitio normalmente se hace con la intención de mantener estadísticas de uso, mientras que el seguimiento entre sitios normalmente se orienta a la creación de perfiles de usuarios anónimos por parte de las compañías de publicidad, que luego se usarán para orientar campañas publicitarias (decidir qué tipo de publicidad utilizar) basadas en perfiles de usuarios.

ARES

Ares Galaxy. Programa del tipo P2P para el intercambio de todo tipo de archivos por internet creado a mediados de 2002. Originalmente trabajaba para la red Gnutella, pero unos meses después sus desarrolladores comenzaron a crear su propia red con arquitectura "leaf nodes-y-supernodos".

Luego de que Kazaa perdiera popularidad (debido a la "contaminación" de sus redes con archivos inútiles, truncados, con publicidad, además de sus problemas judiciales), otros sistemas P2P se hicieron populares, entre ellos el Ares.

Es programado en lenguaje Object Pascal y compilado en Delphi/Kylix y actualmente es un software libre con licencia GPL. El cambio de freeware a libre fue tomado por los posibles problemas legales que podría llegar a tener.

Posee múltiples versiones (clientes) en circulación que se conectan a la misma red, entre ellos Warez P2P, KCeasy, etc.

Suele destacarse por su velocidad de descarga de cualquier archivo, además posee chat, búsquedas avanzadas, previsualización de archivos multimedios, soporte para protocolo BitTorrent, soporte de radio internet SHOUTcast, navegador web, etc.

La gente que utiliza este tipo de programas suele compartir archivos que tienen derechos de autor y no permiten estos intercambios.

Gigabyte
Un gigabyte es una unidad de medida informática cuyo símbolo es el GB, y puede equivalerse a 230 bytes o a 109 bytes, según el uso.
Como resultado de esta confusión, el término "gigabyte" resulta ambiguo, a no ser que se utilice un sólo dígito de precisión. Conforme aumenta la capacidad de almacenamiento y transmisión de los sistemas informáticos, se multiplica la diferencia entre los usos binario y decimal. El uso de la base binaria no obstante tiene ventajas durante el diseño de hardware y software. La RAM se mide casi siempre en potencias de dos.
Un Terabyte puede equivalerse a 1024 GB ó 1000 GB.

Desde 1996, la mayoría de los discos duros se miden en el rango de capacidades de gigabytes. El coste por gigabyte es de 0,40-0,65 € ó 0,51-0,72 $.
En lenguaje coloquial, "gigabyte" se abrevia a menudo como giga, (por ejemplo: "Este disco de Riki Martac es de 200 gigas").
El gigabit, que no debe ser confundido y enredado con el gigabyte, es 1/8 de un gigabyte, puesto que está referido a bits en lugar de a bytes, y se abrevia como Gb (o Gbit) (nótese la letra b minúscula). Se usa principalmente para describir el ancho de banda y la tasa de transmisión de un flujo de datos, (por ejemplo: la velocidad actual de los interfaces de fiborea ópticada es de 2 Gbit/s).
El alfabeto Unicode tiene un símbolo para gigabyte: (㎇).

Megabyte
El megabyte (MB) es una unidad de medida de cantidad de datos informáticos. Es un múltiplo del octeto, que equivale a 106 (1.000.000 octetos) o 220 (1.048.576 Octetos), según el contexto. La primera definición es más acorde al prefijo mega-, mientras que la segunda es una cantidad más práctica desde el punto de vista informático. Para ésta es más acorde emplear el mebibyte, ya que los dos números están relativamente cercanos, y confundir uno con otro ha llevado ocasionalmente a problemas.
Se representa por MB y no por Mb (que correspondería a megabit) y coloquialmente se les denomina megas. Es la unidad más típica actualmente, usándose para especificar la capacidad de la memoria RAM, de las memorias de tarjetas gráficas, de los CD-ROM, o el tamaño de los programas, de los grandes archivos grandes, etc. La capacidad de almacenamiento se mide habitualmente en gigabytes, es decir, en miles de megabytes.
Se distingue del megabit (1.000.000 bits), con abreviación de Mbit o Mb (la "b" minúscula). Hay 8 bits en un octeto; por lo tanto, un megabyte (MB) es ocho veces más grande que un megabit (Mb).

BYTE
Byte es una voz inglesa (pronunciada [bait] o ['bi.te]), que si bien la Real Academia Española ha aceptado como equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido. La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente B mientras que en los francófonos es o (de octet); la ISO y la IEC en la norma 80000-13:2008 recomiendan restringir el empleo de esta unidad a los octetos (bytes de 8 bit).


Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término octeto se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos).

BIT
Bit es el acrónimo de Binary digit. (dígito binario). Un bit es un dígito del sistema de numeración binario.
Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1.
Se puede imaginar un bit, como una bombilla que puede estar en uno de los siguientes dos estados:


Memoria de computadora de 1980 donde se pueden ver los bits físicos. Este conjunto de unos 4x4 cm. corresponden a 512 bytes.
El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).

domingo, 15 de noviembre de 2009

ENTRE TODOS PODEMOS SALVARLO


En la actualidad, el jaguar se encuentra en peligro de extinción, es decir, el número de ejemplares ha disminuido de manera drástica con el riesgo de que desaparezca por completo de la Tierra, por ello está prohibida la caza, captura, transporte, posesión y comercio del jaguar, o de productos y subproductos de esta especie en todo el territorio nacional.
En México existen áreas naturales de protección para este felino, las más importantes son las reservas de la biosfera Calakmul en Campeche y Sian Ka'an en Quintana Roo.

LA GESTACIÓN DEL JAGUAR


El periodo de gestación es de 100 días, por lo general tienen dos crías, aunque pueden llegar a tener hasta cuatro. Poco antes del nacimiento, el macho abandona a la hembra y ella cuida sola a los cachorros: los guarda en cuevas u otros refugios, los trae consigo y les enseña a cazar durante su primer año de vida, hasta que pueden hacerlo por sí mismos. Después, tendrán que abandonar el territorio de sus padres.

ALIMENTASIÓN DEL JAGUAR


Se alimenta, sobre todo, de pecaríes, venados, monos, tapires, mapaches, tejones, armadillos, conejos y otros pequeños mamíferos; además de aves, peces, perros, cocodrilos, caimanes, lagartijas, víboras, tortugas y sus huevos e, incluso, carroña. Donde encuentra comida abundante, es frecuente que regrese a comer varias noches consecutivas.
También gusta de cazar animales domésticos, como: cerdos, caballos, burros, chivos o borregos; de forma eventual, se han registrado ataques sobre algunas personas.

PESO DEL JAGUAR


El peso de un jaguar adulto va de 45 a 130 kg, la longitud desde la nariz a la punta de la cola es de 1.70 a 2.30 m, y tiene una longevidad de 20 años. Su pelaje es color café amarillento con manchas negras de forma irregular (llamadas rosetas). No obstante, algunos pueden ser negros con manchas del mismo color. A pesar de su apariencia pesada, el jaguar es muy ágil, corre y nada grandes distancias.
Las hembras adultas tienen hábitos hogareños; en cambio, los machos son más vagabundos y se alejan de su residencia cuando tienen disputas territoriales. A pesar de las evidencias de largos viajes que hacen algunos jaguares, estos animales son sedentarios cuando se encuentran en su hábitat preferido.

jueves, 12 de noviembre de 2009

JAGUAR


El jaguar, es el felino más grande de América y el tercero en el mundo (después del león y el tigre), es también el único representante del género Panthera encontrado en este continente, habita desde lugares casi desérticos como el Desierto de Arizona o el altiplano mexicano hasta selvas tropicales como el Amazonas

martes, 10 de noviembre de 2009

KEFIR
Granos de kéfir (de leche)
El kéfir, búlgaros o yogurt de pajaritos es un producto lácteo fermentado originado en la región del Cáucaso. También reciben este nombre los gránulos utilizados para su producción.
Tiene un aspecto similar al de la coliflor pero es más blando; es una combinación de bacterias probióticas y levaduras en una matriz de proteínas, lípidos y azúcares. Lactobacillus acidophilus es la bacteria y Saccharomyces kefir la levadura (hongo unicelular) más habituales en el kéfir, aunque varían según las regiones y culturas. Existen tres tipos de kéfir: de leche, de agua y de té o Kombucha.

domingo, 8 de noviembre de 2009



SONY ERICSSON KURARA

Se filtra un nuevo celular sony ericsson, y principalmente los rumores apuntan que este correría con Symbian S60, siendo que ya tenemos Sony Ericsson X10, con android 1.6.
Además Sony Ericsson Kurara traería estas características::
• Pantalla táctil AMOLED de 3,5 pulgadas.
• Cámara de 8,1 megapíxeles.
• Grabaría videos en “HD”.
Es lo único que sabe hasta este momento sobre el Sony Ericsson Kurara.


SONY ERICSSON X10
El ya presentado Sony Ericsson X10, es lo nuevo de sony ericsson y promete demasiado, al salto las características completas.
• GSM/GPRS/EDGE (850/900/1800/1900)
• UMTS HSPA (900/1700/2100) o UMTS HSPA (800/850/1900/2100)
• Pantalla táctil de 4 pulgadas capacitiva y resistente a los rayones con 480 x 854 pixels de resolución
• Wi-Fi 802.11b/g
• Control mediante gestos
• GPS con A-GPS
• Google Maps con Street View
• Wisepilot turn-by-turn navigation
• Navegador WebKit
• Gmail
• Google Calendar
• Google Media Uploader
• Google phone-top search
• Google search widget
• Google Talk
• Google Voice Search
• Conector 3.5mm
• Bluetooth 2.1 con A2DP
• MicroUSB
• Cámara de 8.1 mpx con autofocus y touch focus, reconocimiento de rostros inteligente, detección de sonrisas, estabilizador de imagen y video, geotagging y flash LED.
• 1GB de memoria interna.
• Incluye una tarjeta microSD de 8GB
• 119 x 63 x 13 mm
• 135 gram0s
• Procesador Qualcomm QSD8250 Snapdragon 1 GHz
• 256 MB RAM
• Batería de 1500 mAh

sábado, 7 de noviembre de 2009




SONY


Sonī Kabushiki Gaisha?), o simplemente Sony es una multinacional de origen japonés y uno de los manufactoradores líderes en la exportacion de alimentos a nivel internaciona.
En septiembre de 1945, Masaru Ibuka regresó a Tokio, que había quedado destrozada por los bombardeos aliados durante la Segunda Guerra Mundial. El tercer piso de los Grandes Almacenes Shirokiya, se convirtió en el nuevo taller de Ibuka y su grupo. El exterior del edificio, presentaba grietas por todas partes.
En octubre, Ibuka y su grupo establecieron una instalación llamada Tokyo Tsushin Kenkyujo (Totsuken) o Instituto de Telecomunicaciones de Tokio. A pesar del entusiasmo, nadie sabía al principio qué hacer. La mayoría de los salarios se pagaban recurriendo a los limitados ahorros de Ibuka.
La fábrica reparaba radios y hacía convertidores de onda corta o adaptadores que podían convertir fácilmente radios de onda media en superheterodinos o receptores de ondas de cualquier longitud, cuya demanda crecía rápidamente.
Los adaptadores de onda corta atrajeron la atención y el Asahi Shimbun publicó un artículo al respecto. Cuando la guerra llegaba a su fin, Akio Morita había decidido regresar a Kosugaya, en la Prefectura de Aichi. Un día leyó la columna que mencionaba a Ibuka e inmediatamente escribió a su amigo, quien le contestó e instó a venir a Tokio.
Ibuka y Morita, se conocieron durante las reuniones del Comité de Investigaciones en Período Bélico. Ambos se convirtieron en amigos íntimos aunque Ibuka llevaba a su compañero más de doce años.
Además del trabajo remunerado, las reparaciones de radios aportaron una recompensa adicional, pues más allá de las comisiones de servicio recibían frecuentemente arroz en las casas que visitaban para dar mantenimiento.
La fábrica de Ibuka trabajó en una olla eléctrica para cocer arroz (un producto primitivo). Era raro obtener un arroz sabroso. Fue un primer fracaso para Ibuka y su grupo.
El arroz provenía de Shozaburo Tachikawa, un pariente lejano de Ibuka que operaba en el mercado negro. De niño, Ibuka solía visitar a la familia Tachikawa en Hakodate (Hokkaido). Tachikawa se sentía allegado a Ibuka y le admiraba. Al graduarse de la universidad, Tachikawa había administrado con habilidad los asuntos generales de la Compañía de Instrumentos de Medición de Japón (Nissoku). En Totsuken, él se ocupó de las finanzas, del personal y de asuntos generales. Una de sus primeras tareas fue comprar arroz en el mercado negro.
La compañía comenzó a proveer su "voltímetro de tubos al vacío" en el que Yasuda trabajó desde la época de Nissokua, a las oficinas del gobierno, con lo que el negocio de Ibuka inició plena marcha a finales de 1945.
El establecimiento de Totsuko

El 7 de mayo de 1946 más de veinte ejecutivos y el personal asistieron a la ceremonia inaugural de Tokyo Tsushin Kogyo, o Totsuko, (Corporación de Ingeniería de Telecomunicaciones de Tokio) donde el suegro de Ibuka, Tamon Maeda, fue nombrado presidente. Maeda había sido Ministro de Educación en los gabinetes de postguerra de Higashikuni y Shidehara.
En el discurso inaugural Ibuka declaró:
Debemos evitar los problemas que aquejan a las corporaciones grandes en el proceso de crear e introducir tecnologías que ellas no pueden igualar. La reconstrucción de Japón depende del desarrollo de tecnologías dinámicas.
El folleto fundacional
La compañía, que capitalizó ¥ 190.000, no tenía maquinaria y sólo contaba con algún equipo científico. Comenzaron a crear mercados nuevos. El presidente Maeda subrayó:
Hoy se ha iniciado nuestra pequeña compañía. Alimentada por sus tecnologías superiores y por su espíritu de unidad, la compañía crecerá. Y a medida que lo haga aportaremos una contribución real a la sociedad.
Así nació Tokyo Tsushin Kogyo Kabushiki Kaisha.
Los Primeros contratos
El 8 de mayo, Ibuka visitó el Ministerio de Comunicaciones y recibió un pedido de cincuenta voltímetros de tubos al vacío. El problema era que encontrarlos en el mercado negro representaba hacer viajes a Akihabara, en Tokio, o Yokohama o incluso a la Prefectura de Ibaraki.
Totsuko se veía obligado a fabricar su propio equipo. Comenzando con los soldadores eléctricos (cautines), hacía destornilladores utilizando resortes de motocicletas. Construía sus propias bobinas eléctricas y usaba alambrado eléctrico en los cables telefónicos en sus productos de prueba. La mayor preocupación de todos, era financiera. El producto de mayor venta que Totsuko podía ofrecer, fue un cojín electrocalentado. No era un dispositivo muy seguro porque carecía de termostato y no utilizaba material pirorretardante. Dado que no estaban dispuestos a empañar el nombre de Totsuko, el producto se vendía con el nombre ficticio "Ginza Nessuru Shokai" (Compañía Ginza de Calefacción). El cojín se vendía como "pan caliente", pues en ese entonces había escasez de casi todo. La compañía pagaba a las familias de los empleados por coser forros, adornar cordones con vainicas y completar otras tareas encargadas.
Kazuo Iwama era un físico asociado al Instituto de Investigaciones de Terremotos de la Universidad de Tokio antes de unirse a Totsuko. Iwama y Morita habían sido buenos amigos en el distrito Shirakabe de Nagoya, y estaba casado con la hermana menor de Morita. El 1 de junio, Iwama se unió a la compañía.
Traslado a Gotenyama
Después de trasladarse al Edificio Tokuya en Ginza, la NHK solicitó a Totsuko que convirtiera el equipo inalámbrico de uso militar en receptores de repetidora para difusión.
Puesto que Japón carecía de materiales y suministros, Shima pensó en utilizar el equipo de reserva de comunicaciones del ejército, de la Prefectura de Yamanashi, que incluía muchos receptores inalámbricos tierra-aire de onda corta y media, con bobinas reemplazables. Casi todas las compañías japonesas de telecomunicaciones trabajaban exclusivamente en la restauración de teléfonos con el Ministerio de Comunicaciones. Esta fue la primera conexión de Totsuko con NHK.
La crisis del 2008 y 2009
Sony tuvo su primera pérdida - 1 000 millones - en el año fiscal 2008-2009 que termina en marzo y prevé que las pérdidas aumentarán conque el fabricante reducirá sus costes y cerrará más fábricas.[1]
Los aportes de Sony al mundo de la electrónica han sido relevantes. En 1950 se presentaba la primera grabadora de sonido en Japón, cuatro años más tarde fabrica el primer transistor japonés y al año siguiente, en 1955 desarrolla el primer radio de transistores del mundo, el TR-55 que presenta en Japón, dos años después presenta el TR-63 y el TR-62 a nivel mundial. Con ellos es que se introduce en el mercado de EE. UN. Ya el año anterior había presentado el TR-55 en Japón. La tecnología de estado sólido, que sirvió a Sony para darse a conocer en el mundo con su radio a transistores, fue adquirida por la compañía mediante una licencia comprada a los laboratorios Bell por Morita, los laboratorios Bell no utilizaban la tecnología de estado sólido al estimar que no iba a haber ningún cambio en los consumidores que utilizaban la tecnología anterior.
En 1958 sigue innovando en la radio transistorizada presentando el receptor más pequeño en aquel momento en el mundo y el primer receptor a transistores de dos bandas.
En 1960 desarrollo el 8-301, el primer receptor de televisión transistorizado y seguidamente, en 1961, la primera grabadora de vídeo transistorizada, la SV-201. Al año siguiente esos productos serían de menor tamaño.
En 1965 se presenta la primera grabadora de vídeo doméstica, la CV-2000 y un micrófono de condensador transistorizado.
En 1967 aparece el primer receptor de radio que incorpora circuitos integrados y una grabadora de vídeo portátil, la DV-2400.
En 1968 presenta el primer televisor en color trinitrón (marca y tecnología que mantendrá hasta la desaparición de los monitores y receptores de TV de tubo de Rayos Catódicos a pricipios del siglo XXI). Al siguiente la NASA selecciona el casete TC-50 de Sony para equipar el Apolo X.
En 1969 Sony desarrolla en magnetoscopio U-matic que está llamado a ser el formato de grabación de vídeo para ENG sustituyendo a los formatos de pulgada "C" y "B" de Ampex y Bosch. Dos años después presentaría el U-matic en color.
En 1972 desarrolla y presenta el primer proyector de vídeo para pantallas de gran formato y en 1975 surge el Betamax, con el modelo SL-6300, fue un concepto de Ibuka, que se convirtió en un éxito, pero que paulatinamente perdió su dominio del mercado a manos del formato VHS, liderado por JVC. Esta situación se debió a la negativa de Sony de compartir el uso de su formato con otras compañías, razón por la cual, la mayoría de fabricantes adoptaron el formato VHS.
En 1977 aparece el primer procesador de audio digital PCM-1 y en 1979 presenta el primer Walkman del mundo , el TPS-12.
En 1980 desarrolla y presenta, junto a Philips el nuevo formato de grabación de audio digital, el CD. Ese mismo año lanza el primer camcorder, cámara y grabadora integrados, destinado al mercado doméstico.


Ejemplo Camara de Video Sony.
En 1982 desarrolla el sistema Betacam partiendo del U-matic. El nuevo sistema, que graba por componentes en cintas de media pulgada idénticas a las utilizadas por el formato doméstico Betamax se desarrollaría posteriormente dando lugar al Betacam SP que apareció en 1988 y sería el formato estándar de TV brodcast hasta la desaparición de la grabación en cinta en la primera década del siglo XXI. Este formato se evolucionaría al Betacam digital y soportaría todos los formatos intermedios que tanto Sony como otras empresas del sector intentaron introducir para sustituirlo.
En 2008 el formato Blu-ray desarrollado por Sony, se impone sobre el formato HD DVD que trato de imponer la empresa Toshiba. Gran parte de su éxito se debió a su incorporación en el sistema Playstation 3, producto estrella de Sony que actualmente pelea por imponerse tras sus exitosos PlayStation 2 y PlayStation.
Mercados
Audio personal
Un ejemplo evidente de concepto exitoso fue walkman®, un reproductor de audio estéreo portátil lanzado al mercado por primera vez en 1979 y del que Sony ha vendido millones de unidades, En sus comienzos permitía obtener una calidad de sonido similar a la de un equipo casero, sin ser tan voluminoso. La amplia difusión del walkman también cambió radicalmente el negocio de los tocadiscos y le dio el primer golpe al disco de vinilo, ya que el casete era más fácil de reproducir y más económico. El walkman es todo un símbolo de los años 80.
Posteriormente la marca Walkman® fue extendida a sus reproductores de discos compactos (CD), de discos compactos en formato Atrac y de audio digital comprimido, así como a los teléfonos móviles multimedia de Sony Ericsson.
Contenidos Audiovisuales
En enero de 1988 Sony adquirió CBS Records para dar origen a Sony Music Entertainment y en 1989 Sony compró Columbia Pictures y creó Sony Pictures. Sony aprendió de la derrota con Betamax que para dominar en la guerra de los formatos había que convertirse en el estándar de la industria.
Fotografía


Cámara Digital Sony DSC S730
Sony produce su propia línea de cámaras digitales desde 1996 bajo la marca Cyber-shot. Su primer modelo fue el DSC-F1, una compacta de 0.31 megapíxeles.
En 2006 Sony amplió su rango de productos con el lanzamiento de su primera cámara digital réflex, la Sony Alpha 100 DSLR,[3] y del primer móvil Sony Ericsson con la insignia Cyber-Shot, el K800.
Para el desarrollo de su nueva línea Alpha, Sony adquirió la división de fabricación de cámaras de Konica Minolta.[3]
Informática
Sony hizo su aparición en el mundo de la informática en 1982 con un computador personal de 8 bits denominado SMC-70, al que seguirían el SMC-777 (destinado al usuario novel) y el NWS-830 (una estación de trabajo para desarrolladores), entre otros.[4]
En 1996 ve la luz el primer de la marca VAIO,[4] la nueva línea de computadores personales de Sony, y que actualmente abarca tanto ordenadores de sobremesa como portátiles.
Telefonía
Tras crear una empresa de riesgo compartido con Ericsson Mobile Comunications, de Suecia, en 2003, Sony y Ericsson dan lugar a su propia marca de teléfonos celulares, Sony Ericsson, con muy buen éxito a nivel mundial.
Televisión
Sony posee la licencia de 4 canales de televisión por cable y satélite, disponibles en todo el mundo:
Sony Entertainment Television, dedicado a las series de televisión estadounidenses únicamente en España, Latinoamérica y la India.
AXN (cuyas siglas significan Action eXtreme Network, es decir, Canal de Acción Extrema), dedicado a las películas , series de acción y aventura.
E! Entertainment Television, dedicado al mundo de la moda y el espectáculo.
Animax, dedicado a las series y dibujos animados del tipo anime, durante las 24 horas únicamente en Latinoamérica, Alemania, Europa del Este y Asia. Recientemente ha llegado a España en ofertas de televisión de pago.
Videojuegos
Sony lanzó su primera consola de videojuegos, la PlayStation (PSX), en 1994. Se considera la videoconsola más exitosa de la quinta generación tanto en ventas como en popularidad. En el año 2000, coincidiendo con el lanzamiento de la nueva Playstation 2, Sony decidió alargar la vida de la PSX reduciendo su tamaño y mejorando algunos de sus componentes. Este nuevo modelo, PSOne, estaba destinado a ofrecer alternativa más asequible a la PS2 (que tendría un precio más elevado) y las N64 y Dreamcast de la competencia.[5]
La PlayStation 2 está considerada hasta la fecha como la videoconsola más exitosa de todos los tiempos, con unos 140 millones de unidades vendidas.[cita requerida] En vista del éxito, Sony decidió extender su marca al mercado de las consolas portátiles, lanzando en 2005 la PlayStation Portable (PSP). Más recientemente, en2006, lanzó la.
Curiosidades
El origen del nombre de la compañía
Mientras buscaban un nombre para la compañía, pensaron en utilizar sus iniciales, TTK (Tokyo Tsushin Kogyo). La primera razón por la cual no lo hicieron, fue por la compañía ferroviaria Tokio Kyuko, conocida como TKK. La compañía utilizó entonces, ocasionalmente, el acrónimo "Totsuko" en Japón, pero Morita descubrió durante su visita en Estados Unidos, que los Norteamericanos tenían problemas para pronunciar el nombre. Otro nombre que se utilizó temporalmente fue "Tokio Teletech" hasta que Morita descubrió que en Norteamérica ya había una compañía utilizando el nombre Teletech mas su respectiva marca.
El nombre SONY fue elegido como una mezcla del latin sonus, que es la raíz de las palabras sónico y sonido, y de las palabras inglesas sunny (soleado) y sonny (niño). [6]
Controversias
El caso "rootkit"
Desde el año 2004, Sony, que también tenía intereses en la industria discográfica, empezó a incorporar sistemas de protección anticopia basados en un rootkit a sus CD musicales. Dicho rootkit era capaz de instalarse en los núcleos de los sistemas Windows 2000 o XP. Al mes posterior en que la noticia salió a la luz (Octubre del año 2005) ya hubo fuertes demandas contra la compañía, así como peticiones a escala mundial para boicotearla. Dicho rootkit no sólo despertó la ira de los detractores del espionaje con fines comerciales, sino también el de los promotores del software libre, pues se descubrió que el rootkit (de código cerrado) utilizaba código liberado bajo licencias LGPL y GPL, transgrediendo tales licencias.
El caso de las baterías
A raíz de la explosión de la batería de un portátil de Sony en Japón, Sony y Dell observaron varios defectos de fabricación en las pilas de varios de sus portátiles que podrían dar lugar a un sobrecalentamiento excesivo de las mismas. Como resultado, fueron reemplazados 4.1 millones de baterías, la cifra más grande en la historia del sector.[7]
Otras grandes compañías manufacturadoras de ordenadores portátiles se vieron afectadas, como Acer,[8] Apple,[9] Hewlett-Packard (HP),[10] Fujitsu,[11]Lenovo[12] y Toshiba[13


SAMSUNG


a empresa Samsung (en hangul; en hanja:; en McCune-Reischauer: Samsŏng; y finalmente en coreano: Samseong, que significa "tres estrellas") es una de las más fuertes y reconocidas empresas de Corea del Sur a nivel mundial, y líder mundial en diversas ramas de la industria electrónica. Comenzó como una compañía exclusivamente de exportaciones en el año 1938.
A pesar de ser mejor conocida como una empresa electrónica, Samsung esta envuelta también en la industria pesada, automotriz, servicios financieros, productos químicos, venta al público y entretenimiento.



Monitor TFT LCD Samsung SyncMaster 510N
Samsung Electronics, fundada en 1969, es el miembro más grande del Grupo Samsung, que es a la vez una de las compañías de aparatos eléctricos más importantes alrededor del mundo. Fundada en Daegu, Corea del Sur, opera en alrededor de 58 países y tiene más de 208.000 empleados. Sus ventas en el año 2003 fueron de alrededor de 101.700 millones de dólares (unos 86.200 millones de Euros). Samsung Electronics es reconocida por ser una de las 10 mayores marcas de fabricantes en el mundo; es específicamente la segunda mayor productora del mundo, teniendo el primer lugar, la también coreana Hyundai; la cual tiene a la venta productos de telecomunicación, electrodomésticos y pantallas.
Fue la empresa que lanzó la primera TV de plasma en el mundo. En el área de la electrónica, hoy en día es la compañía con mayor valor en el mercado mundial, ganándole a la japonesa Sony.
Lanzó una exitosa línea de Televisores CRT llamada Biovision, posteriormente aparecen los Televisores CRT de Pantalla Plana Tantus.
Creó el DNIe (Motor Natural de Imágenes Digitales),para mejorar la claridad y el detalle de las imágenes reproducidas por los Televisores CRT, plasma y LCD.
Hoy en día, es la empresa Nº20 con mayores ganancias en el mundo y sus mayores ganancias están en la venta de teléfonos móviles/celulares y chips de memoria.
Sus productos se caracterizan por tener un diseño atractivo y sobrio.
S-LCD Corporation, es el nombre de la nueva planta creada por la alianza estratégica que se firmó en el 2004 entre Sony Corporation y Samsung Electronics. Está dedicada a la fabricación de pantallas de cristal líquido para televisores. La megaplanta ostenta el más avanzado equipo para la manufactura de pantallas de cristal líquido de séptima generación de 1,870mm x 2,200mm. Además posee una capacidad de producción de 60,000 paneles por mes. La producción en serie comenzó en el 2005, después de las pruebas finales de manufactura. Además, S-LCD se constituirá como la mayor fuente de pantallas LCD para Samsung y Sony.
Samsung Mobile
Samsung Mobile es el nombre comercial de la división de teléfonos móviles/celulares de la compañía coreana.
Los teléfonos celulares Samsung utilizan las tecnologías celulares utilizadas por los principales operadores de telecomunicación móvil en el mundo: CDMA, GSM, GPRS y HSDPA.
Según los datos publicados por la consultora ABI Research, Samsung se afianza en la segunda posición de ventas mundiales de teléfonos móviles/celulares (16,2% del mercado) en 2008, detrás del gigante Nokia (38,6%).[2]
Además, según ABI Research, Samsung es la firma que más ha crecido en 2008, con un aumento del 2,7% en su cuota de mercado gracias en gran parte al buen comportamiento de las ventas de terminales como el Omnia y la familia de teléfonos delgados Ultra.

Últimos móviles de gama media/alta lanzados por Samsung
Nombre
Sistema Operativo
Pantalla
Redes
Cámara
Otros
Samsung S5230
Propio
Pantalla táctil de 3.2" (240 x 400 pixels)
DGE, Wi-Fi 802.11 b/g
3,2 MP
Teclado QWERTY virtual, Trackpad óptico
Samsung Omnia
Windows Mobile 6.1
Pantalla táctil de 3.2" (240 x 400 pixels)
GSM, GPRS, HSDPA, EDGE, Wi-Fi 802.11 b/g
5 MP
Teclado QWERTY virtual, Trackpad óptico, GPS
Samsung INNOV8
Symbian OS v9.3 Series 60 rel. 3.2
Pantalla de 2.8" (240 x 320 pixels)
GSM, GPRS, HSDPA, EDGE, Wi-Fi 802.11 b/g
8 MP, Vídeo VGA a 30fps
Trackpad óptico, GPS
Samsung PIXON
Propio
Pantalla táctil de 3.2" (240 x 400 pixels)
GSM, GPRS, HSDPA, EDGE
8 MP, Vídeo WVGA 720x480 a 30fps
Teclado QWERTY virtual, GPS
Samsung S8300 UltraTOUCH
Propio
Pantalla táctil AMOLED de 2.8" (240 x 400 pixels)
GSM, GPRS, HSDPA, EDGE
8 MP, Vídeo WVGA 720x480 a 30fps
GPS
Samsung i8910
Symbian S60 5th edition
Pantalla táctil AMOLED de 3.7" (640 x 360 pixels)
GSM, GPRS, HSDPA, EDGE, Wi-Fi 802.11 b/g
8 MP, Vídeo HD 720p 24fps
Teclado QWERTY virtual, GPS, DLNA, Brújula
Competencia
Entre las principales entidades que forman parte de la competencia de Samsung están Motorola, Sony, Hitachi, Nokia, Sharp Corporation, Philips, Mitsubissi, Toshiba, Pioneer Electronics, Sanyo, General Electric y LG Corporation
Samsung también fabrica teléfonos móviles/celulares por eso ha formado más competencia como: Nokia, Motorola, LG Mobile y Sony Ericsson. Samsung domina el 14,4 del mercado siendo la principal competencia de Nokia


TRC

1. introducción
La finalidad del TRC es reproducir fielmente una imagen captada por la cámara del equipo emisor, a partir de la señal de video compuerta que recibimos en el receptor.

Este tubo consiste en un cañón electrónico y una pantalla de fósforo dentro de una ampolla de cristal al cual se le ha realizado él vació.
Entre las características de la pantalla se encuentra el tamaño que se mide desde ambos extremos de una pantalla de televisión y en pulgadas; y el espectro que es la relación entre altura y anchura de la pantalla.
2. tubos de imagen en blanco y negro
Estos tubos solo reproducen la luminancia y se compone básicamente de un cañón electrónico que produce el haz de electrones, unas bobinas de deflexión que controlan el movimiento del haz y una pantalla luminiscente que se ilumina cuando es excitada por dicho haz.
2.1. principio de funcionamiento
El cañón electrónico se encarga de generar un fino haz de electrones que, después de atravesar los diferentes electrodos que lo constituyen, impacta en pantalla.
Dicha emisión se basa en el principio de la (emisión termoiónica) la cual nos dice que por un conductor sometido ha una diferencia de potencial circulan electrones. Ha este conductor se le llama cátodo y es el que produce el haz.
Para controlar esta emisión se le coloca la rejilla de control, que es la que nos controla el brillo y para que los electrones impacten en la pantalla, se utiliza otra rejilla denominada rejilla de pantalla que los atrae al estar a un mayor potencial que el cátodo. Para mantener estable el haz utilizamos una tercera rejilla la de enfoque que obliga a que los electrones sigan una trayectoria, para que al final impacten en el ánodo final (la pantalla).
2.2. las bobinas de deflexión
Para que el haz de electrones no sea un punto en el centro de la pantalla, necesitaremos que los electrones se desplacen hacia el punto correcto. Existen dos formas de conseguir esto:
Deflexión electroestática: este sistema lo utilizan los osciloscopios y se basa en dos placas conductoras con cargas eléctricas opuestas las cuales nos permiten mover los electrones.
Deflexión magnética: en este caso la desviación del haz es producida por un campo magnético generado por dos bobinas. Para la televisión utilizamos dos pares de bobinas (dos para la desviación vertical y otras dos para la horizontal). Dichas bobinas están colocadas al final del cuello del TRC y se denominan (yugo o bobinas de deflexión):
2.3. Corrientes de deflexión
Estas corrientes deben tener forma de diente de sierra, de manera que crece lentamente hasta su máximo valor (explora pantalla) y vuelve ha su valor inicial (retorno del haz).Dichas corrientes son iguales tanto en vertical como en horizontal pero ha diferente frecuencia (vertical 50Hz, horizontal 15625Hz).
2.4. tensiones del tubo
¨ tensión de caldeo 6.3V
¨ cátodo 70V
¨ rejilla de control 30V
¨ rejilla de pantalla 300-400V
¨ rejilla de enfoque variable hasta 500V
¨ ánodo final 15000-20000V
Todas estas tensiones se encuentran en la parte trasera del tubo excepto el MAT (ánodo final) que esta en el ensanchamiento del tubo.
2.5. generación de la imagen.
La imagen se crea al incidir el haz de electrones en el fósforo de la pantalla, dependiendo la luminosidad de la pantalla a la cantidad de electrones que inciden en la misma.
Esta imagen puede ser ajustada por el usuario mediante los controles de brillo y contraste que lo que hacen es:
¨ BRILLO: este control lo que hace es añadirle a la señal de luminancia cierto nivel de tensión continua con lo que desplazamos el conjunto de la imagen hacia el blanco.
¨ CONTRASTE: nos ajusta la amplitud de la señal de entrada proporcionándonos mas o menos diferencia entre tonalidades claras y oscuras.
Hay otros dos controles menos importantes pero que también afectan a la imagen:
¨ AJUSTE DE CENTRADO HORIZONTAL Y VERTICAL: centran la imagen.
¨ AJUSTE DE FOCALIZACIÓN: El cual nos controla el grueso del haz de electrones, permitiéndonos mayor nitidez .
3. tubos de imagen en color
El principio de funcionamiento de estos tubos es prácticamente el mismo que el de los monocromáticos, tan solo aparecen nuevos componentes que nos permiten generar el color en la imagen.
La principal diferencia entre estos tubos, es que el de color necesita tres haces uno para cada color primario y las tensiones de las rejillas:
¨ cátodo 100-150V
¨ rejilla de control 30V
¨ rejilla de pantalla 100-500V
¨ rejilla de enfoque 2000-7000V
¨ ánodo final 25000-30000V
3.1. material luminiscente
La imagen se forma en una capa luminiscente situada en la pantalla constituida por la combinación por tres fósforos (rojo, verde y azul).
La calidad de puntos luminiscentes de cada color nos determina la resolución de la pantalla. Los diferentes colores se obtienen a partir de la mezcla aditiva.
3.2 TIPO DE TUBOS EN COLOR
Para generar cada uno de los colores primarios son necesarios tres haces independientes, uno para cada color. Los tres cañones son iguales solo se diferencian en el tipo de puntos en el que incide el haz del cañón. La clasificación de los tubos normalmente se efectúa en la forma de distribución de los cañones y los principales son:
¨ Cañones en delta. Los cañones están montados en un triangulo equilátero.
¨ Cañones en línea: los cañones están motados en un plano horizontal sobre el cuello del tubo.
¨ El tubo trinitron: Este sistema utiliza un cañón único con tres cátodos en línea.
3.3. la mascara perforada
Esta mascara esta hecha de acero y es muy delgada, se encuentra situada en la parte interior de la pantalla y sirve para canalizar cada uno de los haces y impedir que un fósforo de color sea atacado pro dos haces, detrás de la mascara es donde se encuentran cada uno de los fósforos (capa luminiscente).
3.4. sistema de deflexión
Este sistema funciona exactamente igual que el de blanco y negro, simplemente que en vez de un haz son tres que se desvían simutaniamente, para conseguir esto simplemente se precisa un campo magnético simétrico y uniforme además de unos sistemas de convergencia que nos aseguren una perfecta alineación de estos haces.
3.5. ajustes permitidos por estos tubos
estos son los más importantes:
¨ ajuste de blanco y gris
¨ ajuste de la pureza del color
¨ unidad de convergencia estática
¨ unidad de convergencia dinámica
¨ desmagnetización
¨ enfoque


VIEW SONIC
Proyector de vídeo
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Para otros usos de este término, véase proyector.
Un proyector de vídeo o cañón proyector es un aparato que recibe una señal de vídeo y proyecta la imagen correspondiente en una pantalla de proyección usando un sistema de lentes, permitiendo así visualizar imágenes fijas o en movimiento.
Todos los proyectores de vídeo utilizan una luz muy brillante para proyectar la imagen, y los más modernos pueden corregir curvas, borrones y otras inconsistencias a través de los ajustes manuales. Los proyectores de vídeo son mayoritariamente usados en salas de presentaciones o conferencias, en aulas docentes, aunque también se pueden encontrar aplicaciones para cine en casa. La señal de vídeo de entrada puede provenir de diferentes fuentes, como un sintonizador de televisión (terrestre o vía satélite), un ordenador personal…Otro término parecido a proyector de vídeo es retroproyector el cual, a diferencia del primero, se encuentra implantado internamente en el aparato de televisión y proyecta la imagen hacia el observador


El Optoma EP741

El Optoma EP741 es una videoproyector multimedia que reúne características de extrema calidad con el propósito de responder a las necesidades de salas de reunión y formación de profesionales en el transcurso de sus viajes, o incluso para una posible utilización con el Home Cinema. Mucho más luminoso y ligero, este videoproyector combina todo un cúmulo de características optimizadas en una caja ultra compacta. La luminosidad que desprenden sus 1800 lumens, así como el porcentaje de contraste excepcional de 2000:1 y la resolución SVGA garantizan el impacto de sus prestaciones y la nitidez de las imágenes proyectadas
.

Acer Aspire One A110

Acer Aspire One A110Siguiendo la tendencia de varios fabricantes Acer acaba de sacar a la venta su nuevo modelo de computadora laptop ultraportatil llamada Acer Aspire ONE.La intención de Acer con esta notebook es brindar al usuario la computadora mas rápida, pequeña, ligera, fácil de utilizar y económica posible, estamos de acuerdo en que lo ha logrado; la Aspire One pesa menos de 1 kg y mide tan solo 24 cms x 17 cms tiene un grosos de únicamente 29 milímetros.El modelo ASPIRE ONE A110-1633 8.9 N270 viene con sistema operativo Linux Linpus Lite y segun especificaciones del fabricante el tiempo que tarda en cargar completamente desde el momento en que se enciende la computadora es de tan solo 30 segundos.Esta laptop incluye una pantalla LCD de 8.9” con tecnología CrystalBrite exclusiva de Acer y alcanza una resolución máxima de 1024 x 600 pixeles, incluye al centro de la pantalla en su parte superior una cámara web CrystalEye y un micrófono integrado por lo cual es un dispositivo perfecto para chatear o hacer videoconferencias desde cualquier lugar con acceso a Internet.El procesador que mueve a esta maquina es el modelo Intel Atom especialmente diseñado para este tipo de equipos por su bajo consumo de energía ademas de un rendimiento y velocidad bastante eficiente, la Aspire One incluye una batería recargable con duración para 3 horas de uso continuo.Entre los programas que trae instalados se encuentran: navegador de Internet, programa para mensajería instantánea, lector de correo electrónico, incluye la suite de aplicaciones de oficina Open Office que integra el procesador de palabras Writer, la hoja de calculo Scalc, y la aplicación para presentaciones Impress, claro que también cuenta con juegos, reproductor de música, fotografías y videos.En cuanto a conectividad la Acer Aspire One viene equipada con tarjeta de red inalambrica WiFi 802.11g / b con tecnología Acer Signal Up la cual permite conectarse a Internet fácilmente y con la garantía de tener la mejor potencia y calidad de señal posible, cuenta ademas con un puerto de conexión ethernet con velocidad de 100 megabits.La Aspire One tiene incorporados dos puertos lectores de tarjetas de memorias tipo flash uno de ellos se utiliza exclusivamente para aumentar la capacidad de almacenamiento por medio de tarjetas SD y el otro puerto es para leer tarjetas de los tipos SD, MMC, RS-MMC, MS (Memory Stick), MS Pro, xDEn cuanto a diseño no se queda atras, ya que viene a escoger entre 4 vibrantes y atractivos colores: Cafe Dorado, Rosa Coral, Blanco Perla y Azul Zafiro




Laptop Compaq Presario V3000 1GbRAM 1.84 Ghz 60GbDD WiFi DVD - compaq presario v3000 - Puebla
CaracterísticasProcesador: AMD Sempron 3400+ Tipo de Pantalla: Widescreen 14.1" BrightviewCapacidad: 60Gb disco duro Memoria: 512mb DDR2 667mhz Max 4GBColor: Black Piano Peso: 2.5kg con bateria de 6 celdas 3kg con bateria de 12 celdasUnidad Óptica: Super Multi DVD±R/RW DL Tarjeta de Video: Nvidia Ge Force Go 150 hasta 256mbWireless / Módem: Integrada 802.11b/g WLAN Duración de la Batería: Hasta 3 Horas con bateria de 6 celadas y 6 horas con bateria de 12 celdasCaracterísticas adicionales: Lector 5 en 1, 3 puertos USB 2.0,Firewire,Exprees Card Slot Posibilidad de control remoto: Posibilidad de TV tunner HPLa serie de Notebooks y Laptops Presario es una serie de computadoras portátiles diseñadas por la compañía COMPAQ misma se destaca por ser una de las series con la mayor variedad de productos en la misma. Entre las características de la Aspire V3000 encontrarás:

CaracterísticasProcesador: AMD Movile Semphron a 1.84 GHz. Procesador Grafico Intel 950 Tipo de Pantalla: LCD 15.4" WXGA Cristal Brite de alto brilloCapacidad: 60 GB Memoria RAM: 1Gb MB DDR2Color: Plata Alto x Ancho x Profundidad: 36 cm x 27 cm x 3,5 cmPeso: 2,7 Kg Wireless / Módem: 56KbpsCaracterísticas adicionales: Tarjeta Lectora de Tarjetas de memoria SD/ XD/ PRO. Entrada p/ Pc Card p cmci. Entrada p/ Micrófono y otros


Notebook HP
Notebook HP Pavilion DV6420LA tiene un procesador de doble núcleo AMD Turion 64 X2 TL-56 con tecnología móvil (1.8-GHz, 512KB + 512KB L2 cache)
1024 MB DDR II 667 MHz; expandible a 2048 MB
Disco duro de 160 GB Serial ATA (5400 rpm)
Con la nueva versión de la tecnología QuickPlay, además de reproducir música y películas en DVD puedes reproducir imágenes y videos almacenados en tu disco duro. La tecnología QuickPlay nos permite reproducir contenido multimedia con tan solo oprimir un botónEl nuevo diseño HP Imprint dará mayor resistencia a la superficie de tu portátil y una sensación de tecnología a tu HP Pavilion.
No necesitarás conectar dispositivos externos o cables, la cámara y el micrófonoestán convenientemente integrados en la parte superior del display, en un diseño que no requiere manipulación

viernes, 6 de noviembre de 2009



TOSHIBA
Actualmente la inmensa mayoría de ordenadores que se vendes están basados en una arquitectura de 64bits. Esto, que a muchos les puede parecer una gran novedad, no lo es realmente, ya que sistemas de 64bits hace más de diez años que existen en el mercado, sólo que estaban reservados a servidores y estaciones de trabajo. En realidad sistemas de 64bits existen desde los años 60, pero tan solo en los llamados superordenadores. Desde 1990 son varias las empresas que sacan al mercado tanto procesadores como sistemas para 64bits, aunque siempre destinadas, como ya hemos dicho, al mercado de servidores y estaciones de trabajo. En el año 2003, AMD sacó al mercado los primeros procesadores con soporte para instrucciones de 64bits a niveles de precio aceptables, los Opteron. Posteriormente la implementación AMD64 se extendió a todos los procesadores de AMD. Intel tenía desde hacia tiempo procesadores de 64bits, pero no trabajaban bajo una plataforma X86 o X64, sino sobre plataformas especiales, sobre todo DEC-Alfa, con sistemas y programas desarrollados exclusivamente para ellos. En el año 2004, viendo la aceptación que los sistemas de 64bits de AMD estaban teniendo en el mercado, Intel decide sacar al mercado sus procesadores basados en EM64T, que no es otra cosa que una adaptación del conjunto AMD64. Pero a pesar de existir el hardware, seguía sin haber software de 64bits destinado al público en general, hasta que a finales de abril de 2005 Microsoft pone a la venta Microsoft XP Profesional 64bits. Este es un sistema operativo que tiene una serie de inconvenientes, empezando porque no existe en varios idiomas, sino que se recurre a la versión en inglés, a la que se le añaden unos MUI de idiomas (lo mismo que ocurre con Windows XP Media Center), lo que provoca más de un problema a la hora de actualizar o de instalar algunos programas, sobre todo de la propia Microsoft, por una incompatibilidad de idioma. Esto quiere decir que aunque tengamos nuestro Windows en español, al descargar algunos programas esta descarga se hace en la versión inglesa, ya que la versión española da un error de idioma de instalación. Actualmente existen versiones de 64bits de casi todos los sistemas operativos, ya sean de Microsoft (Windows XP, Windows Server o Windows Vista), Linux o Mac. Vamos a ver en primer lugar en qué consiste eso de los 64bits. En principio significa que el sistema es capaz de de desplazar el doble de información por ciclo de reloj que en un sistema de 32bits. OJO, no que ese desplazamiento sea más rápido, sino que se desplazan más datos. Evidentemente, lo primero puede implicar lo segundo en determinadas circunstancias, pero no siempre. También implica un aumento en las direcciones de memoria, lo que hace que se supere el límite que tienen los sistemas de 32bits, establecido en 4GB. La capacidad de direccionamiento de memoria de un sistema de 64bits es de aproximadamente 16 exabytes. Las operaciones de coma flotante también tienen un aumento significativo, así como el conjunto de instrucciones de diferentes tipos soportados. Las ventajas son muchas y en muchos apartados, no solo en lo referente a la memoria. Pero aquí surge la pregunta del millón: ¿Es realmente la opción de un sistema operativo (sobre todo Windows) de 64bits para el usuario doméstico? Ya en el tutorial Windows 32 bits o Windows 64 bits. vimos las diferencias que había entre las versiones de Windows de 32bits y de 64bits. Vamos a centrarnos ahora en la conveniencia de elección entre una versión u otra, ya que en lo que se refiere al sistema operativo y aplicaciones incluidas es exactamente igual uno que otro. Bueno, pendientes del desarrollo que sufra el software en los próximos años, y ateniéndonos a lo que actualmente hay en el mercado, vamos a tratar de dar respuesta a esa pregunta. En principio, a pesar de las mejoras en el rendimiento que supone un sistema operativo de 64bits, la respuesta es que, salvo que realmente necesitemos una memoria RAM por encima de los 3.5GB (que es lo máximo que deja para el usuario los sistemas de 32bits, salvo excepciones que comentaremos más adelante), la respuesta es que no, ya que los inconvenientes que se puede encontrar son superiores a las ventajas obtenidas. Para un usuario doméstico son muy pocas las ocasiones en las que realmente va a necesitar más de 3.5GB de RAM. Por otra parte, las versiones superiores de Windows Vista, aunque no dejan disponibles para el usuario más de 3.5GB (aproximadamente), sí que aprovecha ese resto de memoria, desplazando hacia esa zona una parte de lo que antes se ejecutaba en la zona disponible para el sistema (ver el tutorial Utilizar 4GB de RAM en Windows Vista 32 bits). Hay que aclarar que no solo existe esta limitación por parte del sistema operativo. Son muchas las placas base que cuando se instala el máximo de RAM soportada (4GB o más) es la propia BIOS de la placa base la que impone una restricción de aproximadamente el 10% de la capacidad total de la memoria. Por otro lado, los inconvenientes que se pueden presentar pueden ser de muchos tipos. Para empezar, si bien es cierto que un sistema operativo de 64bits permite ejecutar sin problemas software de 32bits, también es cierto que en esto hay una serie de limitaciones. Para empezar, los drivers de 32bits no suelen ser compatibles con SO de 64bits. La disponibilidad de drivers en 64bits (sobre todo si se trata de Windows XP 64bits) es menor que la disponibilidad de drivers para 32bits. Pero es que luego nos encontramos con problemas de software. Si bien el software de 32bits corre sin problemas (y OJO, que con algún software concreto si que puede haber problemas), no pasa lo mismo con software de 16bits, que sí que es incompatible con un sistema operativo de 64bits (no así con uno de 32bits). Y aun queda un pero más. Una cosa es que el sistema operativo de 64bits vaya mejor que el de 32bits y otra muy distinta que el resto de nuestros programas también lo haga. Para que un software aproveche realmente las ventajas que puede suponer el tener instalado un sistema operativo de 64bits, ese software también tiene que estar implementado para 64bits. Si no es así nos podemos encontrar con que incluso vaya más lento que con un sistema operativo de 32bits. Hay que tener en cuenta que los sistemas operativos de 64bits ejecutan las aplicaciones de 32bits en modo compatibilidad, lo que siempre supone una cierta ralentización en la ejecución de dicho programa. En cuanto a la memoria, si bien es cierto que vamos a poder utilizar los 4GB de memoria íntegramente, también es ciertos que las direcciones de memoria son mayores, por lo que la misma información nos va a ocupar más espacio, lo que quiere decir que vamos a tener un incremento en la memoria utilizable, pero no un incremento igual en los datos reales que van a caber en ella. Otra cosa seria si hablamos de más de 4GB de RAM. Donde sí que vamos a encontrar una mejora real es en programas de edición multimedia (y ojo, digo edición, no ejecución), pero esta mejora la vamos a notar si instalamos más memoria RAM, no con sólo 4GB (8GB en adelante). Pero también nos puede saltar otra duda: Si nuestro sistema (placa base, procesador...) es de 64bits, ¿no iría mejor con un sistema operativo de 64bits que con uno de 32bits? Bueno, esto ya está explicado más arriba. Solo aclarar que los procesadores de 64bits trabajan perfectamente con sistemas operativos de 32bits, aunque en esto la forma de trabajar no es igual en todos los procesadores. Hablando de procesadores ''domésticos'' (en procesadores para servidores esto cambia algo), mientras que en los procesadores Intel las aplicaciones de 32bits (el sistema operativo, para entendernos) trabajan en modo emulación, en los procesadores AMD trabajan en forma nativa, ya que los procesadores AMD trabajan en forma nativa tanto en 32bits como en 64bits. Hay que señalar que la incompatibilidad con aplicaciones anteriores (de 16bits, por ejemplo) no está definida por el hardware (procesador en este caso), sino por el sistema operativo. Como conclusión, personalmente pienso que un sistema operativo (y más concretamente Windows) de 64bits en la actualidad no es la mejor opción para un usuario doméstico. Quizás cuando salgan más aplicaciones que implementen instrucciones de 64bits pueda ser una opción interesante, pero de momento las versiones de 32bits son más que suficientes, si salvamos lo ya comentado de programas de edición multimedia (imagen), siempre que instalemos más de 4GB de RAM.


DELL
Nuevo chasis OptiPlex

El nuevo chasis OptiPlex se ha diseñado para proporcionar calidad líder en el mercado y facilidad de uso con las nuevas funciones respetuosas con el medio ambiente.

Diseño BTX
El innovador chasis BTX, la fuente de alimentación y las placas base se han diseñado para aportar eficacia térmica y proporcionar una fiabilidad mejorada y un funcionamiento más silencioso.

Sistema HyperCoolTM
La tecnología de gestión térmica HyperCool de Dell utiliza ventiladores de velocidad variable que proporcionan refrigeración con menos potencia y un funcionamiento más silencioso.

Uso al alcance de la mano
Los puertos USB 2.0 que se encuentran ubicados convenientemente en la parte frontal del sistema con fácil acceso y espacio para la instalación de dispositivos USB unos junto a otros.

Una solución para todos los espacios
Soluciones multifunción innovadoras disponibles tanto en el modelo GX620 (tamaño pequeño y tamaño ultrapequeño) como en el modelo GX520 (tamaño pequeño), perfecto para entornos con poco espacio, incluidos centros de llamada, puntos de venta, sanidad y educación.
____________________________________________________________________________
Tecnología punta

Los modelos GX620 y GX520 se han diseñado para ofrecer nuevos niveles de rendimiento mediante tecnología de próxima generación.

Procesadores Intel® Pentium® 4 con tecnología HT
Como cerebro de su sistema, es importante disponer de una tecnología de procesador líder que controle todas sus aplicaciones. Todos los procesadores Intel Pentium 4 admiten la tecnología Hyper-Threading ya que pueden ofrecer un mejor rendimiento y una gestión de tareas más eficaz al ejecutar varias aplicaciones.

Novedades de los modelos GX620 y GX520
Los nuevos procesadores Intel® EM64T ofrecen flexibilidad para la ejecución de 32 y 64-bits en equipos de sobremesa y permiten el uso futuro de aplicaciones de 64 bits y sistemas operativos.

Los nuevos procesadores de secuencia 600 Intel® Pentium® 4 con tecnología HT con 2 MB de caché de nivel 2 se han diseñado para aumentar el rendimiento y la productividad de las aplicaciones de oficina de gama alta. Los nuevos procesadores de secuencia 600 Intel® Pentium® 4 con tecnología HT también ofrecen la tecnología mejorada Intel SpeedStep® (EIST). EIST permite al sistema ajustar dinámicamente el voltaje del procesador y la frecuencia principal, lo que puede dar como resultado un consumo de energía medio inferior y una producción de calor media también inferior.

Incremento del rendimiento de hasta un 90% de las tarjetas gráficas Intel® GMA 950 en comparación con las tarjetas gráficas Intel® GMA 900
El motor de gráficos de cuarta generación de Intel proporciona una experiencia visual excelente y un rendimiento mayor para el sector estándar (DX9, OpenGL1.4), proporcionando un incremento del rendimiento de las tarjetas gráficas de hasta un 90% en comparación con las tarjetas gráficas integradas Intel® GMA 9001

Expansión PCI-Express
PCI-Express ofrece un ancho de banda notablemente superior al de las arquitecturas heredadas, lo que permite una interfaz punto a punto rápida, más compacta y más fácil de escalar. Los modelos GX620 y GX520 siguen ofreciendo el bus serie PCIex1 que proporciona hasta 500 MB/seg. en oposición a 133 MB/seg. compartidos (PCI) para obtener un rendimiento y una productividad mejorados. GX620 también ofrece la expansión PCIe x16, diseñada para mejorar el rendimiento medio de las tarjetas de gráficos en plataformas de sobremesa para obtener un rendimiento mejorado de 2D y 3D.

ATA II serie listo
SATA II, (ATA II serie), es la próxima generación de tecnología SATA. El nuevo conjunto de chips Intel® 945G permite la asistencia de futuros discos duros SATA II. Los discos duros SATA II proporcionarán hasta el doble de ancho de banda que los discos duros SATA I con una velocidad de transferencia de 3 Gbps. Además, los discos duros SATA II disponibles en los modelos GX620 y GX520 permiten la protección con contraseña en disco duro para una capa adicional de seguridad de datos. (unidad SATA II disponible pronto)

TPM 1.2
El TPM, o módulo de plataforma va incluido de serie en el modelo GX620. El TPM es un chip micro-controlador seguro en la placa base que permite la autenticación del sistema y se unirá a Microsoft® Longhorn Next Generation Secure Computing Base.

Conservación responsable del medioambiente
Tranquilidad medioambiental

Dell diseña y crea sus productos para evitar la contaminación y proteger los recursos naturales a lo largo de la vida del sistema , obteniendo una respuesta medioambiental junto con una gestión empresarial sólida. Con esto en mente, la nueva serie OptiPlex de plataformas ponen en práctica una serie de iniciativas que ayudan a reducir los residuos, conservar la energía y reducir los materiales contaminantes.

Diseño del producto con plan de ahorro de energía
El nuevo diseño BTX estándar y las fuentes de alimentación proporcionan una refrigeración mejorada
Compatible con ENERGY STAR®
Compatible con la Orden ejecutiva de EE.UU. 13221 (consumo de energía de 1 vatio)

Reducción de materiales peligrosos
Los nuevos ordenadores de sobremesa OptiPlex cumplen la normativa RoHS de la Unión Europea y ofrecen configuraciones de placa base y2 chasis sin plomo.
Sin ignifugantes a base de halógenos en las piezas de plástico, uso de PBB y PBDE prohibido.

Reducción de residuos
Optimización del embalaje: reduce la cantidad de material utilizado, a la vez que mantiene el nivel deseado de protección.
Entrega-eco: minimiza los residuos de embalaje en el domicilio y facilita compras de gran volumen mediante la reducción del espacio de almacenamiento necesario para recibir y distribuir los sistemas.
Reducción de información impresa: reduce la cantidad de información impresa enviada junto con el sistema. Esta iniciativa, desde su implementación, ha reducido la cantidad de material enviado en más de 1.576 toneladas.

Recuperación de activos
Permite la eliminación segura de la tecnología que no funcione o quede obsoleta.
Existen programas de donación de ayuda a niños y adultos necesitados.

Opciones insuperables para nuestro clientes
Modelos GX620 y GX520: misma serie, misma imagen

La serie OptiPlex GX520/GX620 presenta una flexibilidad de implementación en plataformas Dell sin precedentes que ofrece una única imagen que abarca siete selecciones de plataforma/chasis.

El modelo GX520 proporciona novedades integradas en ordenadores de sobremesa a los clientes que requieren soluciones empresariales estándar, mientras el modelo GX620 ofrece todas las ventajas de GX520 más una flexibilidad, seguridad y protección de la inversión superiores, además de los nuevos procesadores Pentium D Dual Core de Intel.

Líder en estabilidad
Dell proporciona herramientas y servicios de administración de imágenes líderes en el sector para facilitar la implementación y la administración de su producto Dell OptiPlex. Los modelos OptiPlex GX620 y GX520 seguirán siendo compatibles con el Programa de plataforma de imagen estable de Intel (Stable Image Platform Program, SIPP).


El servicio Integración de fábrica personalizada de Dell ofrece a nivel de usuario servicios tales como creación de imágenes, implementación, migración de datos y catalogación de imágenes. Para obtener información adicional sobre los servicios Integración de fábrica personalizada de Dell, póngase en contacto con un representante de