jueves, 22 de marzo de 2012

¿Sacaran la Xbox 720?



La verdad es que los usuarios de Xbox 360 no podemos quejarnos. La librería de juegos es excepcional, Xbox Live es el mejor servicio de juego en línea, los juegos no requieren demasiado tiempo de instalación y ningún desarrollador se queja de lo difícil que es programar para la consola. El problema, claro, es cuando hay problemas y en este caso los hubo.


El lanzamiento de la segunda consola de Microsoft fue muy accidentado. Pocas unidades, el famoso Anillo Rojo de la Muerte (que perdura hasta el día de hoy, en algunos casos) y un sistema de juegos capaz de freír un huevo con su calor. Sin contar, claro, un formato que murió antes de nacer (el HD-DVD)


Los analistas adjudican los problemas del sistema al apuro de Microsoft en ganarle a la competencia (Sony y Nintendo). Que era un producto poco probado e inacabado (hmmm… estamos viendo un patrón aquí). Pero desde MS, o no aprendieron de los errores o se encuentran en posibilidades de afirmar que sí, que efectivamente aprendieron, y que esta vez lo harán mejor. Porque Robbie Bach, gerente de la División de Entretenimientos y Dispositivos de Microsoft, afirmó que MS será la primera empresa en lanzar una consola de próxima generación, defendiendo la posición de la multinacional en el fiasco de las consolas defectuosas.




“Si nos preguntan si fue correcto tratar de ser los primeros con Xbox 360, la respuesta es definitivamente sí. Nos dio ventaja en un número de cosas que son super (sic) importantes”. Robbie explica que, aunque muchísimas consolas murieron, el servicio técnico fue rápido y la gente que sufrió roturas, según sus encuestas, la sigue recomendando y amando.


“Entonces, a un nivel estratégico, si preguntan si queremos ser los primeros otra vez, yo diría que sí.” La pregunta, en realidad, es cómo y cuándo. “Comenzamos a pensar en la próxima generación cuando lanzamos la Xbox 360. No comenzó con una fecha. Se inició de forma ascendente con el desarrollo de silicio. De allí vienen una serie de puntos de datos. Comienzas a hacer elecciones de tecnología. Es una cosa que evoluciona. Cosas que no se vuelven concretas hasta que tienes una fecha estimada de lanzamiento, más de 18 meses o más.”


Y no es por contradecir al bueno de Robbie. Nosotros estamos muy contentos con nuestras consolas, aunque tuvimos que ponerle un cooler extra. Pero dos veces no vamos a caer en el mismo error y MS tendrá que demostrar, antes de tener nuestros euros, que el nuevo sistema no tiene los fallos del anterior.


Jose Mª Rueda Priego

¿Es el fin de la piratería?


Parece mentira que por una vez que el mundo ha conseguido unirse en algo alguien quiera impedirlo y separarlo de nuevo, y todo por no comprender que la ley de propiedad intelectual debe adaptarse a los nuevos tiempos que corren de la mano de Internet. Es como si no se hubiesen vivido ya suficientes circunstancias en las que cada país se dividía sin querer saber nada los unos de los otros, pero ahora se vive no sólo la oportunidad, sino las ganas de compartir creaciones con el resto de usuarios de todo el mundo.


Desde hace más de dos décadas, con el increíble invento de Internet en nuestras vidas, con todo lo que ha conseguido transformando los diversos continentes en uno sólo, y dejando de tener sentido el significado de “frontera”, cada usuario desde cualquier parte del mundo podía ver y descargar todos los contenidos subidos en la red sin límites de ningún tipo. Parecía que nada ni nadie podría impedir la difusión de la cultura a través de esta red de redes absolutamente incontrolable y que crece de forma ilimitada, con la participación interactiva de miles de millones de usuarios residentes en cualquier lugar de la Tierra.


Sin embargo, el FBI ha querido frenar la actividad de descargas por parte de los internautas ni más ni menos que atajando el problema de raíz: ha cerrado uno de los almacenes más grandes de contenido audiovisual existentes, alegando no sólo que esta web violaba el principio de propiedad intelectual, sino también acusando a sus creadores de participar en una conspiración de crimen organizado y blanqueo de dinero. Los debates sobre el tema están servidos durante estos días, temiéndose que también se proceda al cierre de otros tantos servidores, tales como Mediafire o Rapidshare, que sirven de almacén e intercambio de productos entre los usuarios que deciden compartirlos con el resto de internautas. Pero, con el cierre de Megaupload, y existiendo tantas otras alternativas, ¿conseguirá el FBI su objetivo de frenar la piratería en la red?


Jose Mª Rueda Priego

Sony Ericsson Xperia Neo V

El Sony Ericsson Xperia neo V es un smartphone que mantiene las formas del Xperia neo original, salvo que corre la versión 2.3.4 de Android Gingerbread. En cuanto a diseño es el mismo celular, pero tiene diferentes características, como una cámara de sólo 5 megapixels con soporte para captura de videos a 720p. Gracias a Android 2.3.4, posee Google Talk con video chat y Facebook inside Xperia, ingreso swipe y soporte para capturas de pantalla.






LAS CARACTERÍSTICAS DE ESTE MÓVIL SON:


GENERAL Red GSM 850 / 900 / 1800 / 1900 - HSDPA 900 / 2100 ó HSDPA 850 / 1900 / 2100
Anunciado 2011, Agosto
Status Pronto
TAMAÑO Dimensiones 116 x 57 x 13 mm
Peso 126 g
DISPLAY Tipo LCD con luz LED de fondo, touchscreen capacitivo, 16M colores
Tamaño 480 x 854 pixels, 3.7 pulgadas
Superficie resistente a rayones
- Sensor acelerómetro para auto rotación
- Ingreso multi-touch
- Motor Sony Mobile BRAVIA
- Sensor de proximidad para auto apagado
- Interfaz de usuario Timescape
RINGTONES Tipo Polifónico, MP3, WAV
Customización Descargas
Vibración Si
- Conector de audio 3.5 mm
MEMORIA Agenda telefónica Entradas y campos prácticamente ilimitados, Foto de llamada
Registro de llamadas Prácticamente ilimitado
Slot de tarjeta microSD hasta 32GB, 2GB incluidos
- 320MB memoria interna, 512MB RAM
- Procesador Qualcomm MSM8255 Snapdragon 1 GHz, GPU Adreno 205
CARACTERÍSTICAS GPRS Si
Velocidad de datos
OS Android OS, v2.3 Gingerbread
Mensajería SMS, MMS, Email, IM, Push Email
Navegador HTML
Reloj Si
Alarma Si
Puerto infrarrojo No
Juegos Si + descargables
Colores Blanco, Azul Gradiente, Plateado
Cámara 5 MP, 2592x1944 pixels, autofocus, flash LED, geo-tagging, foco fijo, reconocimiento de rostro y sonrisa, fotos panorámicas 3D, video 720p@30fps, foco contínuo, luz de video, cámara frontal VGA
- GPS con soporte A-GPS
- EDGE
- 3G HSDPA 7.2Mbps / HSUPA 5.76Mbps
- Wi-Fi 802.11 b/g/n, DLNA
- Bluetooth v2.1 A2DP
- microUSB 2.0
- Integración con redes sociales
- Puerto HDMI
- Reproductor de video MP4/H.264/WMV
- Reproductor de audio MP3/WMA/WAV/eAAC+
- Radio FM Stereo con RDS
- Reconocimiento de música TrackID
- Organizador
- Visor de documentos
- Soporte Adobe Flash 10.1
- Manoslibres incorporado
- Memo/comandos/discado de voz
- Ingreso predictivo de texto
BATERÍA Standard, Li-Po 1500 mAh
Stand-by Hasta 430 h (2G) / Hasta 400 h (3G)
Tiempo de conversación Hasta 6 h 55 min (2G) / Hasta 7 h (3G)



Jose Mª Rueda Priego

COMO CREAR UN SOFTWARE

Se define como proceso al conjunto ordenado de pasos a seguir para llegar a la solución de un problema u obtención de un producto, en este caso particular, para lograr un producto software que resuelva un problema específico.
El proceso de creación de software puede llegar a ser muy complejo, dependiendo de su porte, características y criticidad del mismo. Por ejemplo la creación de un sistema operativo es una tarea que requiere proyecto, gestión, numerosos recursos y todo un equipo disciplinado de trabajo. En el otro extremo, si se trata de un sencillo programa (por ejemplo, la resolución de una ecuación de segundo orden), éste puede ser realizado por un solo programador (incluso aficionado) fácilmente. Es así que normalmente se dividen en tres categorías según su tamaño (líneas de código) o costo: de «pequeño», «mediano» y «gran porte». Existen varias metodologías para estimarlo, una de las más populares es el sistema COCOMO que provee métodos y un software (programa) que calcula y provee una aproximación de todos los costos de producción en un «proyecto software» (relación horas/hombre, costo monetario, cantidad de líneas fuente de acuerdo a lenguaje usado, etc.).
Considerando los de gran porte, es necesario realizar complejas tareas, tanto técnicas como de gerencia, una fuerte gestión y análisis diversos (entre otras cosas), la complejidad de ello ha llevado a que desarrolle una ingeniería específica para tratar su estudio y realización: es conocida como Ingeniería de Software.
En tanto que en los de mediano porte, pequeños equipos de trabajo (incluso un avezado analista-programador solitario) pueden realizar la tarea. Aunque, siempre en casos de mediano y gran porte (y a veces también en algunos de pequeño porte, según su complejidad), se deben seguir ciertas etapas que son necesarias para la construcción del software. Tales etapas, si bien deben existir, son flexibles en su forma de aplicación, de acuerdo a la metodología o proceso de desarrollo escogido y utilizado por el equipo de desarrollo o por el analista-programador solitario (si fuere el caso).
Los «procesos de desarrollo de software» poseen reglas preestablecidas, y deben ser aplicados en la creación del software de mediano y gran porte, ya que en caso contrario lo más seguro es que el proyecto o no logre concluir o termine sin cumplir los objetivos previstos, y con variedad de fallos inaceptables (fracasan, en pocas palabras). Entre tales «procesos» los hay ágiles o livianos (ejemplo XP), pesados y lentos (ejemplo RUP), y variantes intermedias. Normalmente se aplican de acuerdo al tipo y porte del software a desarrollar, a criterio del líder (si lo hay) del equipo de desarrollo. Algunos de esos procesos son Programación Extrema (en inglés eXtreme Programming o XP), Proceso Unificado de Rational (en inglés Rational Unified Process o RUP), Feature Driven Development (FDD), etc.
Cualquiera sea el «proceso» utilizado y aplicado al desarrollo del software (RUP, FDD, XP, etc), y casi independientemente de él, siempre se debe aplicar un «modelo de ciclo de vida».
Se estima que, del total de proyectos software grandes emprendidos, un 28% fracasan, un 46% caen en severas modificaciones que lo retrasan y un 26% son totalmente exitosos. 
Cuando un proyecto fracasa, rara vez es debido a fallas técnicas, la principal causa de fallos y fracasos es la falta de aplicación de una buena metodología o proceso de desarrollo. Entre otras, una fuerte tendencia, desde hace pocas décadas, es mejorar las metodologías o procesos de desarrollo, o crear nuevas y concientizar a los profesionales de la informática a su utilización adecuada. Normalmente los especialistas en el estudio y desarrollo de estas áreas (metodologías) y afines (tales como modelos y hasta la gestión misma de los proyectos) son los ingenieros en software, es su orientación. Los especialistas en cualquier otra área de desarrollo informático (analista, programador, Lic. en informática, ingeniero en informática, ingeniero de sistemas, etc.) normalmente aplican sus conocimientos especializados pero utilizando modelos, paradigmas y procesos ya elaborados.
Es común para el desarrollo de software de mediano porte que los equipos humanos involucrados apliquen «metodologías propias», normalmente un híbrido de los procesos anteriores y a veces con criterios propios.
El proceso de desarrollo puede involucrar numerosas y variadas tareas , desde lo administrativo, pasando por lo técnico y hasta la gestión y el gerenciamiento. Pero, casi rigurosamente, siempre se cumplen ciertas etapas mínimas; las que se pueden resumir como sigue:
- Captura, elicitación , especificación y análisis de requisitos (ERS)
- Diseño
- Codificación
- Pruebas (unitarias y de integración)
- Instalación y paso a producción
- Mantenimiento
En las anteriores etapas pueden variar ligeramente sus nombres, o ser más globales, o contrariamente, ser más refinadas; por ejemplo indicar como una única fase (a los fines documentales e interpretativos) de «análisis y diseño»; o indicar como «implementación» lo que está dicho como «codificación»; pero en rigor, todas existen e incluyen, básicamente, las mismas tareas específicas.


Jose Mª Rueda Priego

EL HARDWARE

El hardware corresponde a todas las partes tangibles de un sistema informático; sus componentes son: eléctricos, electrónicos, electromecánicos y mecánicos. Son cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del idioma inglés (literalmente traducido: partes duras), su traducción al español no tiene un significado acorde, por tal motivo se la ha adoptado tal cual es y suena; la Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora».2 El término, aunque es lo más común, no solamente se aplica a una computadora tal como se la conoce, también, por ejemplo, un robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia.
La historia del hardware del computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de importancia. Este hardware se puede clasificar en: básico, el estrictamente necesario para el funcionamiento normal del equipo; y complementario, el que realiza funciones específicas.
Un sistema informático se compone de una unidad central de procesamiento (UCP/CPU), encargada de procesar los datos, uno o varios periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de salida, los que posibilitan dar salida (normalmente en forma visual o auditiva) a los datos procesados. 


Jose Mª Rueda Priego

miércoles, 21 de marzo de 2012

Consolas.


Las videoconsolas, o simplemente consolas, son un sistema electrónico de entretenimiento para el hogar que ejecuta juegos electrónicos llamados videojuegos. Los primeros sistemas se diseñaron únicamente para jugar a videojuegos pro a partir de la sexta generación de videoconsolas han sido incorporadas características multimedia, internet, tiendas virtuales o servicios de descargas. Las consolas han evolucionado mucho a lo largo del tiempo, las compañías fabricantes lanza una nueva consola cada cinco o seis años.

Las primeras consolas que salieron al mercado eran modelos con procesador de 8 bits. A partir de la tercera generación algunos fabricantes ya presentabn equipos de 16 bits. Actualmente nos encontramos en consolas de séptima generación que funcionan con un procesador digital GPU, encargado del control de graficos en la consola. Las tres mas destacadas son: Xbox 360 de Microsoft, PlayStation 3 de Sony, y Wii de Nintendo.


Enlace de la foto: http://playconsola.com/wp-content/uploads/2009/12/consolas-linea-tiempo.jpg

Telefonía móvil..

Las tecnologías inalámbricas están teniendo mucho auge y desarrollo en estos últimos años, una de las que ha tenido un gran desarrollo ha sido la telefonía celular, desde sus inicios a finales de los 70s ha revolucionado enormemente las actividades que realizamos diariamente. Los teléfonos celulares se han convertido en una herramienta primordial para la gente común y de negocios, las hace sentir más segura y las hace más productivas.
A pesar que la telefonía celular fue concebida para la voz únicamente, debido a las limitaciones tecnológicas de esa época, la tecnología celular de hoy en día es capaz de brindar otro tipo de servicios tales como datos, audio y video con algunas limitaciones, pero la telefonía inalámbrica del mañana hará posible aplicaciones que requieran un mayor consumo de ancho banda.



BREVE HISTORIA DE LA TELEFONÍA CELULAR
Martin Cooper fue el pionero en esta tecnología, a él se le considera como "el padre de la telefonía celular" al introducir el primer radioteléfono en 1973 en los Estados Unidos mientras trabajaba para Motorola; pero no fue hasta 1979 en que aparece el primer sistema comercial en Tokio Japón por la compañía NTT (Nippon Telegraph & Telephone Corp.)

En 1981 en los países Nórdicos se introduce un sistema celular similar a AMPS (Advanced Mobile Phone System). Por otro lado, en los Estados Unidos gracias a que la entidad reguladora de ese país adopta reglas para la creación de un servicio comercial de telefonía celular, en octubre de 1983 se pone en operación el primer sistema comercial en la ciudad de Chicago. A partir de entonces en varios países se diseminó la telefonía celular como una alternativa a la telefonía convencional alámbrica. La tecnología inalámbrica tuvo gran aceptación, por lo que a los pocos años de implantarse se empezó a saturar el servicio, por lo que hubo la imperiosa necesidad de desarrollar e implementar otras formas de acceso múltiple al canal y transformar los sistemas analógicos a digitales para darle cabida a más usuarios. Para separar una etapa de la otra, a la telefonía celular se ha categorizado por generaciones. A continuación se describen cada una de ellas.



LAS GENERACIONES DE LA TELEFONíA INALÁMBRICA

    La primer generación 1G
    La 1G de la telefonía móvil hizo su aparición en 1979, se caracterizó por ser analógica y estrictamente para voz. La calidad de los enlaces de voz era muy baja, baja velocidad [2400 bauds], la transferencia entre celdas era muy imprecisa, tenían baja capacidad [basadas en FDMA, Frequency Divison Multiple Access] y la seguridad no existía. La tecnología predominante de esta generación es AMPS (Advanced Mobile Phone System).
    La segunda generación 2G
    La 2G arribó hasta 1990 y a diferencia de la primera se caracterizó por ser digital. El sistema 2G utiliza protocolos de codificación más sofisticados y son los sistemas de telefonía celular usados en la actualidad. Las tecnologías predominantes son: GSM (Global System for Mobile Communications); IS-136 (conocido también como TIA/EIA-136 o ANSI-136) y CDMA (Code Division Multiple Access) y PDC (Personal Digital Communications), éste último utilizado en Japón.
    Los protocolos empleados en los sistemas 2G soportan velocidades de información mas altas para voz pero limitados en comunicaciones de datos. Se pueden ofrecer servicios auxiliares tales como datos, fax y SMS [Short Message Service]. La mayoría de los protocolos de 2G ofrecen diferentes niveles de encriptación. En los Estados Unidos y otros países se le conoce a 2G como PCS (Personal Communications Services).
    La generación 2.5G
    Muchos de los proveedores de servicios de telecomunicaciones (carriers) se moverán a las redes 2.5G antes de entrar masivamente a 3G. La tecnología 2.5G es más rápida y más económica para actualizar a 3G.
    La generación 2.5G ofrece características extendidas para ofrecer capacidades adicionales que los sistemas 2G tales como GPRS (General Packet Radio System), HSCSD (High Speed Circuit Switched Data), EDGE (Enhanced Data Rates for Global Evolution), IS-136B, IS-95B, entre otros. Los carriers europeos y de Estados Unidos se moverán a 2.5G en el 2001. Mientras que Japón ira directo de 2G a 3G también en el 2001.
    La tercer generación 3G
    La 3G es tipificada por la convergencia de la voz y datos con acceso inalámbrico a Internet, aplicaciones multimedia y altas transmisiones de datos. Los protocolos empleados en los sistemas 3G soportan más altas velocidades de información enfocados para aplicaciones mas allá de la voz tales como audio (MP3), video en movimiento, video conferencia y acceso rápido a Internet, sólo por nombrar algunos. Se espera que las redes 3G empiecen a operar en el 2001 en Japón por NTT DoCoMo, en Europa y parte de Asia en el 2002, posteriormente en Estados Unidos y otros países.
    Los sistemas 3G alcanzaran velocidades de hasta 384 Kbps permitiendo una movilidad total a usuarios viajando a 120 kilómetros por hora en ambientes exteriores y alcanzará una velocidad máxima de 2 Mbps permitiendo una movilidad limitada a usuarios caminando a menos de 10 kilómetros por hora en ambientes estacionarios de corto alcance o en interiores. Entre las tecnologías contendientes de la tercera generación se encuentran UMTS (Universal Mobile Telephone Service), cdma2000, IMT-2000, ARIB[3GPP], UWC-136, entre otras.
    El impulso de los estándares de la 3G está siendo apoyando por la ITU (International Telecomunications Union) y a este esfuerzo se le conoce como IMT-2000 (International Mobile Telephone).
    La cuarta generación 4G
    La cuarta generación es un proyecto a largo plazo que será 50 veces más rápida en velocidad que la tercer generación. Se planean hacer pruebas de esta tecnología hasta el 2005 y se espera que se empiecen a comercializar la mayoría de los servicios hasta el 2010.

    EL FUTURO DE LA TELEFONÍA MÓVIL Lo que sigue en este momento es esperar a que los carriers ofrezcan los servicios de 3G. Por ejemplo, en Japón ya están operando con las tecnologías de 3G. El servicio con más éxito es i-mode de NTT DoCoMo que utiliza una red basada en paquetes conocida como PDC-P, aunque es una tecnología propietaria tiene actualmente más de 17 millones de subscriptores. NTT DoCoMo también piensa incursionar con W-CDMA y sus contendientes en ese país para servicios 3G son DDI y J-Phone. En Estados Unidos, compañías como Qualcomm y Sprint PCS ya empezaron a realizar pruebas del servicio 3G.
    La batalla por las licencias de 3G de UMTS es otro asunto de gran importancia y varias son las compañías las involucradas en obtener las valiosas licencias de telefonía móvil de tercera generación, tales como: Telecom Italia (Italia); Vodafone, Orange y BT Cellnet (Inglaterra); T-Mobil (Alemania), France Telecom (Francia); KPN Telecom (Holanda), NTTDoCoMo (Japón), etc. Las compañías que dominan mercados pequeños deberán aliarse con los grupos grandes.

    A parte de las cantidades enormes de dinero que cuestan las licencias, hay que tomar en cuenta que las redes telefónicas de estos carriers son redes grandes y complejas, por lo que les tomará tiempo y grandes inversiones de capital para implementar la tecnología. Pero muchas de las ventajas de esas redes son que varias de ellas ya están ofreciendo servicios de datos, y prevalecerán aquellas empresas de telecomunicaciones que tengan la mayor experiencia en tecnologías inalámbricas y tomen ventaja de ello para las nuevas redes del futuro.

    En relación en predicciones en cuanto a usuarios móviles, The Yankee Group anticipa que en el 2004 habrá más de 1150 Millones de usuarios móviles en el mundo, comparados con los 700 millones que hubo en el 2000. Por otra parte Ericsson predice que habrá 1000 millones de usuarios en el 2002. Dichas cifras nos anticipan un gran numero de capital involucrado en la telefonía inalámbrica, lo que con más razón las compañías fabricantes de tecnología, así como los proveedores de servicios de telecomunicaciones estarán dispuestos a invertir su capital en esta nueva aventura llamada 3G.

    Independientemente de cual tecnología en telefonía inalámbrica predomine, lo único que le interesa al usuario final es la calidad de voz, que no se bloqueen las llamadas y que en realidad se ofrezcan las velocidades prometidas. El tiempo y las fuerzas del mercado nos darán la razón

EVOLUCIÓN DE LOS MÓVILES

LOS INICIOS

Los primeros sistemas de telefonía móvil civil empiezan a desarrollarse a partir de finales de los años 40 en los Estados Unidos. Eran sistemas de radio analógicos que utilizaban en el primer momento modulación en amplitud y posteriormente modulación en frecuencia. Se popularizó el uso de sistemas FM gracias a su superior calidad de audio y resistencia a las interferencias.
Los primeros equipos eran enormes y pesados, por lo que estaban destinados casi exclusivamente a su uso a bordo de vehículos. Generalmente se instalaba el equipo de radio en el maletero y se pasaba un cable con el teléfono hasta el salpicadero del coche.
Una de las compañías pioneras que se dedicaron a la explotación de este servicio fue la americana Bell. Su servicio móvil fue llamado System Service.
No era un servicio popular porque era extremadamente caro, pero estuvo operando (con actualizaciones tecnológicas, por supuesto) desde 1946 hasta 1985.

PRIMERA GENERACIÓN (1G)
En 1981 el fabricante Ericsson lanza el sistema NMT 450 (Nordic Mobile Telephony 450 MHz). Este sistema seguía utilizando canales de radio analógicos (frecuencias en torno a 450 MHz) con modulación en frecuencia. Era el primer sistema del mundo de telefonía móvil tal como se entiende hoy en día.
Los equipos 1G pueden parecer algo aparatosos para los estándares actuales pero fueron un gran avance para su época, ya que podían ser trasladados y utilizados por una única persona.
En 1986, Ericsson modernizó el sistema, llevándolo hasta el nivel NMT 900. Esta nueva versión funcionaba prácticamente igual que la anterior pero a frecuencias superiores (del orden de 900 MHz). Esto posibilitó dar servicio a un mayor número de usuarios y avanzar en la portabilidad de los terminales.
Además del sistema NMT, en los 80 se desarrollaron otros sistemas de telefonía móvil tales como: AMPS (Advanced Mobile Phone System) en EE. UU. y TACS (Total Access Comunication System).
El sistema TACS se utilizó en España con el nombre comercial de MoviLine. Estuvo en servicio hasta su extinción en 2003.

SEGUNDA GENERACIÓN (2G)
En la década de 1990 nace la segunda generación, que utiliza sistemas como GSM, IS-136, iDEN e IS-95. Las frecuencias utilizadas en Europa fueron de 900 y 1800 MHz.
El desarrollo de esta generación tiene como piedra angular la digitalización de las comunicaciones. Las comunicaciones digitales ofrecen una mejor calidad de voz que las analógicas, además se aumenta el nivel de seguridad y se simplifica la fabricación del Terminal (con la reducción de costos que ello conlleva). En esta época nacen varios estándares de comunicaciones móviles: D-AMPS (EE. UU.), PDC (Japón), cdmaOne (EE. UU. y Asia) y GSM.
Muchas operadoras telefónicas móviles implementaron Acceso múltiple por división de tiempo (TDMA) y Acceso múltiple por división de código (CDMA) sobre las redes Amps existentes convirtiéndolas así en redes D-AMPS. Esto trajo como ventaja para estas empresas poder lograr una migración de señal analógica a señal digital sin tener que cambiar elementos como antenas, torres, cableado, etc. Inclusive, esta información digital se transmitía sobre los mismos canales (y por ende, frecuencias de radio) ya existentes y en uso por la red analógica. La gran diferencia es que con la tecnología digital se hizo posible hacer Multiplexion, tal que en un canal antes destinado a transmitir una sola conversación a la vez se hizo posible transmitir varias conversaciones de manera simultánea, incrementando así la capacidad operativa y el número de usuarios que podían hacer uso de la red en una misma celda en un momento dado.
El estándar que ha universalizado la telefonía móvil ha sido el archiconocido GSM: Global System for Mobile communications o Groupe Spécial Mobile. Se trata de un estándar europeo nacido de los siguientes principios:
  • Buena calidad de voz (gracias al procesado digital).
  • Itinerancia.
  • Deseo de implantación internacional.
  • Terminales realmente portátiles (de reducido peso y tamaño) a un precio asequible.
  • Compatibilidad con la RDSI (Red Digital de Servicios Integrados).
  • Instauración de un mercado competitivo con multitud de operadores y fabricantes.
Realmente, GSM ha cumplido con todos sus objetivos pero al cabo de un tiempo empezó a acercarse a la obsolescencia porque sólo ofrecía un servicio de voz o datos a baja velocidad (9.6 Kbps) y el mercado empezaba a requerir servicios multimedia que hacían necesario un aumento de la capacidad de transferencia de datos del sistema. Es en este momento cuando se empieza a gestar la idea de 3G, pero como la tecnología CDMA no estaba lo suficientemente madura en aquel momento se optó por dar un paso intermedio: 2.5G.

TERCERA GENERACIÓN (3G)
3G nace de la necesidad de aumentar la capacidad de transmisión de datos para poder ofrecer servicios como la conexión a Internet desde el móvil, la videoconferencia, la televisión y la descarga de archivos. En este momento el desarrollo tecnológico ya posibilita un sistema totalmente nuevo: UMTS (Universal Mobile Telecommunications System).
UMTS utiliza la tecnología CDMA, lo cual le hace alcanzar velocidades realmente elevadas (de 144 Kbps hasta 7.2 Mbps, según las condiciones del terreno).
UMTS ha sido un éxito total en el campo tecnológico pero no ha triunfado excesivamente en el aspecto comercial. Se esperaba que fuera un bombazo de ventas como GSM pero realmente no ha resultado ser así ya que, según parece, la mayoría de usuarios tiene bastante con la transmisión de voz y la transferencia de datos por GPRS y EDGE

CUARTA GENERACIÓN (4G)
La generación 4, o 4G será la evolución tecnológica que ofrecerá al usuario de telefonía móvil un mayor ancho de banda que permitirá, entre muchas otras cosas, la recepción de televisión en Alta Definición.Como ejemplo, podemos citar al concept mobile Nokia Morph
Hoy en día existe un sistema de este nivel ,llamado iphone 4g de la compañia apple

File:2007Computex e21Forum-MartinCooper.jpg
 

EVOLUCIÓN DE LAS VIDEOCONSOLAS



histvid_odysseyAño: 1972 histvid_odyssey_s
Nombre: Odyssey
Compañía: Magnavox
Comentario: La primera consola de la historia, creada por Ralph Baer. Únicamente dibujaba un punto móvil y barras verticales en la pantalla, por lo que era necesario jugar con plantillas en el televisor.



histvid_atari2600Año: 1977histvid_atari2600_s
Nombre: Atari 2600
Compañí­a: Atari
Comentario: Todo un éxito en ventas que impulsó a Atari a la fama. Con sólo 128 bytes de memoria RAM, sacó al mercado juegos como Pac-manSpace InvadersPitfallAsteroids,Donkey Kong, o Mario Bros. La programación de juegos no cesó hasta el año 1989.



histvid_spectrumAño: 1982histvid_spectrum_s
Nombre: ZX Spectrum
Compañí­a: Sinclair
Comentario: De la mano deSinclair Research (creadores delZX80 y el ZX81), se trata de uno de los ordenadores de 8 bits más populares de los años 80 (sobretodo en Europa). Su diseño se optimizó mucho, exprimiendo sus escasos (respecto a la competencia) recursos. Era una máquina asequible que acercó la microinformática a muchos hogares. Tuvo juegos tan famosos como R-Type y Renegade.







histvid_c64Año:
 1982histvid_c64_s
Nombre: Commodore 64
Compañí­a: Commodore
Comentario: Uno de los mejores ordenadores de 8 bits, con un catálogo de juegos muy extenso. Tení­a el mejor chip de sonido, por lo que muchos m úsicos hicieron uso de él para componer. Usaba un scroll de pantalla muy suave que daba a los juegos un toque especial de realismo. Salieron juegos como Test DriveLast NinjaShadow of the BeastManiac Mansion, o la serie Ultima.



histvid_nesAño: 1985histvid_nes_s
Nombre: Nintendo Entertainment System
Compañí­a: Nintendo
Comentario: La primera consola de Nintendo y la que supuso un auténtico boom en el mundo de los videojuegos, vendiendo aproximadamente 60 millones de unidades. Definió cómo tení­an que ser los juegos y cómo jugarlos, gracias a su cruceta direccional inventada por Gunpei Yokoi, que sustituirí­a el ya antiguo joystick de los hogares. Gracias a su éxito en ventas Super Mario BrosNintendo puso de moda el género de los juegos de plataformas.



histvid_smsAño: 1986histvid_sms_s
Nombre: Master System
Compañí­a: Sega
Comentario: Sega rediseñó suSG-1000 Mark III y le cambió el nombre a Master System. Más adelante la volvieron a rediseñar, haciéndola más compacta, y se dió a conocer como Master System II, quizás el rediseño más famoso en el mundo de los videojuegos. Vení­a con un juego preinstalado, Alex Kidd in Miracle World, juego que los de mi edad recordarán con anhelo, y además fue muy popular debido a que muchas tiendas lo poní­an en un televisor en sus escaparates (desgraciadamente esa costumbre se ha perdido hoy en dí­a). Fue la principal competidora de la NES de Nintendo, la cual tení­a un catálogo mucho más amplio, pero más pobre gráficamente. Más adelante, la Master System se caracterizó por tener los mismos juegos que su hermana mayor, la Mega Drive, pero muy descafeinados y sosos, debido a su escasa potencia.



histvid_mdAño: 1988histvid_md_s
Nombre: Mega Drive
Compañía: Sega
Comentario: Sega lanzó la sucesora de la Master System, y fue por todo lo alto. Una máquina con mejores gráficos, sonido y velocidad. Incorporó una CPU de 32 bits montada sobre un bus de datos de 16, por lo que su arquitectura fue finalmente de 16 bits. No tuvo demasiado éxito en Japón, pero en América y Europa fue la reina, incluso estuvo por encima de la Super Nintendo (su principal competidora) en estos continentes, aparte de tener un catálogo de juegos mucho más extenso. El gran público no le prestó demasiada atención hasta que apareció Sonic the Hedgehog.Posteriormente aparecieron accesorios que ampliaban la potencia de la consola, pero todos fracasaron. Su principal atractivo eran sus juegos directamente portados desde las recreativas. Fue mi primera consola, y gracias a la lucha con la Super Nintendo todos recordamos la era de los 16 bits como una de las más bonitas de la historia.



histvid_neogeoAño: 1990histvid_neogeo_s
Nombre: Neo Geo
Compañí­a: SNK
Comentario: También llamadaSistema de entretenimiento avanzado, era la consola más deseada de los 90. Tení­a un precio prohibitivo, así­ como todos sus juegos, que llegaban a valer una media de 300 euros. Era la misma máquina que las recreativas de SNK, por lo que tení­a exactamente los mismos juegos, de ahí­ el deseo de todos por jugarla. En el 2000 se convirtió en la máquina que todos querí­amos emular en nuestros PC.



histvid_snesAño: 1991histvid_snes_s
Nombre: Super Nintendo
Compañí­a: Nintendo
Comentario: La consola que enterró a otras, y rivalizó directamente con la Mega Drive. Trajo juegos de muchí­sima calidad y originalidad, y contra más tiempo pasaba, más impresionaron. Su CPU no era la más rápida, pero sus chips de gráficos y sonido eclipsaron ese inconveniente. Fue un éxito en todo el mundo, teniendo juegos de la talla de Super Mario WorldStreet Fighter II, o Donkey Kong Country.



histvid_saturnAño: 1994histvid_saturn_s
Nombre: Saturn
Compañí­a: Sega
Comentario: Sega puso toda la carne en el asador con su nueva consola, la Saturn, una máquina muy potente capaz de mostrar buenos juegos tanto en 2D como en 3D. Fue diseñada para albergar una única CPU, pero en las últimas fases del diseño se añadió una segunda, haciendo que las piezas no trabajaran de una forma natural entre sí­, y provocando que programar juegos para ella fuera toda una odisea. La sombra de laPlayStation de Sony hizo que Sega lanzara su consola antes de tiempo, dando la situación de una máquina sin apenas juegos. Finalmente salió PlayStation al mercado y barrió a la Saturn dejándola fuera del mercado. íšnicamente siguió teniendo éxito en Japón por unos cuantos años más. Destacaron juegos como Virtua Fighter, Virtua Racing o Panzer Dragoon.



histvid_ps1Año: 1995histvid_ps1_s
Nombre: PlayStation
Compañí­a: Sony
Comentario: Se trató de una máquina potente, que supo usar muy bien el soporte en CD, y se basó en el proyecto conjunto conNintendo para dotar a la Super Nintendo de soporte de CD. Nada más salir al mercado, debido a la expectación que fue creando previamente, barrió a la competencia y acaparó un sinfí­n de juegos muy variados. Cambió el mercado completamente, ya que se centró en la venta masiva de máquinas (gracias en parte a que fué muy fácil de piratear) Eso provocó que, a pesar de tener muy buenos títulos abundaran muchos juegos mediocres. ¿Su acierto? La apuesta por el CD (las compañías aumentaban sus beneficios) y la facilidad de programación. La época dorada de los 16 bits, donde hubo una bonita lucha entre los 2 eternos rivales (Nintendo y Sega), dió paso a la de 32 bits con un monopolio de Sony en un panorama realmente aburrido y con una gran falta de originalidad.



histvid_n64Año: 1996histvid_n64_s
Nombre: Nintendo 64
Compañí­a: Nintendo
Comentario: La última en montarse al carro de la nueva generación. Nintendo tení­a temor a la piraterí­a, por lo que optó por seguir usando los antiguos cartuchos. El resultado fue muy malo, ya que el cartucho era más costoso de producir que el CD, a pesar de ser mucho más rápido (que era la excusa de Nintendo). Aparte, su chip gráfico estaba bastante limitado en cuanto al texturizado en 3D, hecho que impedia generar gráficos realistas. Todo resultó en la pérdida de la mayorí­a de third-parties, incluso aquellas casadas tradicionalmente con Nintendo. Al final acabó teniendo pocos juegos, la mayorí­a del propio fabricante y de sus departamentos externos. Entre ellos se podrí­a destacar Super Mario 64 yThe Legend of Zelda: Ocarina of TimeNintendo perdió la batalla y la guerra.



histvid_ps2Año: 2000histvid_ps2_s
Nombre: PlayStation 2
Compañí­a: Sony
Comentario: Después de muchos rumores, Sony acabó lanzando su PlayStation 2, que disipó todas las dudas y catapultó a Dreamcast al olvido. Su gran aliciente: el lector de DVD. Por aquella época los lectores de DVD eran muy caros, y hacerse con una PS2 era más económico. Además de su desmesurada potencia, ofrecí­a compatibilidad con juegos de su predecesora, por lo que su éxito estuvo asegurado, siendo la consola que más unidades vendió en su momento de salida, y la más vendida de la historia. Juegos como Grand Theft Auto: San Andreas o Gran Turismo 4 sacaron, entre otros muchos, lo mejor de la consola, que fue también muy pirateada como su predecesora. No obstante, se dijo que su Emotion Engine era muy difí­cil de programar, cosa que fue perdiendo importancia a medida que las desarrolladoras cogí­an experiencia y perfeccionaban sus librerí­as. El reino de Sony siguió durante toda la vida de PlayStation 2.



histvid_xboxAño: 2001histvid_xbox_s
Nombre: Xbox
Compañí­a: Microsoft
Comentario: Fruto de la colaboración con Sega para portar Windows CE a laDreamcast, nació el interés deMicrosoft por entrar en el mundo de los videojuegos por la puerta grande: con su propia consola. Fue tachada de ser un PC en forma de consola, y en parte era cierto, siendo además una gran ventaja: el poder portar fácilmente los tí­tulos de PC a la máquina de Microsoft, gracias al uso de las librerí­asDirectX (de donde viene su nombre). Basada en una CPU Intel Pentium III, fue la primera en incorporar un disco duro para salvar partidas y extras, lo cual fué su principal atractivo para la comunidad homebrew. La filosofí­a de Microsoft de más vale lo bueno conocido que malo por conocer es lo que les dió muy buen resultado, siendo una consola muy exitosa que plantó cara a la todopoderosa PlayStation 2. La serie Halo fueron los juegos más impactantes y vendidos de la consola.



histvid_pspAño: 2005histvid_psp_s
Nombre: PlayStation Portable
Compañí­a: Sony
Comentario: Coloquialmente conocida como PSP, es la primera máquina portátil de Sony, y por fin una buena competidora que planta cara al reinado de Nintendo en este mercado, siendo superior en potencia bruta. Una de las cosas que primero llaman la atención es su gran pantalla panorámica, algo nunca visto en el terreno portátil. Usa los discos UMD, propietarios de Sony, los cuales tienen la ventaja de tener buena capacidad en poco espacio, pero lentos como contrapartida. Al igual que la Nintendo DS, ofrece juego multi-jugador por Wi-Fi, pero carece de las caracterí­sticas innovadoras de su competidora, apostando más por el estilo de juego tradicional.



histvid_xbox360Año: 2005histvid_xbox360_s
Nombre: Xbox 360
Compañí­a: Microsoft
Comentario: La continuación de la Xbox original pero mucho más potente. Ahora basada en una CPU multi-core de la mano de IBM, con quien diseñaron la nueva arquitectura de la máquina. Fue la primera consola de la actual generación, y eso jugó a favor de Microsoft, ya que le dió una gran cantidad de juegos que, al momento de salir sus competidoras, ya están empezando a sacar todo su potencial, siendo de las más vendidas (agotaron su stock al salir al mercado). Ofrece compatibilidad con juegos de su predecesora, aunque a modo de emulación, por lo que muchos no funcionan correctamente. Fue una máquina que se vendió prácticamente a precio de coste, con un márgen de beneficio muy ajustado en una estrategia comercial a largo plazo (técnica que más adelante copiarí­a Sony). En cambio Microsoft, fiel a su tradicional estilo de desarrollo rápido y descuidado, dejó algunos fallos en la máquina que provocan, de forma aleatoria, el famoso anillo de la muerte, tras el cual la consola queda inservible. Halo 3 fue uno de sus juegos más esperados y espectaculares.



histvid_wiiAño: 2006histvid_wii_s
Nombre: Wii
Compañí­a: Nintendo
Comentario: El misterioso proyecto Revolution que tantohype creó, por fin vió la luz en el 2006. Las promesas de una nueva forma de jugar a los videojuegos no hicieron más que despertar la curiosidad de todos, y empezaron a salir fakes por parte de los aficionados más creativos, como por ejemplo el famoso Nintendo On. Finalmente se presentó un prototipo y se pudo ver dónde estaba la idea revolucionaria: en el mando. La consola prescinde de cables, necesitando una banda de infrarojos instalada en el televisor. Además, son 2 mandos, uno para cada mano, pero con funciones diferentes. Básicamente la idea está que la forma de coger los mandos se adapta a cada juego, generando una experiencia totalmente nueva y más intuitiva. En cuanto a potencia, es la más modesta de su generación, habiéndole dado más importancia a su forma de juego. Eso automáticamente descarta a los hard-gamers, pero en cambio atrae a los casual-gamers, mercado en el que Nintendo quiere entrar. La consola vendió muchas más unidades que sus competidores en el momento del lanzamiento y los meses siguientes.



histvid_ps3Año: 2006histvid_ps3_s
Nombre: PlayStation 3
Compañí­a: Sony
Comentario: Sony y la tercera encarnación de PlayStation, con el inconveniente de que ahora tiene dos serios competidores en escena. A diferencia de su predecesora, la PlayStation 3 ya no reina a sus anchas. Se trata de una consola clásica, como lo es la Xbox 360, con unas capacidades técnicas altí­simas, incluyendo la CPU que IBM creó especialmente para la consola, el Cell. Como de costumbre, esta versión dePlayStation incorpora el último avance en almacenamiento, en este caso no es otro que Blu-ray, volviendo a ser una máquina más económica que los primeros lectores del mercado. La máquina salió a la venta a un precio menor que su coste de fabricación, provocando pérdidas millonarias a Sony, que tuvo que subir el precio del resto de sus productos electrónicos para compensar. Posteriormente salió una nueva versión más simplificada que eliminaba la compatibilidad con sus predecesoras, lo cual despertó fuertes crí­ticas. Ken Kutaragi, el padre de la consolas de Sony, dimitió después de su lanzamiento.