jueves, 27 de enero de 2011

Proximamente Carmen SanDiego en Facebook

Durante mi niñez, mi padre comprendió que la mejor forma de reforzar la enseñanza era a través de los juegos, y que mejor manera que a través de juegos de computadora. En los 80's y principio de los 90's uno de mis juegos favoritos era ¿Donde en el Mundo se encuentra Carmen SanDiego?.

El juego consistía en una trama sencilla: Se produce un robo de alto nivel y la principal sospechosa es Carmen SanDiego y su banda. Al momento del aviso, te llevan a la escena del crimen, recoges las pistas que te van llevando alrededor del mundo. Y una vez que tenias las pruebas del sospechoso, podrías emitir una orden de captura y si lo hacia bien, el sospechoso era arrestado. Poco a poco, Carmen SanDiego se iba quedando sin secuaces hasta llegar el punto de que la ultima ladrón que debemos atrapar es la mismísima Carmen SanDiego.

El motivo de este recuerdo nostalgico, es que la ladrona mas famosa del mundo de los juegos, vuelve a las andadas, y esta vez en la Red Social de Facebook, con una versión renovada para adaptarse a los nuevos tiempos y desarollada por la gente de Blue Fang Games. 

El lanzamiento esta previsto para el 9 de Febrero en Facebook y por el momento solo tenemos el trailer oficial del juego:


martes, 25 de enero de 2011

El mercado de PCs superó la crisis, pero aún genera interrogantes

Durante el año pasado, el mercado de PCs superó la crisis en la que se había hundido en 2009, al volver a un crecimiento de dos dígitos. Según Gartner, en todo 2010 se despacharon 350,9 millones de computadoras personales, un aumento del 13,8% respecto de 2009. Esta tasa de crecimiento supera ampliamente la de 2009, año en el que los despachos crecieron un tibio 5,5%. Entre los cinco primeros fabricantes de PCs (HP, Acer Group, Dell, Lenovo y Toshiba), el crecimiento de Lenovo superó la media de todo el mundo tras su expansión más allá del mercado chino. Sin embargo, la consultora advierte que el mercado de PC se enfrenta a desafíos en el futuro con competencia más intensa en el gasto del consumidor”.

Según resultados preliminares de Gartner, durante el cuarto trimestre de 2010 se vendieron unas 93,5 millones de PCs (incluyendo equipos de escritorio, portátiles y mini-portátiles, excluye tablets), un incremento de 3,1% respecto del cuarto trimestre de 2009. "En general, las ventas de PCs de fin de año fueron débiles en muchas regiones clave, debido a la intensificación de la competencia en el gasto de los consumidores. Los Media Tablets, como el iPad, así como otros dispositivos de electrónica de consumo (CE), como por ejemplo las consolas de juegos, todos compitieron contra las PCs —dijo Mikako Kitagawa, analista principal de Gartner—. El lado positivo del mercado de PC durante el cuarto trimestre de 2010 fue un constante crecimiento en el mercado profesional impulsado por las compras de reemplazo. Para todo el 2010, los resultados indican que el mercado de PC se recuperó de la recesión, ya que volvió a un crecimiento de dos dígitos, en comparación con el bajo crecimiento de un dígito en 2009. Sin embargo, el mercado de PC se enfrenta a desafíos en el futuro con competencia más intensa en el gasto del consumidor”.

En este contexto, el mercado de PCs en América Latina creció 15% en el cuarto trimestre de 2010, los despachos ascendieron a 8.900.000 unidades. Las ventas de computadoras portátiles aumentó 17,1% en el trimestre, y los despachos de PCs de escritorio crecieron un 12,6%.

Aprovechando la renovación

Durante el cuarto trimestre, HP mantuvo el liderazgo en ventas de PC en todo el mundo, pero el crecimiento de los despachos estuvo por debajo del promedio mundial. Los resultados preliminares mostraron que el negocio profesional de HP tuvo un crecimiento sólido, pero se vio balanceado por la debilidad en el área de PCs para el segmento de consumo en los Estados Unidos, si bien la compañía tuvo un buen desempeño en los mercados de consumo y profesional de Europa, Oriente Medio y África (EMEA). Asia/Pacífico sigue siendo una región difícil para HP.

El desempeño de Acer se vio afectado en el cuarto trimestre de 2010 por una desaceleración en el mercado de PCs móviles de consumo en general, particularmente en el segmento de las miniportátiles. Debido a una menor presencia en el mercado de PCs profesionales, Acer no pudo beneficiarse de la demanda de PCs causada por la actualización del equipamiento empresarial y profesional. En cambio, Dell sí se benefició de esta coyuntura en todas las regiones clave. El crecimiento de los despachos de Dell fue mejor que los promedios regionales en la mayoría de las regiones. La débil presencia de Dell en el segmento de consumo la salvó de las ventas decepcionantes de fin de año.

Lenovo tuvo el mayor crecimiento del año observado entre los cinco primeros proveedores. Su fortaleza derivó de las compras para reemplazo de equipamiento profesional, así como sus esfuerzos en curso para entrar en el mercado de consumo.


Tasa de crecimiento de dos dígitos

Según los resultados mundiales provisorios de Gartner, en todo 2010 se despacharon 350,9 millones de computadoras personales: un aumento del 13,8% respecto de 2009. Esta tasa de crecimiento supera ampliamente la de 2009, año en el que los despachos crecieron un tibio 5,5%.

Entre los cinco primeros fabricantes de PCs (HP, Acer Group, Dell, Lenovo y Toshiba, por orden de unidades despachadas anualmente), el crecimiento de Lenovo y superó la media de todo el mundo. El crecimiento de Lenovo fue impulsado por un fuerte crecimiento en los despachos de PCs profesionales, así como la expansión en el espacio de los consumidores fuera de China.


Campus Party Brasil: Al Gore defiende una Internet sin control y “del pueblo”

Del 17 al 23 de Enero se celebró en São Paulo el Campus Party 2011, cuya expectativa de concurrencia era de unos 4.500 “campuseros” de ocho países diferentes. Del encuentro, centrado en los avances tecnológicos, participaron autoridades, fabricantes, científicos y el público adepto. Entre los oradores invitados, se esperaban las presencias de Steve Wozniak, co-fundador de Apple; Tim Berners-Lee, creador de la World Wide Web; Stephen Crocker, uno de los pioneros de la seguridad en Internet; Kul Wadhwa, gerente de Wikipedia; y Jon ‘Maddog’ Hall, director de Linux International.

Otro de los invitados fue el ex vicepresidente de Estados Unidos, Al Gore, que el martes pasado dijo que Internet no puede ser controlado por ningún Gobierno o corporación, y que debe permanecer libre, porque es un fenómeno democratizador de comunicación. “Internet no debe de forma alguna ser controlado por gobiernos o grandes corporaciones”, señaló Gore en conferencia durante la apertura.

Las declaraciones, reproducidas por la Agencia Folha local, indican que Gore defendió la libertad en la “Web” subrayando que “Internet democratizó las comunicaciones, permitiendo que individuos se unan en torno a una cuestión común, y descubran cosas de acuerdo con su propia curiosidad”.

Defiendan Internet. No puede ser controlada... es del pueblo”, dijo Gore, quien subrayó que “la información es poder”. Su pensamiento coincidió con lo expresado en el evento por otro peso pesado, su compatriota Tim Berners-Lee, creador de la World Wide Web. Berners-Lee expresó también su opinión sobre el caso WikiLeaks: WikiLeaks no es el problema, dijo, le fue dada una importancia desproporcionada al sitio, a causa de la filtración de datos. Berners-Lee recordó que, cuando creó la Web, la idea era que fuera simplemente una plataforma, “una hoja en blanco”, para escribir cualquier cosa. “No existe pintura bonita en la Web. Eso es muy subjetivo. Entonces decimos que la Web fue creada para pinturas bonitas y feas”, bromeó.

Para Berners-Lee, es de esta forma que funciona WikiLeaks. “Es importante distinguir la cuestión de los datos secretos estratégicos respecto de informaciones de interés común. WikiLeaks funciona como un periódico, reproduce informaciones. Es necesario aclarar que no es responsable por la filtración de datos, sino un medio”, afirmó.

Berners-Lee también comentó sobre el monopolio en la red y el fenómeno virtual Facebook. Facebook representa hoy lo que ya sucedió con Netscape, Microsoft y Google, y llama más atención de lo que debería. “Es increíble como las personas logran enfocar estos casos tan rápidamente, y luego, olvidarlos”, dijo refriéndose a un tipo de movimiento cíclico ocurrido en los últimos veinte años de existencia de la WWW.

Campus Party Brasil 2011 albergó, además de las presentaciones magistrales, un total de 400 actividades, 400 horas de contenido y 317 proyectos. La edad promedio de los asistentes es de menos de 30 años. Los focos de esta edición son ciencia, creatividad, entretenimiento digital e innovación. La Campus Party, que se celebró por primera vez en 1997 en España, se celebra también en Colombia y México, y en Abril se realizará por primera vez en Venezuela, en el Poliedro de Caracas.

lunes, 24 de enero de 2011

Google vs. H.264, y tambores de guerra

¿Qué llevó a Gogle a eliminar el soporte al códec de video H.264 en las futuras versiones de Chrome? La compañía asegura que la apuesta por otras opciones más abiertas permitirá salir del callejón sin salida en que hoy se encuentra el soporte de video en HTML. Con todo, un analista de la industria se anima a dar otra hipótesis para lo que muchos ven como una batalla en la guerra de formatos de video.
La semana pasada, Google anunció que las próximas versiones de su navegador Chrome no ofrecerán soporte para el códec H.264. En su lugar se decantarán por opciones de código abierto, como WebM (VP8) y Theora. Los blogs de los analistas se encargaron de difundir la noticia, y rotularon en hecho como la primera batalla en la guerra de los formatos de video.

Uno de estos blog fue el de Jason Perlow, quien desde Tech Broiler (uno de los blogs de ZDNet) ironizaba: “Ah, el aroma del fervor religioso en la mañana. ¿Pueden olerlo? Este aroma a llamas de guerra. Huele a… ¡GUERRA DE FORMATOS!” En su post, el analista arriesga una hipótesis: la cuestión con Google no es religiosa, sino que está relacionada con la infraestructura y sus costos. “¿Cuál es uno de loa más grandes centros de costos en Google en términos de infraestructura? Próximo a su negocio de bísquedas, es YouTube. El alejamiento del H.264 y hacia los formatos abiertos como VP8 y Theora es simplemente un canario en una mina de carbón. La decisión religiosa acerca de qué formato eventualmente elegirán es una bomba de humo, una discusión lateral que desmerece el tema real. Se trata de Google arribando a la conclusión que soportar toda clase de formatos de video en YouTube requiere una gran cantidad de infraestructura, que cuesta un mucho dinero. Mi suposición es que la decisión de eliminar H.264 no sólo aplica al navegador Chrome para PC, y dispositivos de Mac y Android, sino al encoding de contenido almacenado en las redes de área de almacenamiento (SANs) de YouTube”.

Más recientemente, en The Chromium Blog, el product manager de la compañía, Mike Jazayeri, trató de llevar tranquilidad al público: “El anuncio de esta semana se refería únicamente al tag HTML

Internet: 1.970 millones de usuarios en 2010

El sitio de monitoreo de Internet Royal Pingdom publicó las cifras del uso que se le dio a la red de redes en 2010. Según el seguimiento realizado por esta firma, los usuarios de Internet enviaron 107 billones (millón de millones) de correos electrónicos en 2010, la mayoría de ellos spam. Existen 2.900 millones de cuentas de correo electrónico. En América Latina y el Caribe hay 204,7 millones de usuarios.

Los números recientemente publicados por el sitio de análisis de tráfico de Internet Royal Pingdom indican que durante el último año se contabilizaron 1.970 millones de usuarios de Internet, lo que representa un aumento de un 14% respecto del 2009. Esos usuarios se reparten así:
  • 825,1 millones en Asia.
  • 475,1 millones en Europa.
  • 266,2 millones en Norteamérica.
  • 204,7 millones en Latinoamérica y el Caribe.
  • 110,9 millones en África.
  • 63,2 millones en el Medio Oriente.
  • 21,3 millones en Oceanía.

Correos deseados, y de los otros

Las cifras publicadas indican que los usuarios de Internet enviaron 107 billones (millones de millones) de correos electrónicos en el año. La cantidad diaria es de 294.000, de los cuales el 89% fue spam.

Sitios Web

A fines del 2010 se contabilizaban 255 millones de sitios Web, de los cuales 21,4 millones fueron creados durante el año. En cuanto a dominios, hay 88,8 millones de dominios .com, 13,2 millones de .net, 8,6 millones de .org y 79,2 millones de dominios locales (como .cl, .es, .br, etc).

Social Networking

Pingdom también publicó cifras sobre el crecimiento de Twitter y Facebook: el primero reclutó 100 millones de nuevas cuentas el año pasado y acumuló un total de 175 millones para septiembre. En 2010, se enviaron 25.000 millones de mensajes por Twitter, o "tweets".

En tanto, Facebook, rozaba a fines del año pasado los 600 millones de usuarios. De ellos, 250 millones se sumaron a la red social en 2010.

miércoles, 19 de enero de 2011

Otra iniciativa para controlar Internet

Esta vez se trata de un sistema que rastrea “huellas digitales” de los internautas que forma parte del paquete de medidas que la Casa Blanca pretende adoptar para promover el aumento de la seguridad en Internet. El plan cuenta con el apoyo de jugadores importantes de la red como Verizon, Google, PayPal, Symantec y AT&TI.

La administración Obama informó que estudia la creación de un sistema de identificación de los usuarios en Internet, denominado “Estrategia Nacional de Identidad en el Ciberespacio” (NSTIC, sigla en inglés), que permitirá rastrear las “huellas digitales” de los internautas.

La iniciativa forma parte del paquete de medidas que el Gobierno norteamericano pretende adoptar para promover el aumento de la seguridad en Internet tras formar, hace ya unas semanas, una división del Ejército especializada en cuestiones de la web.

Para desarrollar el proyecto de identificación de internautas se va a crear un departamento específico y, en los próximos meses, se darán más detalles de los planes oficiales.

El objetivo, según el coordinador de seguridad cibernética americano, Howard Schmidt, es garantizar la privacidad y crear un “ecosistema de identidad en Internet”. La iniciativa no pretende suponer un método de control sino un sistema de seguridad.

“No estamos hablando de una tarjeta de identificación nacional. Tampoco de un sistema controlado por el Gobierno. Lo que queremos es mejorar la seguridad y privacidad online y reducir e, incluso, eliminar la necesidad de memorizar una docena de contraseñas, a través de la creación y el uso de identidades digitales de mayor confianza”, explicó el secretario de Comercio americano, Gary Locke, en declaraciones a la cadena televisiva CBS.

El Departamento de Comercio creará una oficina que se encargará del desarrollo y el control del proyecto.

Se dice de mí… ¿Cómo repercutió CES en las redes sociales?

El servicio de monitorización de redes sociales RowFeeder realizó una interesante comparación que permite apreciar la repercusión que algunas empresas tuvieron en el ámbito de las redes sociales, en particular los fabricantes de smartphones y tablets, y los proveedores de sistemas operativos para estos dispositivos. El Xoom de Motorola, con Android 3.0, resultó lo más citado en las redes sociales.

El monitoreo de las redes sociales, y en particular de Facebook y Twitter, permiten establecer métricas de popularidad que hasta hace muy poco no eran posibles. Así, la trascendencia de un determinado anuncio puede ser medido a través de la cantidad de menciones que dicha compañía tuvo en las redes sociales. El servicio de monitorización RowFeeder realizó un seguimiento de algunas marcas y productos durante los últimos meses para luego compararlo con la repercusión alcanzada durante la feria estadounidense CES 2011.

Bajo esta metodología, los guarismos de RowFeeder referentes al CES permiten apreciar la existencia de un ganador claro en el mercado de las tablets y un empate en el de los teléfonos móviles. En el primero de estos rubros, el líder fue Motorola (en referencia a Motorola Mobility, recientemente escindida, aunque a priori no es posible establecer una separación clara), gracias a su Xoom con Android 3.0, Honeycomb. La empresa logró aumentar el volumen de tráfico generado en un 250%, superando las 20.000 menciones en redes sociales entre el 5 y el 9 de enero. También ganó el premio al mejor producto de la feria. Superó a la estrella de Blackberry, Playbook, y a la Samsung Galaxy Tab, ya asentada en el mercado.

Xoom recibió, sin embargo, menos comentarios que otras marcas que no compiten en su segmento como Android, iPhone o Microsoft. Pero se mantiene líder para RowFeeder al ser la empresa que más creció. Es el caso contrario al de Apple; aunque su iPhone volvió a ser la palabra más repetida de la feria, perdió repercusión con respecto a 2010, cuando el iPhone 4 estaba a punto de llegar al retail. 

Por eso, bajo este criterio, Blackberry y Android son las plataformas móviles vencedoras. Con todo, es necesario tener en cuenta que, en el caso de Blackberry, las menciones en el rubro móvil derivan de su auténtico producto estrella, la tablet Playbook, mientras que las de Android se reparten entre Xoom y los numerosos smartphones que invadieron la feria.

Lo que NO pasará en 2011


ABI Research publicó un white paper que es algo así como el Lado Oscuro de las predicciones que acompañan cada principio de año al mercado tecnológico. ¿Cuáles son los “hype” del 2011? ¿Qué tendencias no terminarán cristalizando en los próximos doce meses? ¿Qué prácticas no experimentarán el explosivo crecimiento que los marketineros esperan? “What’s NOT Going to Happen in 2011”, según ABI Research.

Hipérbole es una figura retórica que consiste en una exageración de la realidad que se quiere expresar. En inglés, se escribe con ye (hyperbole) y es el origen de “hype”: la expresión que se usan los analistas del mercado para indicar un infundado exceso de entusiasmo sobre determinadas tendencias, productos o tecnologías. Los discursos tecnológicos de los fabricantes tienden a promover ese “hype”, y el de los analistas más conservadores a bajar esas expectativas.

Existe un momento en que los discursos entusiastas cobran renovada energía, y es con el comienzo del año. Tal vez por eso ABI Research elaboró un curioso paper titulado “What’s NOT Going to Happen in 2011” (Lo que NO sucederá en 2011). En otras palabras: el Lado Oscuro de las predicciones que cada principio de año acompañan al mercado tecnológico.

Al tope de este ranking, ABI garantiza que 2011 no será el año del marketing y la publicidad móviles. Si bien es una tendencia en curso, todavía representará una pequeña porción de la torta, y debe superar algunos desafíos importantes como la estandarización de las mediciones y la audiencia relativamente pequeña que hoy tiene.

En este orden, la publicidad basada en localización (Location-based Advertising o LBA) tampoco será tan grande como algunos prevén, al menos no en 2011, si bien, como afirman los analistas las condiciones comienzan a estar dadas: proliferación del GPS, app stores, disponibilidad de la información de localización provista por smartphones, etc. Y, ya que estamos, los smartphones no van a reemplazar en 2011 a los dispositivos de cómputo para el acceso a Internet, en parte debido a problemas de “usabilidad” (por ejemplo, sencillez de las interfaces).

ABI también estima que los fabricantes de PCs no batirán el temprano liderazgo de Apple en materia de media tablets. Si bien muchos fabricantes de tablets están presentando la primera generación de dispositivos, y esto puede diluir el impacto del iPad, se espera que a principios de 2011 sea anunciada una nueva generación de iPads que podrá corregir los defectos percibidos en el actual producto. La falta de competencia en 2010 para el iPad dará lugar a jugadores de caja blanca y OEMs, y el mercado de Apple caerá de acuerdo a esta realidad, pero ABI estima que ningún vendor por sí solo podrá mejorar la cantidad de despachos del iPad (al menos no a un año de su salida al mercado que se cumplirá en Abril). ABI Research también hizo un seguimiento de la evolución del segmento de netbooks desde su origen (2007) y aseguran que si bien las tablets tuvieron un excelente crecimiento en el primer año, no crecieron más rápido de lo que las netbooks lo hicieron desde su primer día en el mercado.

En 2011, se espera que las netbooks sigan siendo más populares que las media tablets. Pero la demanda de dispositivos con modems de banda ancha móvil integrados no hará que ésta supere la demanda de modems externos. El formato hace que resulte ideal, incluso para los proveedores del servicio. Si bien algunos podrían observar alguna caída en los modems USB, el crecimiento en los despachos de dongles se mantendrá a escala global, según ABI. En algunas partes del mundo, el lanzamiento de redes 3G (HSPA+) y 4G (WiMAX y LTE) creará una oportunidad de actualización que no significará necesariamente el reemplazo del dispositivo portátil que se conecta a esa red (al menos no de forma inmediata, ABI considera que hay un gap de 9 a 12 meses).

Los vehículos seguirán siendo conducidos por seres humanos, si bien el experimento de Google y otros avances marcan un paso importante en el desarrollo de coches que pueden prescindir del ser humano. Tampoco se apure a conseguir en 2011 un auto eléctrico. No existe la infraestructura necesaria, y los costos de adquisición y combustible son altos aún. Si pensaba comprar un vehículo de esta clase por razones ambientales, sería bueno que considerara de donde viene la electricidad necesaria para cargar sus baterías, recomienda ABI.

Si de vehículos estamos hablando, tampoco debe esperarse demasiado este año en cuanto a la integración del smartphone dentro de la telemática de los vehículos, si bien hay avances significativos como SYNC de Ford (desarrollado con Microsoft) y la tecnología Terminal Mode de Nokia. En el campo de los celulares inteligentes, ABI estima que tampoco habría que esperar demasiado este año de la iniciativa NFC (Near Field Communication): una iniciativa de la que participan Samsung, Nokia y Google) que transformará el smartphone en una billetera electrónica para pagar desde los gastos del supermercado, pasando por la expendedora de gaseosas, hasta la carga de combustible en la estación de servicio. Para ABI, existen prácticas de la población en general que hoy ponen trabas a esta posibilidad, si bien en el futuro podrían ser muy populares. A esto se suma que bancos y proveedores de servicios de telefonía celular deberán ponerse de acuerdo, lo que podría producir una fragmentación en la oferta de cash digital.

Otras anti-predicciones de ABI Research, sostienen que:
  • 2011 no será el año en que el juego en la nube (Cloud Gaming) lastre la venta de consolas.
  • Tampoco será el año en que el Home Networking se mudará a un estándar único.
  • BlackBerry no será eclipsada por iPhones empresariales.
  • Android no comenzará a eclipsar a Apple en 2011.
  • Los mercados M2M no alcanzarán una estandarización importante en 2011.
  • LTE no será desplegado masivamente en 2011. 
  • Ni tampoco TD-LTE matará a WiMAX en 2011.

martes, 18 de enero de 2011

Las 15 mejores extensiones para Chrome y Firefox del 2010

Todos conocen las extensiones o addons para navegadores, complementos que cada vez están disponibles en más clientes y sin los cuales estos no serían los mismos. Desde utilidades simples para cortar texto o enviar vínculos a otras más avanzadas con un completo editor de capturas o un generador de contraseñas, ninguna deja de ser útil. He aquí la lista de las 15 mejores para Chrome y Firefox del 2010.

Rapportive (Chrome, Firefox): Se trata de una extensión que libera de la publicidad de Gmail y la sustituye mostrando información extendida sobre los remitentes de los correos, con sus últimos tweets, información sobre su perfil de Google o vínculos a sus perfiles de Facebook o LinkedIn entre otros.

Firefox Sync (Firefox): Vendrá incluido de serie en la siguiente versión del navegador, pero hoy por hoy tenemos que disfrutarlo mediante su extensión. Firefox Sync permite mantener todo el historial, marcadores, preferencias y demás elementos sincronizados en la nube, para así poder disfrutar siempre del mismo navegador independientemente del ordenador en el que nos encontremos.

gTranslate (Firefox): En este caso se trata de una extensión solo para Firefox, ya que el navegador de Google lo incluye por defecto. Con gTranslate se integra en el navegador de Mozilla el conocido servicio de traducciones de Google, Google Translate, pudiendo así traducir páginas completas con un solo clic y desde casi cualquier idioma.

Chrome To Phone (Chrome): Mediante ella se crea un botón que permite enviar a un teléfono Android la página actual en la que nos encontramos, ya sea una página normal, un mapa o simplemente texto.

Awesome Screenshot (Chrome): Mediante ella y bajo una interfaz bastante trabajada seremos capaces de capturar páginas completas o selecciones y después compartirlas con nuestros contactos mediante servicios como Twitter o Gmail.

Chrome Toolbox (Chrome): Esta completa caja de herramientas está dotada de diversas utilidades como por ejemplo la posibilidad de crear accesos directos a funcionalidades, el silenciado de pestañas y la personalización de su funcionamiento, o la función autocompletar para formularios enteros, entre otras.

Save as PDF (Firefox): Con esta sencilla utilidad podemos realizar capturas de pantalla completas guardando la totalidad de la página que estamos visionando en formato PDF, todo ello en un tiempo muy reducido y con la simplicidad de un clic.

Disconnect (Chrome): Este complemento para el navegador de Google nos permite evitar que nuestras búsquedas en Internet lleguen a terceros y así protege nuestros datos de una exposición indebida a sitios que tal vez no queramos que los tengan. Válido para Google, Yahoo, Facebook, Twitter y Digg, basta con instalar la extensión para que esta empiece a bloquear elementos.

SiteLauncher (Chrome, Firefox): Se trata de una extensión que permite crear atajos de teclado o hotkeys para lanzar sitios mediante un panel personalizado de accesos directos en el que incluir nuestras páginas favoritas, de una forma simple y organizada. Su ventaja sobre FastestFox es precisamente la organización, y es ideal para acceder rápidamente a los sitios que visitamos con más frecuencia.

Autocopy (Firefox): Se trata de una sencilla extensión que hará que el texto seleccionado viaje directamente a nuestro portapapeles y así esté disponible si queremos pegarlo en algún documento o formulario posteriormente.

Tab Cloud (Chrome, Firefox): Se trata de una extensión que permite sincronizar en la nube las pestañas abiertas, tanto en el navegador de Mozilla como en el de Google. Con este complemento no tendremos que volver a preocuparnos por recordar las páginas que teníamos abiertas aun cuando vamos de casa al trabajo, por ejemplo.

Password Maker (Firefox): Se trata de una extensión para el navegador de Mozilla que ayuda a generar passwords que cumplan las reglas básicas para ser contraseñas seguras. Utilizando una clave maestra que deberemos recordar, esta simple extensión es capaz de generar contraseñas basándose en ella y en otros datos como la URL y podremos utilizar las contraseñas más seguras sin temor a olvidarlas o tener que apuntarlas en algún sitio.

Image Search Options (Firefox): Añade la opción de realizar una búsqueda inversa sobre las imágenes con el simple hecho de seleccionar una opción en su menú contextual. Entonces entran en juego los motores de búsqueda inversa —5 seleccionables—, que intentarán encontrar imágenes relacionadas u otras versiones de la misma.

WOT (Chrome, Firefox): También conocido como Web Of Trust, es una extensión que indica el nivel de confianza de las páginas resultantes de nuestras búsquedas, ideal para estar seguros de si el sitio que visitamos es de fiar o no.

Colorful Tabs (Firefox): Sirve para organizar las pestañas abiertas, coloreándolas de una manera jerárquica, por ejemplo, si abrimos una pestaña desde otra, ésta tendrá su mismo color. Muy útil para reorganizar la información ya que tenemos a veces decenas abiertas.

Lenovo muestra una PC que bootea en 10 segundos

Durante la Feria CES 2011, Lenovo anunció el lanzamiento de sus sistema Enhanced Experience 2.0 para Windows 7: se trata de una norma de optimización y rendimiento que incluye encendido y apagado de Windows optimizado. Los clientes que tengan equipos con esta norma podrán iniciarlos ahorrando un promedio de 20 segundos en cada booteo.

Durante la Feria CES 2011, el Vendor Lenovo anunció el lanzamiento de sus sistema Enhanced Experience 2.0 para Windows 7: se trata de una norma de optimización y rendimiento que incluye un encendido y apagado de Windows optimizado y otras funciones similares. Los clientes que tengan equipos con esta norma podrán iniciarlos ahorrando un promedio de 20 segundos en cada booteo.

El Enhanced Experience 2.0 de Lenovo para Windows 7 vendrá preinstalado en una amplia gama de computadoras Idea y Think ya desde el primer trimestre de 2011.

LOS BENEFICIOS MÁS IMPORTANTES
  • Los clientes con EE 2.0 podrán iniciar sus Lenovo un promedio de 20 segundos más rápido que cualquier típica computadora con Windows 7, gracias a la tecnología RapidBoot.
  • En algunas computadoras EE 2.0 de Lenovo con tecnología de unidad de estado sólido RapidDrive, los usuarios pueden iniciar sus computadoras en menos de 10 segundos y abrir aplicaciones en el doble de la velocidad.

Entre las computadoras Lenovo con tiempos de inicio de menos de 10 segundos se incluyen las nuevas IdeaPad Y570 e Y470.

"La experiencia Enhanced Experience 2.0 de Lenovo amplía el rendimiento de Windows 7 aún más", comentó Steve Guggenheimer, Vicepresidente corporativo de la División OEM en Microsoft Corporation.

Para más información visite www.lenovo.com/win7ee.

Windows 8 no es una amanaza, es una oportunidad

Ese fue el mensaje dado por Paul Otellini, CEO de Intel, en relación al anuncio de Microsoft de soportar arquitecturas ARM con su futuro sistema operativo Windows 8. Aunque no represente una amenaza, el desembarco de los chips ARM en computadoras portátiles e incluso PCs de escritorio obligará a Intel a brindar ventajas notorias de performance para diferenciarse.

“Actualmente, Windows CE y las aplicaciones para teléfonos Windows corren en ARM y sólo en ARM, entonces lo que están diciendo es que para las tablets van a dar soporte a ARM en Windows 8”, dijo Paul Otellini durante una entrevista con Fox Business Network. “Lo que me entusiasma acerca de Windows 8 es que también dará soporte a Intel en los otros dispositivos. Hoy en día no tenemos oportunidad de ingresar al mercado de teléfonos y tablets basados en software de Microsoft”.

Históricamente, los microprocesadores Intel nunca fueron tan económicos como los chips de arquitectura ARM, los cuales impulsan el 98 por ciento de los teléfonos de la actualidad. Estos últimos están ganando performance para impulsar computadoras personales, mientras que los chips de Intel se están volviendo más eficientes en el consumo energético como para impulsar tablets. Pero Intel necesita a Windows para justificar el uso de plataformas x86 dentro de las tablets.

Un problema evidente para Intel es la capacidad de los desarrolladores de chips ARM de diseñar modelos de alta performance que puedan impulsar PCs. Ante esta amenaza, Intel deberá asegurar que sus chips ofrezcan ventajas abrumadoras de performance sobre cualquier implementación de la arquitectura ARM. Al margen de la performance, el verdadero confort del usuario es el que provee el sistema operativo Windows, por lo que tanto AMD como Intel deberán asegurar que haya software que corra exclusivamente en chips x86.

Está por verse cómo se compondrá en el futuro la masa de software exclusivo para x86. Lo que sí está claro es que la realidad del mercado cambió drásticamente tanto para AMD como para Intel desde que Microsoft anunció la compatibilidad de Windows con los chips ARM.

lunes, 17 de enero de 2011

Microsoft confirmó el soporte de Windows 8 para la arquitectura ARM

La empresa convirtió en oficial la noticia del soporte de su futuro sistema operativo para los chips ARM. Esto implica que Windows 8 no sólo funcionará en las clásicas arquitecturas x86 de empresas como Intel, AMD o Via, sino también en los chips de arquitectura ARM desarrollados por decenas de empresas en todo el mundo.

El anuncio oficial fue realizado por Microsoft en el Consumer Electronics Show (CES), durante una demostración en la que se pudo ver a Windows 8 corriendo tanto en plataformas x86 de Intel como en plataformas ARM de Nvidia, Qualcomm y Texas Instruments.

La demostración del nuevo Windows cubrió una amplia gama de escenarios, tales como gráficos y reproducción de medios acelerada por hardware, navegación web también acelerada por hardware, soporte de dispositivos USB, impresión y otras características que los usuarios esperan de su experiencia informática.

“Con este anuncio, estamos mostrando la flexibilidad y perdurabilidad de Windows a través del poder del software y un compromiso con la ingeniería de clase mundial”, dijo Steven Sinofsky, presidente de la división Windows & Windows Live en Microsoft. “Continuamos la evolución de Windows para entregar la funcionalidad que piden los clientes a lo largo de la más amplia variedad de plataformas de hardware y formatos”.

Aún cuando las versiones Mobile y CE de Windows soportan a los procesadores ARM, las versiones de escritorio del sistema operativo nunca fueron compatibles con dicha plataforma. La decisión de Microsoft de extender su soporte a estas arquitecturas no x86 puede explicarse por el hecho de que los sistemas basados en ARM están volviéndose más poderosos y, eventualmente, se usarán no sólo en las tablets sino también en notebooks o PCs de escritorio.

Una de las características clave de Windows 8 será su velocidad de inicio o incluso de encendido inmediato. Además, Microsoft planea implementar varias optimizaciones de performance para que el sistema operativo tenga mayor velocidad de respuesta. Considerando que cada vez más computadoras integran cámaras web, es factible que Windows 8 incluya reconocimiento facial. El soporte para las nuevas interfaces de alta velocidad Bluetooth 3.0, USB 3.0 y otras también están en la lista de promesas de Windows 8.

Microsoft apuntará a cuatro formatos con su nuevo sistema operativo: PCs de escritorio, laptops, equipos de escritorio todo en uno y slates o tablets. Es de esperarse que la interfaz de usuario de Windows 8 sea personalizable o muy flexible, para satisfacer completamente a diferentes usuarios. Dado que las tablets se están volviendo populares, será crucial para Microsoft no demorarse en el lanzamiento del nuevo SO.

El lado serio de los juegos

Los videojuegos están convirtiéndose en un motor cada vez más poderoso que impulsa la creación de nuevas tecnologías y su posterior evolución. Tanto es así que la antes desdeñada industria del software de juegos hoy ejerce una importante influencia en el éxito o fracaso de los principales microprocesadores del mercado.

Es por eso que empresas como Intel están destinando valiosos recursos para mirar con ojo crítico (y con seriedad) a los juegos para PC. Un ejemplo de ello es el rol que ha asumido Jeffrey Frizzell, arquitecto del Visual & Parallel Computing Group de Intel, como observador de la evolución de la industria de los juegos.

En un post reciente del blog http://blogs.intel.com/technology, Frizzell se compromete (después de unos cuantos párrafos dedicados a explicar por qué los juegos de computadora son tan divertidos) a ocupar sus próximas semanas laborales en la realización de un análisis exhaustivo de los videojuegos y su ecosistema.

Como resultado de su investigación, Frizzell espera dar respuesta a una serie de importantes preguntas; las primeras en relación al mercado de juegos en general, y las segundas referidas específicamente a Intel:

* ¿Qué tipos de juegos son más populares o están ganando popularidad?
* ¿Cuáles son las tendencias en los juegos basados en computadoras?
* ¿Qué clases de capacidades de hardware y software se requieren en la CPU?
* Misma pregunta anterior, pero aplicada a las GPUs.

Ahora las preguntas referidas a Intel:

* Intel lanzó recientemente nuevos procesadores con gráficos incorporados para notebooks y desktops. ¿Cómo se alinean estos procesadores a las tendencias del mercado?
* Intel tiene una excelente reputación en cuanto a CPUs veloces, eficiencia energética, chipsets confiables y una ejecución ajustada a las hojas de ruta. En cambio, los anteriores “gráficos integrados” de Intel tienen una reputación menos que estelar en cuanto a compatibilidad y performance en los juegos. ¿Está esta mala reputación bien merecida? En tal caso, ¿por qué es así y qué está haciendo Intel para corregir los problemas subyacentes?

Estos últimos interrogantes podrían resumirse en dos: ¿Se toma Intel los juegos en serio? ¿Ofrecerá Intel buenas experiencias de juegos con sus HD Graphics?

Frizzell invita a todos los interesados a seguir sus posts durante su viaje por el mundo de los juegos (del cual espera salir ileso), ansiando que compartamos nuestros pensamientos y opiniones; ya sean buenos o malos. Como buen jugador, el tecnólogo de Intel da la bienvenida a cualquier desafío que deba enfrentar en su proyecto.

¿Cómo sería el mundo IT si todos usaran Linux?

Las ventajas de Linux sobre otros sistemas operativos se han venido demostrando claramente en los últimos tiempos en el terreno de los servidores, pero los usuarios finales están demasiado acostumbrados a Windows -o Mac OS X- y no es fácil que dichos usuarios migren a esa plataforma, pero si lo hicieran de forma masiva nos encontraríamos con un panorama curioso. En un artículo publicado en el sitio MuyComputerPRO han realizado un análisis de cómo sería el mundo IT si Linux dominara el mercado de los sistemas operativos y las soluciones Open Source.

1. Todo un golpe para el malware
Seguramente el efecto más importante de la adopción masiva de Linux sería que la cultura actual basada en Windows desaparecería y sería reemplazada por las distintas distribuciones Linux que existen en el mercado, y que tendrían un efecto claro sobre la reducción del malware. Hasta la fecha casi todos los esfuerzos de los desarrolladores de malware se han centrado en Windows, por lo que asistiríamos a un escenario en el que, al menos en principio, estaríamos mucho más libres de esa amenaza. De hecho, controlar este apartado sería mucho más sencillo gracias a la propia filosofía y arquitectura interna de Linux y su control de privilegios.

2. La industria de la seguridad para PCs se difuminaría
Casi de forma paralela a esa desaparición del malware también habría otro efecto colateral, y es el de que los usuarios ya no necesitarían la avalancha de soluciones de seguridad que hoy en día están disponibles en Windows: la eficiencia y seguridad de los sistemas Linux se ha venido demostrando durante años, y la presencia de virus y otras amenazas es mínima con respecto a la que suele darse en sistemas Windows. Además, existen soluciones Open Source de libre distribución (la mayoría gratuitas) que permiten aumentar el grado de protección de forma muy potente.

3. Adiós a los tiempos de no disponibilidad
Esta es una realidad que muchas empresas están confirmando en el segmento de los servidores: la solidez de Linux en este terreno es clara, y los servidores Linux tienen unos porcentajes de disponibilidad muy altos, mientras que sus competidores se ven afectados por conflictos y amenazas que causan diversos periodos de inaccesibilidad a los servicios proporcionados por esas máquinas con otros sistemas operativos.

4. Ahorro a nivel mundial
Las empresas y los usuarios también se beneficiarían del ahorro que lograrían al contar con distribuciones y software FLOSS que se distribuye de forma libre (y en muchos casos, gratuita) y que evita el pago de costosas licencias por el uso de un sistema operativo o una suite ofimática. Eso no quiere decir que las desarrolladoras software no pudieran comercializar sus productos: Red Hat ha demostrado que sus planes de soporte y formación ofrecen un modelo de negocio envidiado en el segmento Open Source.

5. Mejor software
Además, si todo el mundo usara Linux, el software seguiría mejorando de forma dramática: más desarrolladores estarían motivados para escribir más aplicaciones y con mayor calidad. El modelo Open Source en el que cada cual es libre de modificar el código fuente, compartirlo y distribuirlo se beneficiaría de forma dramática de ese aumento de usuarios y desarrolladores, que contribuirían de forma masiva al desarrollo de nuevas aplicaciones.

Aunque puede que no lleguemos a corto plazo a una situación en la que Linux y el Software Libre y de Código Abierto dominen el mercado, la popularidad de estas soluciones sigue creciendo, y eso es ya un importante primer paso para tratar de imponerse también en los escritorios de los usuarios finales.

martes, 11 de enero de 2011

LucidLogix anunció un software para virtualización de GPUs


La empresa diseñadora de soluciones multi-GPU anunció la semana pasada un nuevo software de virtualización de GPU diseñado para plataformas Intel Sandy Bridge. Con esta tecnología, las futuras PCs podrán conmutar dinámicamente entre el núcleo gráfico integrado del chip Intel y un procesador gráfico discreto compatible con DirectX 11.

La nueva tecnología de LucidLogix permite usar el motor gráfico integrado de los chips Intel en aplicaciones comunes, y activar el uso de una GPU de alta performance cuando se necesita un mayor poder de procesamiento.

“Lo que hemos logrado aquí es una experiencia visual en la que no es necesario elegir entre las valiosas características multimedia de la plataforma Intel Sandy Bridge, como reproducción HD y potente transcodificación de video, y la funcionalidad gráfica 3D de alto rango de una GPU discreta”, dijo Offir Remez, presidente y fundador de LucidLogix.

Con el nombre de Virtu, el software de Lucid es capaz de asignar tareas en tiempo real al mejor recurso gráfico disponible en cada momento según consideraciones de consumo, performance y características, sin necesidad de hardware adicional. Si se requiere funcionalidad gráfica 3D, el sistema asignará la tarea a la GPU discreta; si no, la GPU discreta pasará a modo ocioso, bajando el consumo energético y la producción de calor del sistema.

Nvidia presentó el año pasado una tecnología similar, llamada Optimus, que conmuta dinámicamente entre el motor gráfico de los chips Intel Core i y una GPU GeForce, en base a las aplicaciones que estén funcionando en cada momento. AMD también posee una tecnología semejante, llamada PowerXpress, que conmuta entre un procesador gráfico discreto ATI Mobility Radeon HD y el núcleo gráfico de los chipsets AMD M780G.

La tecnología de Lucid está diseñada para la próxima generación de microprocesadores Intel Core i3/i5/i7, con núcleo Sandy Bridge, y las GPUs compatibles con DirectX 11 AMD Radeon y Nvidia GeForce. Entre los requerimientos de Virtu se incluye conectar la pantalla directamente a la salida del motherboard correspondiente al núcleo de Sandy Bridge (DVI, HDMI, etc.) y utilizar el sistema operativo Windows 7.

“El feedback de los usuarios ha sido tremendo, dado que Virtu resuelve un desafío de larga data para asignación dinámica de recursos”, señaló Remez. “Ahora los equipos de escritorio, que en la vida real rara vez se apagan, tendrán la máxima performance gráfica y características cuando las necesiten, ahorrando energía cuando no las necesiten”.

Los interesados en implementar la tecnología Virtu podrán evaluar una versión de demostración, mientras que una versión beta estará disponible durante el mes de enero. Adicionalmente, el software será demostrado durante la próxima edición del Consumer Electronics Show de Las Vegas.

Las 13 mujeres más influyentes de 2010

Es bien sabido que, en el rubro tecnológico, el género femenino tiene una representación minoritaria. Pero eso no impide que haya mujeres en cargos que definen el rumbo de las empresas o incluso de la industria. Es por eso que el blog Chip Chick –dedicado a analizar la actualidad tecnológica desde una perspectiva femenina– elabora un ranking de las 13 mujeres más influyentes de la tecnología.

Desde 2004, el blog Chip Chick se dedica a divulgar la actualidad en materia de tecnología para mujeres. Un rápido vistazo a sus posts permite observar que el foco del blog está puesto, en buena medida, en destacar los aspectos fashion de los nuevos dispositivos que salen al mercado, siendo una especie de “Cosmopolitan” de la blogósfera. Pero no por eso se trata de un blog netamente frívolo.

A fines de diciembre, Zara Rabinowicz –corresponsal europea del blog– publicó el ranking 2010 de las 13 mujeres más influyentes del rubro tecnológico. Al leerlo, se descubre que muchas de las tecnologías que marcaron tendencias en 2010 se hicieron realidad gracias a las mujeres que tuvieron roles decisivos en los proyectos correspondientes.

Estas son las trece destacadas en el blog:

Alicia Navarro, CEO de Skimlinks. Creadora del exitoso servicio de links afiliados Skimlinks.

Katie Stanton, estratega internacional de Twitter. Conocedora como pocas de la realidad de los medios sociales.

Sophie Scott, neurocientífica. Destacada por hacer la ciencia relevante para la vida diaria de las personas.

Jenny Rohn, bióloga celular. Es blogger y editora de LabLit, un sitio de ficción para la ciencia.

Lisa Kelly, camionera de riesgo. Forma parte del grupo Ice Road Truckers (camioneros de rutas de hielo) del History Channel, conduciendo grandes vehículos a través de toda clase de terrenos.

Bonnie Ruberg, periodista de juegos. Autora de numerosos artículos acerca de la psiquis de la jugadora de videojuegos y destructora de los estereotipos que describen la relación de las mujeres con los juegos de video.

Caterina Fake, cofundadora de Flickr y Hunch. Experta en conducir al éxito a nuevos emprendimientos.

Ursula Burns, CEO de Xerox. La segunda mujer en ocupar el cargo de CEO en Xerox.

Sheryl Sandberg, COO de Facebook. Estuvo en Google hasta que impresionó profundamente a Mark Zuckerberg (creador de Facebook) durante una conferencia.

Oprah Winfrey, conductora de programas de TV. También es CEO de Harpo Productions.

Leslie Sobon, vicepresidente de marketing mundial en AMD. Responsable de que las cualidades de los productos de AMD sean claras y entendibles para el público.

Diane Nelson, presidente de DC Entertainment. Es gracias a ella que Superman, Batman o Linterna Verde siguen vivos en las páginas de los comics.

Genevieve Bell, directora de investigación en interacciones y experiencias en Intel. Su equipo comenzó las investigaciones en TVs inteligentes hace muchos años, haciendo posible el reciente lanzamiento de GoogleTV, en el que Intel colaboró con Google, Logitech y Sony.

lunes, 10 de enero de 2011

Las 10 Tablets más calientes de CES 2011

CES 2011, la feria de tecnología de consumo más importante del mundo, tuvo lugar en Las Vegas, Estados Unidos, del 6 al 9 de enero. Allí, asistieron alrededor de 120 mil personas de más de 130 países. En esta oportunidad, las miradas estuvieron enfocadas en las Tablets, dónde las más visibles fueron las iPad y las Galaxy Tab. Además, como sucedió en ediciones anteriores, se profundizó el formato 3D y también la unión de Internet y televisión en un solo aparato. 

En cuanto a smartphones, el sistema operativo más visto fue Android, creado por Google. El propio Google, Microsoft, Sony, Toshiba, Motorola, Samsung, Dell, HP, Lenovo, fueron algunos de los más de 2 mil expositores que expusieron sus novedades. Steve Ballmer, CEO de Microsoft, brindó una conferencia en la apertura de la feria. Por su parte, Nintendo reapareció en el evento tras 16 años y presentó su consola portátil 3DS. En este informe especial, ITSitio eligió los 10 Tablets PC más impactantes de la muestra y se los muestra al detalle y con todas sus características.


Ilustración: Leo Fernández Chajud

Intel presentó la nueva generación de sus chips Core i

En las vísperas del Consumer Electronics Show 2011, Intel develó oficialmente los detalles de sus nuevos procesadores “Sandy Bridge”, junto con sus chipsets y adaptadores asociados. Los nuevos chips mantendrán la nomenclatura Core i3/i5/i7 de la generación 2010, y se destacarán por ofrecer mayor potencia gráfica y una renovación de sus tecnologías de video.

Según Intel, las principales características de la segunda generación de procesadores Core, basados en una nueva micro arquitectura de 32nm, incluyen un desempeño más eficiente en cuanto al consumo energético y mayor performance de gráficos 3D. Una nueva versión de la tecnología Intel Turbo Boost, llamada Turbo Boost 2.0, administra dinámicamente la frecuencia de cada núcleo en forma individual, balanceando el umbral térmico para evitar un sobrecalentamiento.

Probablemente, la característica más interesante de los Sandy Bridge sea su sistema mejorado de gráficos de alta definición. Anteriormente, los gráficos integrados en los chips Intel no eran capaces de brindar un nivel de performance razonable incluso en los juegos 3D más elementales. En cambio, una PC portátil de prueba equipada con Sandy Bridge, demostró que sus gráficos integrados HD permiten ejecutar Street Fighter IV a 1.600 x 900 a un índice de cuadros de 27 fps.

Otro aspecto que experimentó una actualización gracias a Sandy Bridge es la tecnología Wireless Display (también denominada WiDi) de Intel. Esta tecnología permite transmitir, en forma inalámbrica, una corriente de video desde una computadora a un receptor Netgear, el cual a su vez se conecta a una TV o pantalla vía HDMI.

La versión original de WiDi presentaba notables limitaciones, como por ejemplo una demora significativa en la señal, lo cual hacía la tecnología inutilizable para operar un monitor secundario en tiempo real. La nueva versión de WiDi que acompaña a Sandy Bridge eleva la resolución máxima admitida de 720p a 1080p, y además ofrece soporte para contenidos protegidos a través de un nuevo servicio denominado Intel Insider, el cual actúa como un camino seguro para contenidos digitales. Durante el CES 2011, Intel planea brindar más detalles acerca del servicio Intel Insider.

La nueva camada de procesadores comprende 9 modelos de la línea Core i7 (incluyendo un Extreme Edition), 4 modelos Core i5 y un modelo Core i3.

Se concreta la división de Motorola en dos compañías

El gigante norteamericano de las telecomunicaciones, Motorola, ha oficializado su división en dos compañías, justo en un momento en el que el sector tecnológico sigue tendiendo a las fusiones y adquisiciones. Desde ahora, coexistirán por separado Motorola Mobility, dedicada ahora en exclusiva a la fabricación de teléfonos móviles y otros aparatos, y Motorola Solutions, especializada en servicios móviles para gobiernos y empresas.

Motorola Solutions (MSI) ofrecerá todo lo relacionado a soluciones de movilidad para empresas y mercados verticales, incluyendo áreas como la Seguridad Pública y Gobierno, con productos tales a la captura de datos, soluciones WLAN, etc.

Motorola Mobility (MMI) se encargará del negocio de dispositivos móviles como terminales, smartphones y tabletas, así como los productos de consumo que comercializaba hasta ahora la compañía.

"Tras más de dos años de planificación, hoy comenzamos a operar como una compañía sólida e independiente en la Bolsa de Nueva York", destacó el presidente y consejero delegado de Motorola Mobility, Sanjay Jha.

Asimismo, su homólogo en Motorola Solutions, Greg Brown, destacó que la compañía que dirige se encuentra "bien posicionada" de cara al futuro y señaló que "la empresa tiene una excelente plataforma desde la cual construir las oportunidades de crecimiento que beneficiarán tanto a los clientes como a los accionistas y a los empleados".

En efecto, el movimiento lleva dos años tomando forma y diversos rumores situaban al multimillonario e inversor en Motorola Carl Icahn como responsable de esta separación. Sin embargo, desde la compañía aseguran que la división se debe a una estrategia enfocada a mejorar el servicio hacia sus clientes.

Las acciones de Motorola Mobility, dedicada ahora en exclusiva a la fabricación de teléfonos móviles y otros aparatos, cerraron con una subida de más del 9% su debut en la Bolsa de Nueva York.

Los inversores recibieron así con entusiasmo la nueva etapa que inicia Motorola como dos empresas independientes, Motorola Mobility y Motorola Solutions, y prestaron especial atención a la primera, cuyas acciones ascendieron un 9,52%, hasta los 33,12 dólares.

Motorola Mobility, que debutó en el parqué neoyorquino con el símbolo MMI, formó parte de las empresas que lideraron las ganancias en el sector tecnológico y recibió el respaldo de los inversores, quienes esperan, como la compañía, que la división impulse el valor de los negocios diferenciados a los que se dedica y los haga más rentables.

El debut de las acciones de Motorola Solutions (MSI) fue también positivo y sus títulos acabaron la sesión a 39,77 dólares cada uno, lo que supone un avance del 6,59% en su primera jornada en Wall Street.