viernes, 17 de diciembre de 2010

El móvil en la muñeca

La compañía inglesa Swap ha desarrollado un nuevo teléfono celular de pulsera, similar a un reloj, que tiene una ranura para tarjetas SIM y agrega funciones como reproducción MP3 y MP4, ranura para tarjetas MicroSD y bluetooth.

Camino a la miniaturización, ya salió a la venta el denominado sWaP Rebel, un reloj de pulsera con funciones de teléfono móvil desarrollado por la empresa inglesa Swap, que acepta tarjetas SIM e incluye cámara fotográfica, reproductor de música y video (soporta Midi, WAV, AAC, MP3, 3GP y MP4) y hasta radio FM.

La idea de relacionar las funciones del teléfono móvil con un reloj no es totalmente nueva y ya existen algunos dispositivos que se acercan a esta idea, como el 'Sony Ericsson LiveView', un reloj que permite controlar algunas funciones del teléfono móvil.

Pero la innovación que agrega este modelo de Swap es que incluye una tarjeta SIM propia. De ese modo, se convierte en el primer reloj que permite a los usuarios realizar llamadas, tomar fotos y escuchar música sin necesidad de estar conectado a otro dispositivo.

Además, este nuevo reloj-teléfono se destaca por su pantalla táctil de 1,46 pulgadas -con una resolución de 176 × 132 píxeles- y su memoria interna de 128 MB extensible hasta los 8 GB mediante tarjeta micro SD.

Cuenta con una batería de 240 mAh y puerto USB 2.0. También dispone de bluetooth y conexión a redes GDM. Se puede configurar en 8 idiomas distintos, entre ellos el español.

Por el momento, este adelanto solo está a la venta en algunas tiendas del Reino Unido, a un precio que ronda los 200 euros.

Aqui le dejo algunas fotos





Todo lo que hay que saber sobre PCI Express (parte IV)

Para concluir este tutorial sobre el bus PCI Express, veremos las características de la versión 3.0 del bus, la cual fue recientemente aceptada como un estándar por el grupo especial de interés de PCI (PCI-SIG), luego de muchas postergaciones. Se estima que los primeros productos compatibles con PCIe 3.0 aparecerán a fines de 2011.

La especificación base de PCI Express 3.0 se difundió el pasado mes de noviembre. Ya en Agosto de 2007, el PCI-SIG había anunciado que PCI Express 3.0 presentaría una tasa transmisión de 8 gigatransferencias por segundo (GT/seg.), y que sería retro-compatible con las implementaciones existentes de PCIe; el estándar recientemente anunciado confirmó tales anuncios.

Las nuevas características de PCIe 3.0 incluyen numerosas optimizaciones para mejorar la señalización y la integridad de los datos, incluyendo ecualización de transmisor y receptor, mejoras PLL, recuperación de datos por reloj y mejoras en los canales para las topologías actualmente admitidas.

Luego de un análisis técnico de la factibilidad de escalar el ancho de banda de las interconexiones PCIe, el PCI-SIG encontró que la velocidad de 8 GT/seg. podía implementarse mediante una tecnología de proceso de silicio de uso masivo, y con materiales e infraestructuras existentes y de bajo costo, manteniendo a la vez total compatibilidad con los protocolos de PCIe.

PCIe 2.0 ofrece 5 GT/seg., pero emplea un esquema de codificación 8b/10b que resulta en un overhead de 20 por ciento en la tasa de transferencia. PCIe 3.0 elimina el requerimiento de codificación 8b/10b, reduciendo el overhead a aproximadamente 1,5 por ciento. En conclusión, los 8 GT/seg. de PCIe 3.0 ofrecen en forma efectiva el doble del ancho de banda de PCIe 2.0, pudiendo transmitir cerca de 32 GB/seg. en una configuración x16.

El 18 de noviembre pasado, el PCI-SIG liberó oficialmente la especificación final de PCIe 3.0, habilitando a los miembros del comité para que comiencen a desarrollar dispositivos basados en esta nueva versión de PCI Express. La especificación puede consultarse en esta dirección: http://www.pcisig.com/specifications/pciexpress/base3/

Se suele tomar un lapso de aproximadamente doce meses entre la aprobación de las especificaciones finales de los buses PCI y el lanzamiento de productos que lo implementen, por lo cual es posible suponer que los primeros productos compatibles con PCIe 3.0 saldrán al mercado a fines de 2011.

jueves, 16 de diciembre de 2010

Las empresas tecnológicas más cool

Apple, Google, y Facebook se encuentran dentre de las 5 empresas “más cool”, según la encuesta “Coolest & Gaps”, mientras que BlackBerry ocupó el puesto número 11 y Nintendo, el 15. Descubre más detalle sobre este ranking que la consultora Allegro 234 desarrolla en base a una encuesta online, en la cual este año participan más de 4.200 personas de 24 países diferentes.

Entre las primeras veinte marcas mencionadas en la encuesta Coolest & Gaps 2010, en la cual participaron más de 4.200 personas de 24 países diferentes, cinco de ellas sólo tienen presencia online: Google, Facebook, Amazon, LinkedIn y Twitter.

Según esta encuesta desarrollada por la empresa de marketing Allegro 234, además, tres de las cinco marcas más "cool" son tecnológicas: Apple (que se mantiene en el primer puesto por tercer año consecutivo), Google y Facebook. Otras empresas tecnológicas que se cuentan entre las preferidas son BlackBerry (en el puesto 11) y (en el 15).

Se considera como la experiencia de marca más “cool” a aquellas que se anticipan y sorprenden ante la necesidad en la vida de una persona y que siguen sorprendiendo, como por ejemplo, Google o Amazon.

Por los resultados de la encuesta de este año, las marcas mencionadas tienen en común la combinación de experiencias offline y online.

Además, se experimenta mayor diversidad de competidores en cada sector, reduciendo los votos de las más populares.

Por otra parte, desde el punto de vista del consumidor contemplar una marca como ‘cool’ no es sinónimo de fidelidad así como tampoco lo es de lujo. De hecho, las marcas de lujo se han igualado, por ejemplo, en el sector del automovilismo donde Ferrari se ve superada por KIA o Hyundai.

Como curiosidad, en la encuesta de este año se destacan casos particulares como el de España, donde Amazon es la marca más "cool", seguida de Apple y Blackberry. Francia, por su parte, se decanta por el trío Apple, Carrefour y Coca-Cola, mientras que el segundo puesto holandés es para Heineken. Alemania, en cambio, concede el podio a Apple, Red Bull y Stella McCartney.

Y para ti, ¿cuál es la marca más cool?

miércoles, 15 de diciembre de 2010

Como burlar los bloqueos y filtro de la red: TOR - Funcionamiento

En la anterior entrega de la serie, explicábamos los peligros que acechan a la Neutralidad de la red, y como programas como TOR combaten dichos peligros. Y aunque no fue más que una breve explicación de lo que pueden hacer personas interesadas en invadir la privacidad. Ser que muchos de ustedes se preguntaran como protegerse.

Solución #1

Parte de la solución, es implementar una red anónima distribuida




Programas como TOR, ayuda a reducir los riesgos de los ataques sostificados y sencillo de tráfico al distribuir las transacciones entre diferentes lugares de la red, logrando así que no exista un único punto de conexión al destino. La idea es muy parecida a cuando queremos despistar a alguien que nos esta siguiendo, para luego, paradojicamente borrar las huellas. En vez de seguir el camino directo entre el origen y el destino, TOR toman los paquete y los distribuye a través de su red de túneles virtuales de forma aleatoria, activando cierto relés para que un observador no pueda seguirnos la pista, ni descifrar hacia donde se dirigen y adonde van los paquetes realmente.




Para proteger la conexión, la red TOR, crea de de forma incremental una serie de conexiones encriptada a través de enlaces de red. El circuito se extiende un tramo a la vez, y cada repetido en el tramo solo conoce el repetidor que le proporciona el dato. Ningún repetidor individual conoce el tramo completo que un paquete ha tomado. El cliente negocia un conjunto distinto de claves de encriptación para cada tramo a lo largo del circuito para limpiar la huella digital de la transacción.




Una vez, que la conexión esta hecha, los datos son transportados por los túneles virtuales a través de las diferentes aplicaciones que usar el redireccionamiento proxy. Debido a que cada repetido solo ve, un tramo de la conexión, ni un espía, ni un repetidor intervenido (o con filtro) puede utilizar análisis de tráfico a los paquetes en la fuente y en el destino. 

TOR funciona con flujo del protocolo TCP y puede ser utilizado por cualquier aplicación que utilice SOCKS.


Conclusiones


Por eficiencia, el software de TOR utiliza la misma conexión durante 10 minutos aproximadamente, y despues de ese tiempo toma un nueva conexión para evitar que puedan asociar la primera conexión con las subsiguientes. 

Sin embargo, el funcionamiento de TOR esta basado en la capa de transporte de datos, por tanto hace necesario la utilización de software específicos para mantener un completo anonimato. Por ejemplo, puedes utilizar Proxy Web (como es el caso de Proxy) mientras navega para bloquear Cookies y ocultar información  sobre tu navegador

Otro punto a tomar en cuenta, es ser inteligente, mientras navegas de forma anónima y segura, evitar el utilizar datos relevantes en formularios web; ademas tenga en cuenta que, al utilizar este método puede verse reducido el tiempo de respuesta en la petición de página web.

Como burlar los bloqueos y filtro de la red: TOR - Introducción

En estos tiempos que vivimos, que las grandes compañías de Internet están aliadas con los gobiernos corruptos, y pueden coartar la neutralidad de la red. Debemos estar preparados ante la eventualidad de que bloqueen alguna web e inclusive algunas redes sociales a través de filtros.

De esa necesidad, nace TOR, que no es mas que una serie de túneles virtuales que permiten a las personas y grupos mejorar su privacidad y seguridad mientras navegan entre otros muchos usos (existen Desarrolladores que utilizando los túneles de TOR para crear nuevos medios de comunicación con la única finalidad de mejorar la privacidad).

Su principal uso, es evitar que sitios web lo rastreen, o para conectarse a sitios de noticias, servicios de mensajería instantáneas (Skype, Windows Live Messenger, etc) o similares cuando estos son bloqueados por un proveedor de servicios. También muchos periodistas utilizar TOR para comunicarse con sus confidentes y disidentes de manera segura. 

¿Por que utilizar TOR?

TOR fue diseñado para burlar lo que se conoce coloquialmente vigilancia electrónica, que no es mas que un análisis de tráfico. Un análisis de tráfico puede ser utilizado para deducir quien esta hablando de que en una red pública. Conocer el origen y el destino de un tráfico de red, sirve para hacer un rastreo de tu comportamiento e interés y conlleva a una violación a la privacidad y la neutralidad con la que originalmente fue diseñado y pensado la Internet pública. .

¿Como funciona un análisis de tráfico?

Todo aquellos que enviamos por Internet, se enviado a través de algo llamado paquetes de datos. Un paquete de dato esta compuesto de una cabecera y la carga de datos a enviar propiamente dicho. La carga de datos puede ser un correo electrónico, una página web, un archivo de audio, etc. Y aunque puede estar encriptado. El paquete propiamente dicho le dice mucho al análisis, ya que la cabecera revela el origen, el destino, tipo de dato y tiempo de duración del envió.

El principal problema de la privacidad en redes como Internet, es que el receptor debe mirar las cabeceras usada para volver a enrutar la información. El receptor puede ser un intermediario autorizado (como los proveedores de servicios), pero también puede existir intermediario no autorizados. 

Una forma muy común de análisis de tráfico es colocarse entre en emisor y el receptor, y mirar las cabeceras de los mensajes. Pero ahí personas que pueden hacer uso de potentes análisis de tráfico para detectar patrones de comportamiento de ciertos individuos u organizaciónes y la encriptación no sirve de nada ya que no es posible ocultar las cabeceras. 

Conclusiones

Como podemos apreciar, el burlar los bloqueos y filtro en la red no es nada fácil. Pero programas como TOR (considerado por mucho como el mejor) nos ayuda en gran medida. En la próxima entrada de esta serie, explicare como funciona y como instalarlo en Windows


Actualización



Como burlar los bloqueos y filtro de la red: TOR - Funcionamiento

martes, 14 de diciembre de 2010

¿Se acerca el desenlace de la historia del PC?

Este año esta a punto de terminar, lo mismo el el primer decenio del siglo XXI, y hemos visto como la movilidad ha sido el mayor avance en cuanto a dispositivos, y lo podemos ver día a  día.

Existen más gadget cómodos y portables que cumplen varias de las funciones del computador de escritorio. Además, van surgiendo tecnologías que anuncian que el futuro será “el no PC” haciendo aún más evidente que un cambio se aproxima: La Virtualización.

¿Que debemos esperar en el próximo decenio?

El fin del computador está cerca: “Los argumentos que fundamentan esta afirmación son, por un lado, que los dispositivos personalizados -según las necesidades particulares de cada usuario- están a la vanguardia. Y, por otro, que cada vez son más los gadgets que compiten con el PC”.

Pero no son sólo ellos la amenaza de los computadores: la idea de proveer el escritorio como servicio está cobrando cada vez más fuerza. En un futuro no nos importará tener un computador, ya que podremos utilizar el escritorio personal en cualquier dispositivo. Esta tendencia está siendo impulsada por una nueva generación nacida con 500 canales de TV, teléfonos celulares y computadoras con conexión a Internet a su disposición, que vienen a imponer una nueva forma de acceder a la tecnología.

Los usuarios quieren acceder a todo de la manera más simple y desde cualquier lugar y dispositivo; conocen la tecnología disponible y no aceptan una respuesta negativa. La virtualización juega un rol fundamental en este proceso de cambio, ya que permite entregar el escritorio como un servicio, independiente del soporte tecnológico que se esté utilizando y de esta manera, tendremos nuestro desktop personalizado en cualquier PC -laptop o de escritorio- o, incluso, en el celular.

"Se cree que el proceso de desaparición del computador tradicional se iniciará primero en las empresas. Esto se asocia, principalmente, a la variable reducción de costos: al contar con el escritorio en cualquier dispositivo, se reducen los gastos fijos mensuales de mantenimiento e infraestructura de IT" - Enrique Pla, Vice Presidente de ventas para Latinoamérica y Caribe de Citrix

Asimismo, se logra una mayor flexibilidad laboral y un mejor desempeño de los empleados. En el futuro, probablemente esta tendencia también llegue a los hogares, donde los usuarios querrán acceder a sus escritorios, cualquiera sea el lugar en el que se encuentren, detalla.

Puedo vaticinar, que la virtualización de escritorios está creciendo vertiginosamente, implementando estilos de trabajo virtuales y las empresas que sean capaces de ofrecer a sus clientes las soluciones más atractivas en materia de Cloud Computing, permitiendo la aceleración de los escritorios y haciendo realidad la computación en la Nube son las que obtendrán los mayores beneficios.

Todo lo que hay que saber sobre PCI Express (parte III)

Anteriormente vimos los principios básicos de PCI Express y las razones por las que esta tecnología dejó atrás una larga tradición de buses con cables paralelos para adoptar una forma de comunicación serial mucho más eficiente. En esta ocasión veremos los varios modos de operación de PCI Express y los distintos tipos de slots de admite.

Ya hemos visto que el bus PCI Express ha sido desarrollado para sustituir a los buses PCI y AGP. Es compatible en términos de software con PCI, lo que significa que los antiguos drivers y sistemas operativos no necesitan cambios para dar soporte a PCI Express.

En términos generales, PCI Express opera en modo full-duplex: la información es transmitida a través de dos pares de cables llamados enlaces (o, en inglés, “lanes”), utilizando un sistema de codificación 8b/10b; el mismo que se usa en las redes Fast Ethernet. Cada enlace permite una tasa de transferencia máxima de 250 MB/seg. en cada dirección; casi el doble de lo que admite el bus PCI.

El bus PCI Express es capaz de escalar a mayores niveles de performance simplemente combinando varios enlaces. Pueden encontrarse sistemas PCI Express con 1, 2, 4, 8, 16 y 32 enlaces. Por ejemplo, la tasa de transferencia de un sistema PCI Express con 8 enlaces (x8) es de 2 GB/seg.

En la siguiente tabla pueden verse las diferencias en las tasas de transferencia de PCI, AGP y PCI Express.

 Tipo de Bus  Tasa de transferencia máx.
 PCI  133 MB/seg.
 AGP 2x  533 MB/seg.
 AGP 4x  1.066 MB/seg.
 AGP 8x  2.133 MB/seg.
 PCI Express x1  250 MB/seg.
 PCI Express x2  500 MB/seg.
 PCI Express x4  1.000 MB/seg.
 PCI Express x16  4.000 MB/seg.
 PCI Express x32  8.000 MB/seg.

PCI Express admite conexión “en caliente”, lo que implica que las placas PCI Express pueden colocarse y extraerse sin necesidad de apagar el equipo.

Tipos de slots

El bus PCI Express define diferentes tipos de slots en base al número de enlaces en el sistema. Por ejemplo, el tamaño físico de un slot PCI Express x1 es diferente (más corto) que un slot PCI Express x4, y éste a su vez es más corto que un slot PCI Express x16. Los slots PCI Express x16 fueron desarrollados principalmente para la conexión de placas gráficas.

En la foto pueden apreciarse las diferencias entre los slots PCI Express x1, x4 y x16, y un bus tradicional PCI de 32 bits.

Para cerrar este tutorial sobre el bus PCI Express, en la próxima entrega veremos la recientemente estandarizada versión 3.0 del bus que todavía tiene mucho para ofrecer.

lunes, 13 de diciembre de 2010

15 cuestiones sobre Unity que todo ubuntero necesita saber

1- ¿QUE ES UNITY?


Unity es la nueva interface para el escritorio que se usará por defecto en Ubuntu 11.04 a partir de abril de 2011. Ha causado cierta polémica, como en su día la causó el cambio de posición de los botones, pero aún es demasiado pronto para decir si su inclusión ha sido una decisión acertada o no. Es importante recordar que Unity no es un Dock, y sí podría ser considerado como un reemplazo del gnome-panel. Dicho esto, la primera cuestión (qué es) ya está respondida. Quedan 14 más.

2- ¿PODRÉ USAR EL ESCRITORIO TRADICIONAL DE GNOME?

Claro, no debes preocuparte. Cuando instales Ubuntu 11.04 arrancará por defecto utilizando Unity pero, desde la ventana de inicio de sesión, podrás elegir “Ubuntu Classic Desktop” para poder iniciar el sistema con el escritorio Gnome de toda la vida.

3- ¿PODRÉ CAMBIAR EL TAMAÑO O LA POSICIÓN DE UNITY?

Desgraciadamente, en principio la respuesta es no. El tamaño y la posición de Unity se mantendrán por defecto. Pues de acuerdo al equipo de Diseño de Canonical, Unity es una interface que está pensada para ser utilizada en dispositivos táctiles, de ahí el tamaño tan grande de los iconos (para facilitar su localización y ser presionados en este tipo de pantallas) y su disposición actual. Es posible que cuando Unity salga definitivamente para ser usado en un escritorio normal, salga algún tipo de hack para poder cambiar su tamaño, pero en principio y esto no está previsto. De notar ahí su característico aspecto donde se muestran los principales iconos por cercanía al actual que estamos usando y el resto permanece en un efecto acordeón pero que se activarán y mostrarán correctamente cuando acerquemos el mouse.

4- ¿PUEDO CREAR LANZADORES PERSONALIZADOS A OTRAS APLICACIONES?

En principio sí. Prueba con este link o éste otro.



También Unity tiene un “Lugares” donde se podrá acceder a las principales aplicaciones.

5- ¿PUEDO EJECUTAR UNITY DESDE UNA MÁQUINA VIRTUAL COMO VIRTUALBOX?

Sí podrás. Pero a fecha de hoy existe un bug en VirtualBox que impide que funcione con normalidad. Habrá que esperar una versión más avanzada.

6- ¿CÓMO PUEDO CAMBIAR EL FONDO DE PANTALLA EN UNITY?

Puedes cambiar el fondo de pantalla desde Apariencia -> Fondos de pantalla.

7- ¿DÓNDE SE ENCUENTRA LA BARRA DE BÚSQUEDA DE GOOGLE EN UNITY?

En algunos diseños previos de Unity habrás visto que había una barra de búsqueda de Google en el panel superior. Esto no está implementado así en el actual Unity y la capacidad de búsqueda será implementada a posteriori en la sección “Lugares”.

8- ¿DÓNDE ESTÁ EL ÁREA DE NOTIFICACIÓN?

Si has instalado Unity te habrás llevado una pequeña gran sorpresa. En Unity, el área de notificación desaparece y no, no es un bug, simplemente desaparece. Las aplicaciones tendrán que adaptarse y emplear los indicadores para poder reflejar su estado o cambios. Es decir, aplicaciones como Skype no muestran un icono de mensajes pendientes en el panel y deberán adaptarse para poder notificar estos cambios.

9- ¿PUEDO INICIAR UNA SEGUNDA INSTANCIA DE UNA APLICACIÓN MEDIANTE EL LANZADOR DE UNITY?


Pues en teoría si se puede o se podrá. En alguna captura de pantalla se 
muestra cómo la interface con Compiz permite lanzar segundas o más instancias de las aplicaciones desde el lanzador.

10- AL ACTUALIZAR UBUNTU PARA INSTALAR UNITY SOLO VEO UNA PANTALLA EN BLANCO

Cuando Unity 11.04 está implementado como plugin de Compiz, se resuelve 
del siguiente modo:

- Desinstale por completo compiz (el que tenía) y reinstálelo de nuevo con los nuevos repositorios.

- Desinstale nautilus elementary

- Instale ccsm y lo ejecute (configurador de compiz)

- Active Unity como plugin de Compiz- En terminal ejecute “compiz –replace”

Con ello ya se muestra la interfaz correctamente.

11- ¿SE PUEDEN APLICAR TEMAS A UNITY?

Sí, en relación a los iconos basta con seleccionar un nuevo tema de iconos y automáticamente serán aplicados.

12- ¿SE PUEDE AUTO-OCULTAR EL LANZADOR DE UNITY?

Sí, pero debes activar la opción desde la configuración del plugin.

13- ¿PODEMOS CAMBIAR EL ADMINISTRADOR DE ARCHIVOS UTILIZADO POR UNITY?

Sí, iniciamos gconf-editor y buscamos la clave:

/desktop/gnome/applications/component_viewer/exec

Allí cambiamos la entrada: nautilus %s

por pcmanfm %s o el administrador que queramos usar.



14- ¿PODEMOS USAR OTROS LANZADORES A LA VEZ QUE UNITY?

Sí, porque Unity no es un dock propiamente dicho. Conjuntamente con Unity podremos usar otros lanzadores como Docky o AWN por ejemplo (aunque esa no es la idea de los diseñadores).



15- ¿NO HAY ALT+F2 EN UNITY?

Esto es un bug, pero si necesitas ejecutar un lanzador de aplicaciones siempre puedes instalar gnome-do:

$ sudo apt-get install gnome-do


y ejecutarlo con las combinaciones de tecla: + Espacio 


Fuente: Ubuntu Life

Chrome OS: ¿ha nacido un fuerte competidor para Windows?

Ya es oficial. El sistema operativo en nube de Google Chrome OS ha sido presentado el martes 7 de diciembre en San Francisco por el gigante de las búsquedas. Pretende ser nada menos que el primer Linux que acabe con el monopolio de Windows en ordenadores de consumo, aunque con una plataforma totalmente enfocada a la web, diametralmente opuesta a la instalación y funcionamiento local de los sistemas Microsoft. Pero será recién a mediados de 2011 cuando lleguen a las tiendas los primeros portátiles equipados con Chrome, de mano de Acer y Samsung y los chips de Intel. ¿Podrá esta plataforma competir con Windows y Mac OS X?

El principio de la plataforma es claro: los portátiles estarán optimizados para el trabajo en la red, donde los usuarios pasan la mayor parte del tiempo. De esta manera, las aplicaciones funcionarán alojadas en la "nube" en lugar de en el disco duro. De lo que se trata es de lograr un sistema más rápido, sencillo y seguro "evitando los dolores de cabeza de los ordenadores tradicionales".

Para ello, los equipos vendrán bien equipados con novedosas funciones detalladas en su página web. Una de las más interesantes es "Google Cloud Print" que permitirá la impresión sin cables. Los tiempos de encendido y apagado se reducen sustancialmente: instalar Chrome por primera vez llevará menos de 60 segundos. Además, los dispositivos equipados con Chrome OS podrán "ser compartidos" con otros usuarios del sistema operativo de manera remota. Y el as en la manga de la presentación: Verizon se encargará en Estados Unidos de que estos portátiles lleguen al mercado con 3G integrado. En lo que respecta a la seguridad, el sistema se encargará de encriptar la información y podrá detectar código maligno para deshacerse de él, además de actualizarse automáticamente a cada nueva versión disponible del sistema operativo.

Programa piloto

Sin embargo, aún queda mucho por hacer. Algunas de las aplicaciones presentadas y otras que están por venir necesitan pasar por un periodo de pruebas que asegure que llegan al mercado con la mayor estabilidad posible. Para ello, y pensando también en los que no quieren esperar tanto, Google ha puesto en marcha un programa piloto al que pueden presentarse como voluntarios todos aquellos que deseen probar ya y colaborar para perfeccionar la plataforma.

Los seleccionados recibirán un portátil Cr-48 como unidad de prueba, un dispositivo que, supuestamente, se enciende en 10 segundos, incluye una webcam y una pantalla LCD de 12 pulgadas. De momento habrá que esperar a las primeras impresiones de los periodistas presentes en la rueda de prensa, que, como golpe de efecto final, se han llevado uno por persona.

Por su parte, Chrome Web Store, será el centralizador y suministrador de aplicaciones, juegos y herramientas web.

En cuanto al Chrome Web Store, se trata de la anunciada tienda en línea de aplicaciones web. Ya está disponible en Estados Unidos y se abrirá internacionalmente al resto de mercados a lo largo del próximo año. La tienda (al más puro estilo de la Android Market para smartphones) servirá como centralizador y suministrador de las aplicaciones, juegos o herramientas creadas por Google, terceras compañías y desarrolladores externos.

Desarrolladores que han sido incentivados a tope ya que Google cobraría únicamente un cinco por ciento de los ingresos de la aplicación cuando lo habitual en las plataformas de smartphones es cobrar el 30 por ciento.

viernes, 10 de diciembre de 2010

Google hizo 40 compras a lo largo de 2010

La diversificación del negocio que está llevando a cabo Google y su expansión horizontal y vertical, son claros objetivos estratégicos que han llevado a la compañía a adquirir 40 empresas en lo que llevamos de año. Su último objetivo fue el portal de cupones y ofertas Groupon, empresa por la cual ha ofrecido cinco mil 300 millones dólares, en lo que si se concreta consistirá su mayor adquisición hasta el momento.

Google está progresando en su desarrollo hacia otras fuentes de ingresos más allá de su dominio de la publicidad de búsquedas online. Así lo demuestran los resultados de su tercer trimestre de año, por primera vez desglosados con dos nuevos segmentos: movilidad (servicios Google en dispositivos móviles) y venta de proyección de publicidades en sitios de Internet (banners, publicidades interactivas y de vídeos…), y que ya representan más del 10% del total de la facturación. Los ingresos de la proyección de publicidades han generado en este trimestre más de 2.500 millones de dólares; y en movilidad, principalmente por Android, más de 1.000 millones.

En total, Google ha obtenido una facturación de 7.290 millones de dólares, lo que representa un 23% más que en el mismo periodo del año anterior. Y el beneficio neto ha subido un 32% hasta los 2.170 millones, ayudado por una mejoría en las condiciones económicas y el aumento de los presupuestos para publicidad.

Con todo, estas cifras demuestran la diversificación del negocio que está llevando a cabo Google, y su expansión horizontal y vertical, claros objetivos estratégicos. Con este fin, la compañía ha adquirido ya 40 empresas en lo que llevamos de año, y en áreas que van desde la publicidad móvil hasta los juegos sociales. Y según parece, aún tiene liquidez para seguir comprando; a 30 de septiembre de este año, tenía 33.400 millones de dólares.

Ahora, el gigante de Internet busca comprar el portal de cupones y ofertas Groupon, lo que consistiría su mayor adquisición hasta ahora. El precio de compra incluye un bono de 700 millones de dólares más para sus ejecutivos en caso de un buen desempeño de la empresa en los próximos años.

Fuentes cercanas a las negociaciones informaron al blog 'All Things Digital', del periódico The Wall Street Journal, que el acuerdo para comprar podría quedar concluido la próxima semana, aunque también previnieron que las negociaciones podrían fracasar.

De concretarse, Google, se posicionará como la compañía poseedora del principal sitio de Internet en el manejo del comercio local en línea y obtendrá enormes cantidades de datos sobre los hábitos de compra del consumidor y la información comercial en todo el mundo.

De acuerdo con analistas, la posible compra de Groupon a pesar del alto precio, constituiría una acción clave por parte de Google, que ha intentado durante mucho tiempo entrar en el espacio de la publicidad local, con resultados mixtos.

Groupon, fundado apenas en 2008 en Chicago, se ha constituido como uno de los sitios de Internet de más rápido crecimiento en el mundo, logrando dominar en meses el enorme mercado para las compras de descuento a través de la distribución de cupones.

Las fuentes familiarizadas con la negociación indicaron que aunque los seis mil millones de dólares que Google está considerando pagar parece un precio alto, el rápido crecimiento de los ingresos de Groupon y las utilidades de la empresa hacen ver esto menos desalentador.

La adquisición dejaría una fuerte ganancia a los inversionistas que en un principio le apostaron a Groupon, incluyendo Accel Partners de Silicon Valley, California, así como Battery Ventures New Enterprise Associates y DST Global, de Rusia.

Groupon ha recabado unos 170 millones de dólares por parte de inversionistas, la mayoría de los cuales no han sido necesitados. Ello debido a que la empresa ha logrado captar más de 50 millones de dólares en ingresos mensuales.

Groupon ha podido hacer esto ofreciendo a millones de usuarios de internet "ofertas de cada día”, en las que reciben un fuerte descuento de los comerciantes y prestadores de servicio de cada localidad.

La compañía, y muchas otras que han surgido imitando su modelo de negocio, están transformando la forma en que los comerciantes locales ofrecían sus ofertas a sus clientes usando circulares, periódicos o cupones de papel distribuidos por correo ordinario

Tendencias en seguridad y almacenamiento para el 2011

1. Continuarán los Ataques a la Infraestructura Crítica

Hacia finales del 2010 Stuxnet -una amenaza creada específicamente para modificar el comportamiento de sistemas de hardware y generar daños en el mundo físico- tuvo un gran impacto en los sectores que utilizan sistemas de control industrial. Este hecho marcó una nueva era en cuanto a ataques informáticos y es muy probable que aquellos cibercriminales que siguieron de cerca esta amenaza hayan aprendido la lección y en 2011 veamos otros ataques direccionados a infraestructuras críticas. Con un inicio lento, se espera que la frecuencia de este tipo de ataques se incremente.

2. Los Ataques Segmentados y las Vulnerabilidades de Día-Cero Serán más Comunes

Este año, Hydraq, también conocido como Aurora, fue un buen ejemplo de un tipo de amenaza creciente, altamente segmentada, que busca infiltrarse en organizaciones específicas en un tipo particular de sistemas de cómputo, explorando vulnerabilidades de software hasta ese momento desconocidas. Los cibercriminales han usado estas brechas de seguridad durante muchos años pero las amenazas altamente segmentadas han ganado terreno, por lo que se prevé el surgimiento de más vulnerabilidades de día cero para los próximos 12 meses en comparación con los años anteriores.

3. Más Dispositivos Móviles y Nuevos Modelos de Seguridad de TI

El uso de dispositivos móviles como smartphones está creciendo a un ritmo acelerado. Gartner prevé que, al final de 2010, 1,200 millones de personas estén usando celulares con acceso a Internet e IDC estima que a final del 2010, los dispositivos Android y AppleiIOS tengan 31 por ciento de participación de mercado global. En 2011 se espera un aumento en las amenazas dirigidas a dispositivos móviles ya que el uso de éstos seguirá creciendo. Tomando en cuenta esta tendencia es probable que los dispositivos móviles se vuelvan una de las principales fuentes de pérdida de datos confidenciales en 2011.

4. Mayor Adopción de Tecnologías de Encriptación

El aumento de uso de dispositivos móviles de la empresa no sólo significa que será necesario enfrentar algunos desafíos para mantener accesibles y seguros esos equipos y los datos confidenciales contenidos en ellos, sino que las empresas también deberán cumplir varias regulaciones asociadas a la protección de datos y privacidad. En 2011 veremos que las organizaciones llevarán a cabo un acercamiento más proactivo para proteger los datos, como la adopción de tecnologías de encriptación para cumplir con los patrones de conformidad y evitar las multas y daños que la violación de datos pueda causar a las marcas.

5. Surgimiento de una Nueva Frontera en Ataques Motivados por Fines Políticos

En un estudio reciente de Symantec sobre la protección de infraestructura crítica, más del 50% de las empresas entrevistadas afirmó tener sospecha o certeza de ser víctimas de ataques con objetivos políticos específicos. En el pasado, los ataques motivados por cuestiones políticas caían en la categoría de espionaje cibernético o de ataques DoS (Denial of Service o negación de servicio) contra servicios Web. Symantec cree que Stuxnet es posiblemente sólo el primer indicador altamente visible de lo que se llamaría guerra cibernética que viene de tiempo atrás. En 2011 es probable que veamos más señales de acciones de lucha por controlar armas digitales.

Por otro lado, en lo que a almacenamiento refiere, el próximo año se caracterizará por:

1. El Siguiente Paso de la Virtualización

La virtualización ha sido uno de los más grandes cambios en 2010 y continuará influyendo en TI en el año 2011. Las empresas en todo el mundo están logrando los beneficios de la virtualización al reducir el número de servidores en sus entornos. Aunque la virtualización disminuye los costos de servidores, las organizaciones se están dando cuenta de que simultáneamente se incrementan los costos de administración y sin un plan para proteger estos entornos, no pueden obtener el retorno total de la inversión. La capacidad para realizar copias de seguridad y recuperar aplicaciones y datos de los entornos físicos y virtuales con una única solución permitirá a las organizaciones reducir los costos generales de TI y la complejidad.

2. Brecha en la Recuperación de Desastres en Entornos Virtuales

El número de solicitudes y la cantidad de datos en entornos virtuales aumentarán notablemente en 2011. La Encuesta 2010 de Symantec sobre Recuperación Ante Desastres reveló que, en caso de un desastre, 60 por ciento de los datos de una organización que se almacena en entornos virtuales no puede recuperarse porque las organizaciones no han implementado tecnologías de protección de datos. Considerando que el nivel de protección de las máquinas virtuales debe ser similar al que los clientes tienen en los entornos físicos, las organizaciones deben implementar tecnologías para garantizar que sus datos críticos en entornos virtuales estén a salvo de toda clase de riesgos.

3. El Año de Administrar Mejor la Información

Los administradores de almacenamiento deben desechar la mentalidad de 'acumulador compulsivo' y categorizar la información más importante en 2011. El casi infinito nivel de retención de datos está haciendo que los gastos de almacenamiento se disparen, que los tiempos de recuperación sean extensos y que existan pesadillas en e-Discovery en las organizaciones de todos los tamaños. En 2011, las organizaciones volverán a evaluar sus necesidades de retención y automatizarán su estrategia de administración de la información para mantener copias de seguridad de 30 a 60 días, archivar almacenamiento a largo plazo y eliminar todo lo demás.

4. Aumenta el Almacenamiento en Nube

Las tecnologías en la nube cambiarán considerablemente la forma en que se prestan los servicios en 2011. Más organizaciones aprovecharán las nubes públicas y privadas a medida que están más disponibles. Cuando nos aproximamos al 2011, las empresas necesitan administrar los recursos de almacenamiento de información por lo que surgirán herramientas para administrar este nuevo entorno complejo de almacenamiento y para que los administradores de TI puedan comprender mejor y capturar información sobre los datos no estructurados que residen en ella. Esto les permitirá utilizar plenamente los beneficios de la nube.

5. Derecho a elegir: Equipos, Software y Nube

Mientras el software continúa impulsando la innovación, en 2011 habrá nuevos modelos como respuesta a las necesidades de los clientes para facilitar las operaciones de TI. El cómputo en la nube, los dispositivos y servicios hospedados son ejemplos de modelos cada vez más atractivos que proporcionarán a las organizaciones flexibilidad y facilidad para su implementación.

6. Consolidación y Centros de Datos de Siguiente Generación

La consolidación es la prioridad del sector de TI y las organizaciones deben redefinir la infraestructura de sus centros de datos en 2011 para administrar las presiones, reducir costos y proteger los datos. Si la consolidación implica un movimiento físico, virtualización, desmantelamiento o cualquier combinación de estos aspectos, las organizaciones necesitan administrar los riesgos y la complejidad de la consolidación de los centros de datos. Además, las organizaciones deben garantizar la protección y disponibilidad de la información y las aplicaciones para evitar interrupciones no planeadas en la productividad y la pérdida de datos. No es un secreto que en 2011, la consolidación será un tema prioritario.

7. Proteger y Administrar los Datos en Redes Sociales

La forma en que las organizaciones colaboran se modificará en 2011. Hoy hemos visto que las empresas ya han comenzado a aprovechar más las redes sociales para mejorar la comunicación y la productividad en los negocios. A medida que esta tendencia crece, las áreas de TI deberán prepararse y comprender cómo proteger y administrar estas aplicaciones para recuperar y encontrar la información empresarial que se comunica o transmite a través de estos medios. El archivado de medios o redes sociales se volverá más importante a medida que las empresas aprovechen su poder para fortalecer negocio y mantengan el archivado como una forma de control para reducir los riesgos de información.

jueves, 9 de diciembre de 2010

Los cables de WikiLeaks también cuentan problemas de TI

Los más de 250.000 cables diplomáticos obtenidos por WikiLeaks y filtrados a cinco medios de comunicación internacionales no sólo han puesto en jaque a la diplomacia internacional. También al mundo tecnológico. Aunque sólo se ha revelado una parte, ya se han divulgado algunos que contienen detalles sobre políticas de tecnología e Internet, prácticas de ciberseguridad y sistemas de TI de los gobiernos de varios países. Los más resonantes son la implicación del gobierno chino en los ataques a Google, la escasa ciberseguridad en Brasil o la fricción de EE.UU. con Alemania sobre el intercambio de información.

Según las estadísticas publicadas en WikiLeaks, hay 9.329 telegramas sobre el comercio y controles de tecnología; 2.553 sobre derechos de propiedad intelectual; 574 sobre la Internet económica y comercial; y cientos sobre la protección de infraestructuras críticas, tecnologías de Internet, procesamiento automatizado de datos, modernización mundial de las TI, y administración de Internet. Muchos de estos documentos han sido catalogados por el gobierno de Estados Unidos como confidenciales y de gran importancia para la seguridad nacional.

Por citar algunos casos que se hacen públicos en estos cables, un general brasileño expresa su preocupación porque el gobierno de su país se está quedando rezagado en proteger sus sistemas informáticos con información clasificada y no clasificada; y acoge con satisfacción la ayuda americana para securizarlos.

En Europa, hay una serie de cables procedentes de Alemania, en los que oficiales del Departamento de Estado muestran su preocupación sobre el partido que lidera la coalición alemana, que está obsesionado con la privacidad de los datos y que no había formado puntos de vista responsables sobre políticas de seguridad a tiempo cuando los terroristas estaban utilizando Internet para reclutar, formarse y organizarse.

También se menciona el cruce de mensajes entre el consejero de ciberterrorismo de la Casa Blanca y el Rey Abdalá bin Abdelaziz al-Saud de Arabia Saudita, quien sugiere que se implanten microchips en los detenidos de Guantánamo como mecanismo de seguimiento de sus movimientos vía Bluetooth, al igual que se ha hecho con caballos y halcones.

Finalmente, y aunque parece que estos telegramas aún no son públicos, también se muestra la evidencia de lo que era un secreto a voces, la implicación del gobierno chino en los ciberataques a Google.

7 tendencias en seguridad y almacenamiento para el 2011

1. Continuarán los Ataques a la Infraestructura Crítica
Hacia finales del 2010 Stuxnet - una amenaza creada específicamente para modificar el comportamiento de sistemas de hardware y generar daños en el mundo físico- tuvo un gran impacto en los sectores que utilizan sistemas de control industrial. Este hecho marcó una nueva era en cuanto a ataques informáticos y es muy probable que aquellos cibercriminales que siguieron de cerca esta amenaza hayan aprendido la lección y en 2011 veamos otros ataques direccionados a infraestructuras críticas. Con un inicio lento, se espera que la frecuencia de este tipo de ataques se incremente.

2. Los Ataques Segmentados y las Vulnerabilidades de Día-Cero Serán más Comunes
Este año, Hydraq, también conocido como Aurora, fue un buen ejemplo de un tipo de amenaza creciente, altamente segmentada, que busca infiltrarse en organizaciones específicas en un tipo particular de sistemas de cómputo, explorando vulnerabilidades de software hasta ese momento desconocidas. Los cibercriminales han usado estas brechas de seguridad durante muchos años pero las amenazas altamente segmentadas han ganado terreno, por lo que se prevé el surgimiento de más vulnerabilidades de día cero para los próximos 12 meses en comparación con los años anteriores.

3. Más Dispositivos Móviles y Nuevos Modelos de Seguridad de TI
El uso de dispositivos móviles como smartphones está creciendo a un ritmo acelerado. Gartner prevé que, al final de 2010, 1,200 millones de personas estén usando celulares con acceso a Internet e IDC estima que a final del 2010, los dispositivos Android y AppleiIOS tengan 31 por ciento de participación de mercado global. En 2011 se espera un aumento en las amenazas dirigidas a dispositivos móviles ya que el uso de éstos seguirá creciendo. Tomando en cuenta esta tendencia es probable que los dispositivos móviles se vuelvan una de las principales fuentes de pérdida de datos confidenciales en 2011.

4. Mayor Adopción de Tecnologías de Encriptación
El aumento de uso de dispositivos móviles de la empresa no sólo significa que será necesario enfrentar algunos desafíos para mantener accesibles y seguros esos equipos y los datos confidenciales contenidos en ellos, sino que las empresas también deberán cumplir varias regulaciones asociadas a la protección de datos y privacidad. En 2011 veremos que las organizaciones llevarán a cabo un acercamiento más proactivo para proteger los datos, como la adopción de tecnologías de encriptación para cumplir con los patrones de conformidad y evitar las multas y daños que la violación de datos pueda causar a las marcas.

5. Surgimiento de una Nueva Frontera en Ataques Motivados por Fines Políticos
En un estudio reciente de Symantec sobre la protección de infraestructura crítica, más del 50% de las empresas entrevistadas afirmó tener sospecha o certeza de ser víctimas de ataques con objetivos políticos específicos. En el pasado, los ataques motivados por cuestiones políticas caían en la categoría de espionaje cibernético o de ataques DoS (Denial of Service o negación de servicio) contra servicios Web. Symantec cree que Stuxnet es posiblemente sólo el primer indicador altamente visible de lo que se llamaría guerra cibernética que viene de tiempo atrás. En 2011 es probable que veamos más señales de acciones de lucha por controlar armas digitales.

Por otro lado, en lo que a almacenamiento refiere, el próximo año se caracterizará por:

1. El Siguiente Paso de la Virtualización
La virtualización ha sido uno de los más grandes cambios en 2010 y continuará influyendo en TI en el año 2011. Las empresas en todo el mundo están logrando los beneficios de la virtualización al reducir el número de servidores en sus entornos. Aunque la virtualización disminuye los costos de servidores, las organizaciones se están dando cuenta de que simultáneamente se incrementan los costos de administración y sin un plan para proteger estos entornos, no pueden obtener el retorno total de la inversión. La capacidad para realizar copias de seguridad y recuperar aplicaciones y datos de los entornos físicos y virtuales con una única solución permitirá a las organizaciones reducir los costos generales de TI y la complejidad.

2. Brecha en la Recuperación de Desastres en Entornos Virtuales
El número de solicitudes y la cantidad de datos en entornos virtuales aumentarán notablemente en 2011. La Encuesta 2010 de Symantec sobre Recuperación Ante Desastres reveló que, en caso de un desastre, 60 por ciento de los datos de una organización que se almacena en entornos virtuales no puede recuperarse porque las organizaciones no han implementado tecnologías de protección de datos. Considerando que el nivel de protección de las máquinas virtuales debe ser similar al que los clientes tienen en los entornos físicos, las organizaciones deben implementar tecnologías para garantizar que sus datos críticos en entornos virtuales estén a salvo de toda clase de riesgos.

3. El Año de Administrar Mejor la Información
Los administradores de almacenamiento deben desechar la mentalidad de 'acumulador compulsivo' y categorizar la información más importante en 2011. El casi infinito nivel de retención de datos está haciendo que los gastos de almacenamiento se disparen, que los tiempos de recuperación sean extensos y que existan pesadillas en e-Discovery en las organizaciones de todos los tamaños. En 2011, las organizaciones volverán a evaluar sus necesidades de retención y automatizarán su estrategia de administración de la información para mantener copias de seguridad de 30 a 60 días, archivar almacenamiento a largo plazo y eliminar todo lo demás.

4. Aumenta el Almacenamiento en Nube
Las tecnologías en la nube cambiarán considerablemente la forma en que se prestan los servicios en 2011. Más organizaciones aprovecharán las nubes públicas y privadas a medida que están más disponibles. Cuando nos aproximamos al 2011, las empresas necesitan administrar los recursos de almacenamiento de información por lo que surgirán herramientas para administrar este nuevo entorno complejo de almacenamiento y para que los administradores de TI puedan comprender mejor y capturar información sobre los datos no estructurados que residen en ella. Esto les permitirá utilizar plenamente los beneficios de la nube.

5. Derecho a elegir: Equipos, Software y Nube
Mientras el software continúa impulsando la innovación, en 2011 habrá nuevos modelos como respuesta a las necesidades de los clientes para facilitar las operaciones de TI. El cómputo en la nube, los dispositivos y servicios hospedados son ejemplos de modelos cada vez más atractivos que proporcionarán a las organizaciones flexibilidad y facilidad para su implementación.

6. Consolidación y Centros de Datos de Siguiente Generación
La consolidación es la prioridad del sector de TI y las organizaciones deben redefinir la infraestructura de sus centros de datos en 2011 para administrar las presiones, reducir costos y proteger los datos. Si la consolidación implica un movimiento físico, virtualización, desmantelamiento o cualquier combinación de estos aspectos, las organizaciones necesitan administrar los riesgos y la complejidad de la consolidación de los centros de datos. Además, las organizaciones deben garantizar la protección y disponibilidad de la información y las aplicaciones para evitar interrupciones no planeadas en la productividad y la pérdida de datos. No es un secreto que en 2011, la consolidación será un tema prioritario.

7. Proteger y Administrar los Datos en Redes Sociales
La forma en que las organizaciones colaboran se modificará en 2011. Hoy hemos visto que las empresas ya han comenzado a aprovechar más las redes sociales para mejorar la comunicación y la productividad en los negocios. A medida que esta tendencia crece, las áreas de TI deberán prepararse y comprender cómo proteger y administrar estas aplicaciones para recuperar y encontrar la información empresarial que se comunica o transmite a través de estos medios. El archivado de medios o redes sociales se volverá más importante a medida que las empresas aprovechen su poder para fortalecer negocio y mantengan el archivado como una forma de control para reducir los riesgos de información