viernes, 29 de octubre de 2010

Microsoft planea lanzar Windows 8 durante 2012

Para celebrar el éxito de Windows 7 –el sistema operativo que, a casi un año de su lanzamiento, vendió más de 240 millones de licencias–, Microsoft publicó numerosas entradas en sus blogs. Una de ellas, accidentalmente, reveló que Windows 8 aparecerá en el año 2012.

La subsidiaria holandesa de Microsoft publicó una nota el domingo pasado en donde se revela que la empresa está trabajando en el desarrollo de Windows 8, pero se señala que el nuevo sistema operativo no será lanzado sino hasta dentro de dos años.

No es la primera vez que Microsoft o sus empleados dan a conocer los planes en torno al lanzamiento de Windows 8. A fines de 2009 se divulgó la noticia de que Windows 8 sería lanzado durante 2012, si bien a principios de este año se informó que la fecha de lanzamiento se ubicaría a mediados de 2011.

Una de las funcionalidades claves de Windows 8 será un tiempo de arranque muy breve, o incluso una capacidad de arranque instantáneo. Además, Microsoft planea implementar diversas optimizaciones de performance para que el sistema operativo resulte más ágil en su respuesta. Teniendo en cuenta que cada vez más computadoras integran cámaras web, el reconocimiento facial será otra característica clave de Windows 8. Otras particularidades hablan de soporte para Bluetooth 3.0, USB 3.0 y otras interfaces de alta velocidad.

Con su nuevo sistema operativo, Microsoft apuntará a cuatro formatos de PC: desktop, laptop, desktop all-in-one y slate (o tablet PC). Es de esperarse que la interfaz gráfica de usuario de Windows 8 sea personalizable o que sea en general muy flexible, para satisfacer completamente a distintos usuarios. Dado que las tablets están volviéndose cada vez más populares, puede ser crucial para Microsoft lanzar su nuevo sistema operativo lo más pronto posible.


En Septiembre, Windows 7 estaba presente en el 93 por ciento de las nuevas PCs de consumidores (según los informes de Net Applications al 1° de octubre) y tenía un 17 por ciento de participación en el mercado global de sistemas operativos.

Mitos y Verdades sobre hackear Hotmail

Hace algunos dias, una buena amiga me hizo una de las preguntas mas escambrosas que cualquier tecnico venezolano se puede enfrentar "Como puedo recuperar la contraseña de Hotmail... ¿Sera que tu la puedes hackear?"

Empecemos por lo básico....

Bueno, en primer lugar, ya el servicio no se llama Hotmail, se llama Windows Live Hotmail (ya que pertenece a los servicios Windows Live). Hotmail como se le denonimo en el lejano 1996. No pertenecia orinalmente a Microsoft. Sino que fue desarrollado Sabeer Bhatia y Jack Smith, esto se la vendieron a Microsoft en 1997, que paso a llamarsse MSN Hotmail, y en el 2005 se pensaba llamarlo Windows Live Mail, a ultima hora por problemas de confusión en los beta-tester decidieron dejarlo como Windows Live Hotmail en el 2007.

Hotmail, fue durante mucho tiempo el cliente web de correo electrónico preferido por muchos países de habla hispana, actualmente se encuentra traducido en 36 idiomas y es utilizado por aproximadamente 270 millones de usuarios a nivel mundial.

¿Que tal ha sido la seguridad en su larga historia?

Los inicios de Hotmail, se pueden considerar como de hacking, ya que se diseño para evitar los filtros y proxy de las empresas. En sus inicios corria en servidores FreeBSD y Solaris, pero con la adquisición de la Microsoft, decidieron mudarlo a servidores Windows 2000.

Durante este proceso de migración, ocurrio unos de los problemas de seguridad mas comentando en la hitoria de la computación web. Debido a un fallo de programación, cualquiera podria entrar a cualquier cuenta de correo electrónico utilizando como  contraseña "eh".

En el 2001, el servicio se pone en peligro por los hackers del equipo que descubrieron que cualquier persona puede iniciar sesión en su cuenta de Hotmail y llamamos mensajes de cualquier otra cuenta de Hotmail por expresa visión del mundo en una dirección URL con usuario de la segunda cuenta y un número de mensaje válido. Fue un ataque tal increíblemente sencillo que en el momento que se ha hecho la revisión, docenas de periódicos y cientos de sitios web publican descripciones exactas permitiendo decenas-de-miles de hackers para ejecutar rampante a través de Hotmail. La vulnerabilidad explotable expuestos millones de cuentas para la manipulación entre 7 y el 31 de agosto de 2001.

Esto han sido una larga lista de exploit que han pasado, desde exploit para conversar en directo por el servicio de Windows Live Messenger, pasando por el de la dirección URL que nos llevaba a un sitio falso de Hotmail, hasta el mas reciente en el que nos invitaba a entrar al album de nuestras vacaciones por Brasil y nos instalaba un archivo que podía tomar nuestra contraseña.

Mito: ¿Puedo recuperar mi contraseña?

Sea por ataque o exploit que infecte una cuenta, en el 90% de los casos tienen el mismo final. El cambio de la contraseña de la victima, en casos mas complejo seria el cambio de de las preguntas de seguridad e inclusive el correo alternativo.

Existe muchas paginas web y programas que prometen que pueden recuperar su contraseña de Hotmail, pues es una gran mentira. La mayoria de estas páginas tratan de utilizar exploit antiguos, que ya se encuentran solventados y no funcionaran (en el mejor de los casos).

En los peores casos, dichos sitios tomaran la contraseña que diste, y la utilizaran para tratar de acceder a cuentas de otros servicios o redes sociales (Facebook, Gmail, Hi5, Twitter, etc) y venderlar al mejor postor (Sistemas de Marketing o Spam).

Mi recomendación, no utilices esos sitios, ya que pones en riesgo tus servicios Windows Live.

Verdades: ¿Puedo recuperar mi contraseña?

Recuperar una contraseña de Hotmail no es tan difícil, inclusive esta a la vista de todo el mundo, el famoso ¿Ha olvidado la contraseña?. Le pedirá su usuario y después le dará 2 opciones, recibir un enlace por un correo alternativo para recuperar la contraseña o, responder unas pregunta de seguridad.

Pero que pasa si por alguna razón no tenemos un correo alternativo o de la pregunta de seguridad olvidamos la repuesta... Existe un tercer método menos conocido...

Pero lo dejaremos con instrucciones precisas para otra oportunidad

lunes, 25 de octubre de 2010

Los Sospechosos Habituales: Analisis de falla de Hardware (Parte II)

Hace algunos meses, inicie la serie de Los Sospechosos Habituales: Análisis de falla de Hardware, para tratar de hacer un compendio de las causas mas normales de falla de componentes de computadoras. Esta vez le tocara el turno a las Memorias.

Empecemos por lo básico, existe 2 tipos de memorias:

Memorias ROM: Memoria de solo lectura, su función principal es almacenar programas que solo pueden ser leidos, mas no modificados, al menos no de manera fácil y rapida. La información que se graba en ella, permanece por largos periodos de tiempo (se estima unos 10.000 años), y aun sin electricidad los datos permanecen alli. Un buen ejemplo de ellas, el famoso menú SETUP de las tarjeta madres (también conocido como el BIOS), otro ejemplo los firmware de algunos componente de hardware.

Memorias RAM: Son memoria de acceso aleatorio, y al contrario de las memorias ROM, ninguna información permanece dentro de ella una vez que la fuente de energia es cortada o agotada. En ellas son almacenadas temporalmente todo lo que hagamos en el computador mientras estemos trabajando.

Como técnico, debemos enseñar a nuestro clientes a que no confundan el termino de memoria de trabajo (RAM) con memoria de almecenamiento (Disco Duro o FlashCard).

¿Por que la confusión?

La mayoria de la gente que no sabe de computación, piensa que la memoria RAM almacena la información, confundiendola en muchas ocasiones con el disco duro. La gran culpa lo tiene el auge de las memorias FlashCard o comumente conocidos con Pendrive que empezaron a venderse con la denominación de Memorias USB, y produjo un efecto de Meme en la población general.

Hoy en día es poco común llamarlas Memorias USB, pero en el subconsciente colectivo se sigue asociando Memoria con Almacenamiento, y no es del todo correcto.

¿Y como se si mi memoria RAM esta fallando?

La memoria RAM es uno de los componente de hardware mas dificiles de aislar como falla, ya que puede ocasionar que un Sistema Operativo no funcione correctamente, asi como un Sistema Operativo que se encuentre fallando puede parecerse a una falla de hardware.

Asi que tenemos que estar atento a los siguientes sintomas si queremos descubrir a este sospechoso habitual:
  • La computadora no se inicia, y en su lugar lanza varios beeps (o pitidos), y en algunos casos especiales, en la primera pantalla que muestra la PC al encenderse, especifica claramente que la memoria está fallada.
  • El sistema operativo se detiene o lanza mensajes de error de Fallas de Protección General (tambien conocidas como la BSOD o Pantallazos Azules), Operaciones Ilegales, Excepciones Fatales, etc.
  • La computadora se reinicia de forma aleatoria.
  • Al iniciar, muestras símbolos aleatorios sobre la pantalla y no prende por completo
Claro, cada uno de estos sintomas, puede ser causado por otros factores:
  • Incorrecta colocación de las memorias RAM en la Tarjeta madre, esto ocasionaria que que lanzara varios beeps advirtiendo sobre una incorrecta colocación de la memoria.
  • El Sistema Operativo, puede producir Fallas de Protección General por problemas con el nucleo del kernel, controladores mal instalado, modulos mal compilados, problemas de hardware que trata de acceder a la memoria RAM, etc. 
  • Fallas en la tarjeta de videos, que podrias ocasionar salidas de codigo basura en nuestro ordenador.
¿Y como estar seguro si la memoria es la culpable?

En lo personal, pienso que un componente de hardware, tiene mas posibilidades de desgaste que uno de software. Así que en caso de sospechar que la memoria esta fallando, siempre prefiero hacer un test para comprobar su fiabilidad.

Pero antes de testear la memoria, si recientemente añadió una nueva memoria a su computadora, retirarla temporalmente, para asegurarse de que no es la nueva memoria la causante del problema. La nueva memoria podría ser incompatible o estar dañada, y al sacarla, podría dejar de aparecer el error.

Si tiene uno o más módulos de memoria conectados a la tarjeta madre, puede ser que tal vez sea sólo uno de los módulos este fallado, y puede probar extayendo uno de éstos. Por ejemplo, puede tener dos módulos de 512 MB de RAM, haciendo un total de 1 GB de memoria RAM. Puede que esté fallado uno de esos módulos. Si al extraer uno (quedarían 512 MB de RAM en total), el error desaparece, ese es el módulo fallado.

Test de Memoria

Los test de memoria, son programas especialmente diseñados para probar la capacidad de rendimiento, escritura y lectura de nuestras memorias. Algunos CD Live de Linux, y el DVD de la versión de Windows 7 traen estas utilidades.

Pero si no la posees, siempre existe la posibilidades de descargarlas por Internet utilidades que hacen el mismo trabajo, algunas de las mas reconocidas son:

  • Memtest86 (evaluación) – Es el número uno recomendado para testear nuestra memoria, Memtest86 realiza un testeo de la memoria de manera gratuita y es compatible con x86.
  • DocMemory (evaluación) – Otra grandiosa solución para realizar tests a la memoria de su ordenador.
  • MemTest (gratuito) - Comprueba si la memoria de la PC funciona correctamente o no.
  • MemTest86+ (gratuito) - Excelente utilidad para comprobar la memoria RAM.

Como dato interesante, han de saber, que estos programas deben de arrancar antes del Sistema Operativo, así que posiblemente necesiten de un sistema de arranque Live como Linux; existe en Internet, un interesante proyecto llamado Hiren's Boot CD, que contiene estas herramientas y es booteable.

Determinar por hardware si la memoria RAM funciona correctamente

Si tiene slots de memoria RAM disponibles de otra computadora, podría reemplazar temporalmente la memoria actual por esta otra, y así probar si la computadora sigue dando errores.

Utilizar una memoria que sabemos que es buena en una computadora que puede tener problemas de memoria, es un buen método de chequear y ver si la memoria sobre la que tenemos dudas es mala o está dañada.

Hay también dispositivos comerciales que realizan tests a los circuitos de la memoria. Estos artefactos pueden costar mucho dinero y son especialmente utilizados en centros de reparación o en grandes compañías donde se necesita chequear las memorias frecuentemente. Si desea que su memoria sea testeada por alguno de estos dispositivos, sugerimos que se contacte con algún técnico.

Conclusiones

Si encontró que su memoria está dañada, sugerimos que la reemplace con nueva memoria, ya que con el tiempo, esta memoria puede ocasionar problemas con su sistema operativo e inclusive con su computador (por los continuos reinicio).

viernes, 22 de octubre de 2010

¿Realmente Linux es sólo el 1% del mercado?

Según Caitlyn Martin, blogger de O'Reilly Community y consultora con 30 años de experiencia en TI, la idea de que la cuota de mercado en el escritorio es insignificante y la figura del 1% son simplemente falsas, y lo han sido durante muchos años. Entre otros argumentos, alega que difícilmente Microsoft vería en Linux un competidor serio si realmente fuera tan poco utilizado. Además, destaca que algunas conjeturas situan a Linux cercano al 10%, a la par que MacOS. A continuación, transcribo la traducción de su artículo.


Casi todos los días alguien en la prensa especializada o en un foro técnico comenta que la adopción de Linux en el escritorio (incluyendo portátiles) es insignificante. El número que se menciona es alrededor del 1%. Ese dato es repetido incluso por los algunos defensores de la adopción de Linux.

La cuota de mercado de Linux no es pequeña. Linux y UNIX han mantenido una cuota mayoritaria en el segmento de los servidores durante más de una década. Linux es muy competitivo en sistemas embebidos, y está avanzando mucho también en el escritorio, incluyendo portátiles y netbooks.

Comencemos con los netbooks, el área donde Linux ha conseguido los mayores avances. Según ABI Research, Linux recuperó el 32% de la cuota de mercado en 2009, a pesar de ser casi imposible encontrarlo en tiendas físicas. Ese número no incluye los sistemas vendidos con configuraciones dual boot con Windows y Linux. En esos sistemas Windows sigue considerándose como el sistema operativo por defecto.

Dell también ha informado que casi la tercera parte de las ventas de netbooks en 2009 fueron sistemas con ubuntu preinstalado. Informes recientes en los que se afirmaba que ya no había demanda de Linux en netbooks y que Dell estaba descontinuando Linux han demostrado ser falsos. Además, hoy día Dell está ofreciendo modelos de escritorio y portátiles con Ubuntu preinstalado, además del netbook Mini 10n.

¿Cuál es el porcentaje de netbooks entre todas las ventas de equipos portátiles y de escritorio? De acuerdo con Forrester Research, los netbooks fueron el 18% del total de ventas el pasado año. Si hacemos cálculos obtenemos que sólo con los netbooks Linux consiguió cerca del 6% del mercado de escritorio en 2009. Para conseguir el número total necesitaríamos añadir más equipos de escritorio y portátil tanto de compañías como Dell o HP como de tiendas pequeñas.

Una confirmación adicional sobre el crecimiento de Linux en el escritorio el año pasado viene de la mano de nada menos que Steve Ballmer, CEO de Microsoft. Utilizando una diapositiva para visualizar la cuota de mercado de Sistemas Operativos, Ballmer dio a Linux un trozo de queso ligeramente mayor que a MacOS. Nadie considera a Apple insignificante en el escritorio, y tampoco lo es Linux. Aquí está, en parte, lo que el Sr. Ballmer tenía que decir sobre Linux en el escritorio y la competencia para Windows:

«Creo que dependiendo de cómo lo mires, Apple probablemente ha incrementado su cuota de mercado con respecto al año pasado en un punto o más. Y un punto de cuota de mercado en un número sobre los 300 millones es interesante. Es una interesante cantidad de cuota de mercado, aunque no es necesariamente tan dramáticocomo la gente podría pensar, pero nosotros estampos centrados tanto en Apple como competencia como en Linux como competencia.»

¿Cree alguien que Microsoft vería en Linux un competidor serio si Linux tuviera únicamente un 1% del mercado? No parece muy lógico, ¿no? Todas las gráficas que he conseguido hasta ahora representan ventas de sistemas precargados con un sistema operativo determinado: Windows, MacOS o Linux. No representan el uso actual. Si vas a la tienda de informática de tu localidad, compras un sistema con Windows, formateas el disco duro e instalas Linux, el sistema sigue contabilizando como un sistema Windows y no Linux.

¿De dónde viene entonces el número del 1%? Hay dos fuentes: datos antiguos y contadores web. El problema de utilizar contadores web para establecer cuotas de mercado es que generalmente sólo se incluyen websites que han pagado para ser contabilizados. Esto más o menos garantiza que Windows se contará en exceso. Ars Technica recientemente demostró lo grave que puede ser el error en un artículo sobre la cuota de mercado de los navegadores. A grandes rasgos encontraron que Internet Explorer está justo por encima del 60% del mercado, Firefox justo por debajo del 23% y Chrome un poco por debajo del 8%. Los porcentajes para el propio sitio de Ars Technica fueron completamente diferentes con Firefox justo por debajo del 38%, Chrome casi un 22% e Internet Explorer un distante cuarto con un 16,63%. La razón de esta discrepancia es obvia: los lectores de Ars Technica son lectores con un perfil técnico alto que, en contrapartida, están mucho más advertidos de los problemas de seguridad de IE, con una mayor tendencia a utilizar Linux o MacOS. De forma similar, la mayoría de webs sobre Linux o webs técnicas no pagan para ser contadas por las compañías que realizan los estudios, lo que repercute ampliamente en los números a favor de Windows.

Así que, ¿cuál es la cuota de mercado real de Linux? La mejor estimación de las ventas actuales es alrededor del 8%, que sitúa a Linux un poco por detrás o quizá a la par de MacOS. 8% se traduce en 24 millones de sistemas vendidos al año con Linux precargado. Windows representa un mínimo del 80% del mercado y es todavía un monopolio de facto. Aún así, ha habido una erosión en el estatus del monopolio.

Si hablamos el uso actual, no hay forma de obtener una medida precisa. Algunas conjeturas situan a Linux cercano al 10%, a la par que MacOS. Eso es muy distinto del 1% y no es de ningún modo insignificante. 



Es un excelente articulo que no es investigacion mia, solo hice un traducción desde el articulo original. Pero despues de leerlo yo me pregunto: realmente queremos ocupar una parte mayoritaria del mercado? Cada uno tiene una postura diferente respecto al futuro que desea para linux, yo personalmente lo considero un Sistema Operativo muy eficiente para empresas y algunas centro de entretenimiento, pero como plataforma de juego me sigo quedando con Windows.

Articulo Original

lunes, 18 de octubre de 2010

Canonical lanzó Ubuntu 10.10 Maverick Meerkat

Esta semana se produjo el lanzamiento de Ubuntu 10.10 Maverick Meerkat, una nueva edición de la distribución de Canonical que no ofrece grandes mejoras internas pero que sí aporta unas cuantas novedades en su interfaz. Muchas de las áreas de esta distribución han sido renovadas en el apartado visual, y desde la instalación hasta el centro del software se nota una vocación notable por ofrecer a los usuarios de Linux y de Ubuntu la mejor experiencia de usuario posible. He aquí una lista de las 10 principales características que trae.

1. La instalación, más sencilla que nunca
El proceso de instalación de Ubuntu ya era sencillo en anteriores versiones, pero ahora se ha simplificado aún más dicho procedimiento, en el que apenas se nos preguntan cosas -salvo lo imprescindible- y que además nos va informando claramente de qué nos disponemos a hacer y cuáles son los requisitos para cada operación.



2. El Centro de Software de Ubuntu, imprescindible
Hace tiempo que en Canonical defienden la evolución de un único sistema de gestión de paquetes, que tras muchos debates fue el Centro de Software Ubuntu, una aplicación que comenzó de forma tímida como un complemento de Synaptic y del legendario sistema APT, pero que ahora se encargará de buena parte de las operaciones de instalación y actualización de paquetes, además de ofrecer una interfaz visual muy atractiva con completas descripciones de las aplicaciones.

3. Ubuntu One y su sistema de streaming de audio
Este servicio en la nube trata de igualarse con otras ofertas de almacenamiento y sincronización de archivos con servidores de Internet a los que podamos acceder de forma ubicua, pero ahora ha ampliado sus prestaciones con el Ubuntu One Music Store para comprar y distribuir música a diversos sistemas. Aún queda camino por recorrer, pero Ubuntu One está dando los pasos adecuados.

4. La tipografía Ubuntu
Otro de los cambios importantes a nivel visual es el del uso de una tipografía libre y característica de la distribución, que ya está disponible y que tiene el mismo nombre que la distribución. La tipografía Ubuntu se centra en la legibilidad de los textos y muchos expertos en este segmento han indicado que es una tipografía más elegante y sencilla de leer que otras tipografías Sans del pasado.

5. Unity llega a los netbooks
Otro de los cambios radicales de Ubuntu es el que afecta a los usuarios de netbooks y portátiles, que podrán acceder a la interfaz Unity, especialmente diseñada para pantallas con resoluciones limitadas en las que el aprovechamiento al máximo de la resolución es clave. Unity ha evolucionado de forma notable durante el desarrollo de Maverick Meerkat, y se podrá disfrutar de toda su potencia a pleno rendimiento.

6. Mejores notificaciones
El área de notificaciones de Ubuntu 10.10 Maverick Meerkat también se ha renovado de forma notable con la aparición de una nueva iconografía y sobre todo de menús más claros y completos. Por ejemplo el menú desplegable del icono del sonido muestra no solo el control de volumen, sino que además nos ofrece los controles de reproducción de diversos reproductores Open Source como Rythmbox, el desarrollo por defecto incluido en Ubuntu 10.10 para este tipo de tareas.

7. Shotwell quiere convertirse en el Picasa Open Source
F-Spot ha sido abandonado en esta distribución -aunque podremos instalarlo de forma opcional- en favor de Shotwell, un programa con mucha ambición que quiere convertirse en el gestor de fotos perfecto para nuestra distribución Linux. Aunque aún quedan flecos por resolver y creemos que Picasa -aun siendo propietario- resuelve mejor esta papeleta, Shotwell ofrece una gran alternativa a este apartado, aunque existen otras muchas propuestas Open Source como los magníficos gThumb o digiKam.

8. LibreOffice comienza su andadura
La suite ofimática Open Source OpenOffice.org tiene un futuro comprometido en Oracle tras la adquisición de Sun: los responsables de esta empresa no han dado datos sobre la suite, de forma que un conjunto de desarrolladores y personalidades del mundo Open Source han creado The Document Foundation y bajo ella se ha generado un fork de OpenOffice.org llamado LibreOffice, que será la suite por defecto de Ubuntu 10.10, que apoya así desde el principio una versión de la suite ofimática Open Source por excelencia que no dependerá de los designios de Oracle.

9. Btrfs muestra sus poderes
Aunque por el momento este sistema de ficheros no se utiliza de forma nativa y por defecto -MeeGo, por ejemplo, sí lo hace- en Ubuntu 10.10 sí podremos crear particiones con el sistema de ficheros Btrfs (aunque no la partición /boot, cuidado, ya que GRUB 2 aún no reconoce estas particiones en el arranque) para aprovechar las ventajas de un desarrollo que podría suceder a ext4 en próximas iteraciones de Ubuntu.

10. GNOME 2.32
El entorno de escritorio GOME 2.32 es probablemente la última versión de la familia 2.x que veremos antes del lanzamiento de GNOME 3.0 la próxima primavera, y aunque no hay grandes mejoras en dicha versión sí que se afianzan las bases de un entorno que es el pilar de Ubuntu -KDE 4.5.1 será la base de Kubuntu- y que aporta más estabilidad y fiabilidad.

martes, 12 de octubre de 2010

El #webve V2, mi experiencia

El viernes pasado, me traslade a Caracas para asistir al segundo encuentro tecnologico de Venezuela, el #Webve v2, el cual se realizo en la terraza de la SuperFeria del Sambil Chacao.


He de felicitar a los organizadores del evento, ya que cumplieron mis expectativas, la hora de entrada, pautada a las 5pm se cumplió a cabalidad, recibiéndonos las promotoras del evento asi como los diferentes stand de los patrocinantes.

De los stand, el que mas atrajo la atención, por motivos tecnológicos fueron los de Cisco, que promocionaban su tecnología de Teléfonia de VoIP, sus promotoras conocían bastante bien el producto y orientaban muy bien a las personas interesadas.





El segundo stand que mas atrajo las afluencia del publico, fue el de IguanaHosting, que con su modelo Vanessa Fontiveros, garantizo la afluencia de gran parte del público masculino.









Ya a las 6 de la tarde, el espacio de la terraza se habia quedado pequeña, teniendo a varias personas de pie esperando el inicio del Evento.







El Evento

La presentación del evento, estuvo a cargo del maestro de ceremonia Oswaldo Álvarez, el cual presento a los Ponentes Carmen Vásquez, Leman Oliveros, Isabel Ravell y Alfredo Sánchez; mientras que los panelistas seria Edgar Rincón, periodista de la fuente de tecnología y conductor del programa “Ciberespacio”, Froilán Fernández quien semanalmente ofrece importantes datos a los lectores del diario El Nacional a través de su columna “EnBytes”, Angel Méndez del diario El Universal y Fran Monroy, editor de la revista “Código Abierto”, quienes dirigieron las tandas de preguntas a los ponentes.

Y despues de una breve descripcion de contextual actual de la situación de Venezuela, en la cual nos explicaron que 1/3 de la población venezolana (9.306.916 para ser precisos) cuentan con alguna clase de conexcion a Internet (datos oficiales de Datanalisis), y de ese 1/3 de personas el 80% utiliza Redes Sociales, siendo este un campo apenas tomado en cuenta para el Marketing o el emprendimiento Web.

Y como este era el abreboca, nos presentaron a nuestro primer Ponente

1er Ponente Alfredo Sanchez

El primer ponente, no es otro que el Presidente de Cavedatos, el cual nos dios estadisticas de peso para que los emprendedores busquen desarrollar nuevos modelos de negocios basados en la redes sociales para PYME, y destacando algo muy interesante: "Actualmente un microempresario y un presidente de una corporacion internacional pueden acceder al uso de un BlackBerry o cualquier telefono inteligente, con un abaratamiento en términos reales del costo de los equipo y el servicio de comunicaciones".

Este concepto, que aun no captan ciertos empresarios, puede ser la entrada para desarrollar las oficinas moviles, el poder trabajar desde la calle y estar en contacto permanente con nuestras oficinas..

También exalto a los jovenes, principales motores de la economia digital, a desarrollar mas aplicaciones y modelos de negocio en base a las redes sociales, ya que alli es donde esta el futuro de la economia digital.

2do Ponente Carmen Vasquez

La especialista en Arquitectura Empresarial para Microsoft Venezuela, fue la encargada de presentarnos un breve bosquejo de que es la computación en Nube y cual sera el impacto en un futuro. Así mismo nos presento los 3 modelos actuales de negocio en la nube (SaaS, IaaS, PaaS) y como la gente de Microsoft ofrecen las diferentes soluciones de producto.

Tambien nos presentaron alternativas para Computación en la nube, ya que la gente de Microsoft no tiene planteado en corto o mediano plazo ofrecer dicho servicios en Venezuela.

Una de las preguntas mas interesante de la noche, fue realizada por Froilán Fernández, la cual genero mucho debate entre los panelista, la ponente e inclusive el publico asistente

"Si la soluciones de Microsoft Azure son pagas, como competir con servicios en nubes gratuitos como los de Google"

Dejo abierta la pregunta para su discusión....

3er Ponente Leman Oliveros

El tercer ponente, es el CISCO Partners SE Manager CANSAC, que tambien hablo de la ventaja de la nube, pero no como empresa, sino como impulsora para generar nuevos modelos de negocios en la nube, utilizando claro esta los productos CISCO.

Entre los producto CISCO para utilizar con las Redes sociales presentaron CISCO Quad, el cual es un generador de Red Social dentro de las empresas, integrando manejo de documentos, correo electronico, VoIP, mensajeria Interna y estandares abiertos (tales como Twitter o Facebook) permitiendo las "Comunicaciones donde sea cuando sea".

El otro producto que presentaron fue Cisco Social Media Customer Care, que no es otra cosa que un Administrador de Contenido para Redes Sociales personalizable. Introduciendo los valores a monitorear, puede generar alertas sobre el disgusto o agrado de una marca; permitiendo al encargado interactuar con los usuarios a través de API públicas.

Por ultimo, la sorpresa de la noche, fue que Cisco estaba planificando crear un Cisco Entrepreneur Institute para Venezuela en mediano o largo plazo, pero todo dependia de interes de los venezolanos para traer este tipo de instituto. Si estan interesado pueden darle click aqui.

4ta Ponente Isabel Ravell 

Isabel, la mas joven de las ponente en este evento, nos explico como las redes sociales pueden utilizarse para generar tráfico y dar a conocer nuestras marcas. 

Empezo su ponencia con datos estadisticos, nos explicaron que el 75% de la población venezolana conectada, utiliza Facebook, en comparación con el 20% que tiene twitter. Y aunque Twitter es la de menor porcentaje, es la de más rápido crecimiento, 500% en el ultimo año (datos de tendencias digitales)

Nos explico los diferentes tipo de perfiles de Facebook y algunas recomendaciones para interactuar con las 2 principales redes sociales del momento Facebook y Twitter.

Conclusiones



El evento sirvio para desarrolladores web, amantes de la tecnología, emprendedores de PYME y público en general tuviera conciencia de la realidad digital de nuestro país, y no permanecer estaticos ante la creciente economia digital.

Como sorpresa, el erente Corporativo de Mercadeo Constructora SAMBIL, Carlos Rodríguez, confirmo que el proximo #Webve podrían utiliza el Anfiteatro de Sambil Chacao, y que el #WebVe se iria de gira por varias ciudades del páis.

Así mismo, la gente de #Webve anuncio la pronta salida de su página web.


Enlances

jueves, 7 de octubre de 2010

Cinco consejos sobre marketing 3.0

Muchas compañías a nivel mundial están acercándose más a sus consumidores, están aprendiendo más de ellos e invitándolos a participar en el desarrollo de futuros productos, afirma el gurú del marketing Philip Kotler.

Fuente: CNNExpansión.

1. Incluye a tus clientes en el proceso creativo. “Todas las firmas deberían abrise a sus clientes más entusiastas y ver qué ideas pueden aportar. Eso es marketing 3.0“. El experto denomina a este proceso como consumer co-creation. Un ejemplo de ello es Harley Davidson que reúne a sus fans más cercanos con sus ingenieros para desarrollar los nuevos modelos de motocicletas.

2. Apoya a tu comunidad. Las empresas deben mostrar su preocupación por el mundo. “¿Se puede actuar como buen ciudadano y ser redituable?”, de acuerdo con Kotler las compañías que se preocupan por su comunidad y país superan a firmas similares que no le dan importancia a estos temas.

3. Plantea varios escenarios para contingencias. “El problema hoy es que las estrategias decaen muy fácil aunque sean buenas (…)Las estrategías se vuelven cada día más obsoletas en este mundo tan cambiante y deben resvisarse”.

4. Conoce a tu competencia. Kotler considera que es importante conocer cómo la empresa es percibida por la competencia, ¿cuáles son los puntos débiles y qué es lo que debe impulsar?

5. Crea reglas al momento de consumir tecnología. Es necesario desarrollar “sistemas de recomendación”, en lo que se refiere a tecnología, es decir, al momento de adquirir cualquier producto debemos generar ciertas reglas como qué tipo de modelos, precios o características buscamos para hacer menos compleja la elección.

Las 10 lecciones aprendidas en los 12 años de Google

Google acaba de cumplir 12 años, tiempo en el que ha pasado de ser una startup capaz de ofrecer un minimalista pero eficaz motor de búsqueda a un verdadero gigante de la industria tecnológica tanto en Internet, como en otros mercados como el de software o la telefonía móvil. La compañía ha sabido diversificarse y acceder a otros mercados que, en condiciones normales, hubieran sido prohibitivos. Estas son algunas de las lecciones que Google nos ha enseñado durante estos últimos doce años.

1. Las búsquedas realmente funcionan
Cuando Google se introdujo en el negocio de las búsquedas el panorama era diferente de cómo es ahora. En ese momento estaba dominado por unas pocas empresas que entendían lo que había que hacer cuando se busca en la Web, pero no supieron cómo implementarlo. Google sí lo hizo y demostró que podía contar con la comunidad de usuarios para mejorar y añadir nuevas ideas, algo que rápidamente le llevó al estrellato.

2. La publicidad basada en Web es el futuro
Cuando Google decidió utilizar el modelo publicitario como fuente principal de ingresos, demostró al resto del mercado que la publicidad en Internet es el presente y el futuro y que no tiene por qué ser muy intrusiva. A día de hoy cada vez más empresas invierten en publicidad online y le tienen que dar las gracias a Google por ello.

3. Las empresas pueden diversificarse
Durante un tiempo, las empresas relacionadas con Internet buscaban centrarse en una sola cosa para hacerla bien, para ser buenos en un negocio concreto. Claros ejemplos de ello son el de eBay (subastas) o Amazon (venta de productos). Sin embargo, Google ha demostrado que la diversificación también puede ser positiva. De las búsquedas pasó a la publicidad y de ahí a los servicios cloud o la telefonía móvil. Y todos estos negocios parecen ir viento en popa.

4. Ser el “chico bueno” no dura toda la vida
Desde sus comienzos, Google se ha considerado como el “chico bueno de la película”, entre otras cosas porque la gran mayoría de sus servicios son gratuitos para los usuarios y porque desde el principio se ha mantenido como “la empresa que lucha contra Microsoft y su modelo de negocio”. Pero los recientes problemas relacionados con la privacidad, Street View o el fracaso de Google Buzz demuestran que cuanto más grande es una compañía, más difícil es mantener a todos los usuarios felices.

5. El tamaño sí importa
Google es una empresa enorme y lo está aprovechando para mantener controlados a otros competidores. De hecho, es tal su influencia que en el momento en que ve alguna pequeña empresa que tiene potencial y puede competir contra ella en algún frente, simplemente la adquiere. Esta estrategia le ha ido muy bien durante los últimos años y es más que probable que la siga llevando a cabo. Sin embargo, este tipo de procesos también son perjudiciales para aquellas pequeñas compañías que buscan hacer historia, tal y como sucedió en su momento con la propia Google, algo que reduce la competencia por el libre mercado.

6. Google es sinónimo de omnipresencia
Hace años, Internet era un lugar muy diferente. Existían diversas compañías haciendo cosas únicas pero ninguna de ellas ha sido capaz de conseguir el éxito y explosión de esta empresa. Las búsquedas en Internet se han convertido en sinónimo de Google gracias a que ha demostrado que, con un buen servicio, una única firma puede estar en boca de todos. Tal vez en estos momentos Facebook pueda ser la única compañía en hacerle sombra al gigante de las búsquedas.

7. Las buenas ideas se ven recompensadas en la Web
Cuando Sergey Brin y Larry Page tuvieron la idea de crear Google, estaba claro que era una buena idea desde el principio. Su éxito ha demostrado que las buenas ideas son recompensadas por los usuarios de Internet, pero también por los inversores, que no dudaron en ayudar económicamente durante los primeros meses de su existencia.

8. Microsoft ya no reina solo
Hace doce años a nadie se le ocurriría pensarlo, pero Google ha dejado claro que Microsoft se encuentra en una posición peor si la comparamos con la que disfrutaba en aquella época. Y es que el desarrollo de software también se ha convertido en parte fundamental de Google, algo que le ha permitido crecer y desafiar a la propia Microsoft. Más aún, los de Redmond también se han visto en cierta forma obligados a acceder a un mercado completamente nuevo para ellos como es el relacionado con el cloud computing.

9. Más cerca de Apple que de Microsoft
A medida que Google se ha convertido en la gran empresa que es a día de hoy, algunos analistas no han dudado en afirmar que realmente se parece mucho a Microsoft. Dicen que utiliza su potencial para imponer su voluntad a la industria y, de hecho, lo hace, como también Microsoft y Apple lo hacen. Y a la hora de diseñar nuevos productos, tal vez Google esté más cerca de la elegancia de Apple que de Microsoft. Google bien podría ser un híbrido entre las dos, pero se encuentra mucho más cerca de la primera que de la segunda.

10. El dominio como denominador común
Está claro que Google quiere una sola cosa en cada mercado en el que se encuentra: dominarlo. Quiso ser el mejor, y con un amplio margen, en el mercado de las búsquedas, quiso ser la compañía a seguir en el sector del cloud computing y también quiere hacer lo propio en el segmento de la movilidad a través de Android, algo que, según las tendencias, conseguirá muy pronto.

La seguridad es un freno para la Web 2.0

De acuerdo a un estudio realizado por McAfee, las empresas de todo el mundo reconocen el valor de la Web 2.0 como soporte para la productividad y generación de ingresos, pero muestran preocupación por las amenazas contra la seguridad asociadas a la implementación de esta tecnología. Más del 60% de ellas ha sufrido pérdidas por valor de 2 millones de dólares debido a problemas de seguridad.

La encuesta realizada a 1.000 ejecutivos de 17 países muestra que la mitad de las compañías albergan dudas sobre la seguridad de las aplicaciones Web 2.0, como aplicaciones de social media, micro blogging, plataformas de colaboración, web mail y herramientas para compartir contenidos. Más de seis de cada diez empresas ya han sufrido pérdidas de 2 millones de dólares en promedio, con una pérdida colectiva de más de 1.100 millones de dólares relacionada con incidentes de seguridad en el último año. El 60% muestra preocupación por la pérdida de reputación como resultado de los abusos de la Web 2.0.

El informe titulado “Web 2.0: Un difícil equilibrio – El primer estudio a nivel mundial sobre el uso de la Web 2.0, sus riesgos y buenas prácticas", encargado por McAfee y autorizado por la facultad afiliada a CERIAS de la Universidad de Purdue, examina los líderes de la Web 2.0, los usos de las redes sociales en las empresas y evalúa los riesgos y beneficios. La investigación destaca que al mismo tiempo que las organizaciones perciben el potencial de las herramientas Web 2.0, los directivos debaten sobre la forma de permitir a los empleados el uso de esta tecnología en el lugar de trabajo.
“Las tecnologías Web 2.0 están impactando en la forma de trabajar de las empresas" explicó George Kurtz, CTO de McAfee. “El aumento de popularidad de la tecnología Web 2.0 ha provocado que las organizaciones se enfrenten a una elección: permitir que se propaguen sin control, bloquearlas o adoptarlas".

miércoles, 6 de octubre de 2010

Microsoft predijo la muerte de Blu-ray

Un ejecutivo de la empresa afirmó que el formato óptico será pasado por alto, viéndose reemplazado por las descargas de medios digitales desde sitios tales como el servicio Xbox Live. Más allá de la comodidad de poder descargar películas sin salir de casa, la eventual desaparición del DVD como soporte de medios digitales reduciría el campo de acción de la piratería.

Después de haber respaldado al desaparecido formato HD DVD, Microsoft cree que las descargas de medios digitales volverán obsoleto también al formato Blu-ray.

Aunque el formato respaldado por Sony ha logrado un cierto éxito en las tiendas de alquiler y venta de películas, suplantando paulatinamente a los DVD, las ventajas de las descargas de medios digitales son muchas, tanto para las empresas como para los consumidores. Para estos últimos, la principal ventaja es que los medios a descargar pueden obtenerse rápida y fácilmente mediante compras online, y su reinstalación en distintos equipos es sencilla (dependiendo un poco del acuerdo de licenciamiento del vendedor). Claro que con los medios digitales no obtienen los “extras” tangibles, tales como folletos, posters, calcos, etc.

Las empresas se benefician por la reducción de costos asociados a la distribución de los medios digitales, los cuales antes involucraban la grabación de millones de discos ópticos de alguna especie. Por otra parte, se dificulta la reventa de los medios, reduciendo el campo de acción de la piratería.

A pesar de todo, las predicciones de Microsoft difícilmente se cumplan en el corto plazo, ya que todavía requerirá algún tiempo para que la base instalada de reproductores de Blu-ray caiga en la obsolescencia.

Cómo usar dispositivos con USB 3.0 sin cambiar los equipos

Tras el surgimiento del denominado USB 3.0, que incrementa la velocidad de transferencia de datos, comenzaron a aparecer nuevos dispositivos que se benefician de esta característica. Sin embargo, muchas PC todavía mantienen sus puertos anteriores. Ante esta situación, ya comenzaron a aparecer accesorios alternativos que forman una completa solución para utilizar dispositivos con USB 3.0, sin necesidad de cambiar la computadora. He aquí algunos de ellos.

Poder aprovechar las ventajas que brinda la tecnología USB 3.0 sin necesidad de cambiar la PC, Encore Electronics presentó una serie de accesorios para integrar estos dispositivos. Se trata de un adaptador USB 3.0 a SATA II (ENXUS), una tarjeta Express con USB 3.0 (ENPUH-302), un adaptador SuperSpeed 3.0 PCIe (ENLUH-302), un cable con interfaz USB 3.0 (ENCA-U3C1) y un Hub con 4 puertos USB 3.0 (ENXUH-304).

Esta línea de productos con interfaz USB 3.0 es ideal para quienes buscan incrementar la velocidad en la transferencia de datos sin necesidad de actualizar su PC o comprar una nueva computadora.

La novedosa interfaz SuperSpeed USB 3.0 está diseñada para lograr una tasa de transferencia hasta 10 veces mayor que su predecesor (promete alcanzar una velocidad de 5GB/s mientras que el USB 2.0 solo alcanza una velocidad de hasta 480MB/s), que permitirá, por ejemplo, descargar una película en HD de 25GB en 70 segundos o un disco música con 10 canciones en menos de 1 segundo. Además, el nuevo estándar provee una mayor potencia del bus e incrementa la corriente eléctrica para el mejor funcionamiento de dispositivos que requieren gran cantidad de energía, como discos duros externos, grabadoras Blu-ray y cámaras de video.

Con respecto a los productos con USB 3.0 que ofrece Encore Electronics, la Tarjeta Express USB 3.0 ENPUH-302 agrega dos puertos USB 3.0 a notebooks o computadores de escritorio e incluye el driver para Windows 7/XP/Vista.

El Adaptador PCIe USB 3.0 ENLUH-302 añade dos puertos USB 3.0 a las computadoras de escritorio y también es compatible con los últimos sistemas operativos de Windows.

El Adaptador de USB 3.0 a SATA II ENXUS crea un puente entre conexiones de dispositivos de almacenamiento masivo con USB 3.0 y SATA II (así convierte dispositivos con interfaz SATA, como las lectoras/grabadoras de CD/DVD o discos duros de 2.5 o 3.5 pulgadas, en convenientes dispositivos externos) y no requiere instalar ningún driver ni apagar la computadora para cambiarlo, lo que significa que trabaja fuera del CPU y el tiempo de espera de escritura y lectura de datos entre dispositivos es considerablemente reducido.

Además, ofrece el ENCA-U3C1, un cable USB 3.0 de gran utilidad que conecta dispositivos equipados con interfaz USB 3.0, y un Hub USB 3.0 con 4 puertos, el ENXUH-304.

Estos nuevos accesorios estarán disponibles en América Latina a partir de de octubre de 2010.