miércoles, 30 de marzo de 2011

¿Porque WAP es mas seguro que WEP?


Las Redes Inalambricas, llevan con nosotros desde hace mucho tiempo, y con el tiempo se han convertido en una forma práctica de dar conectividad a las masas en eventos públicos, o en entornos que por la estética no deseamos transformar. Pero que me dicen de la seguridad, ¿Que tan seguro son las redes inalambricas?.

Para ponerlos en palabras sencilla, ahí 3 formas de configurar una red inalambricas: Sin Seguridad, Protocolo de Seguridad WEP y Protocolo de Seguridad WAP. Generalmente, cuando alguien configura un Router, y le toca llegar al punto de la seguridad, no sabe que hacer y la deja Sin Seguridad...

Grave error, lo que no sabe nuestro usuario, es que los datos que van desde el dispositivo inalambrico hasta el router pueden ser capturado por algún espía informático (Y no hablo de un superespía, hablo de cualquier vecino con conocimiento básico o medio de informática) y utilizarlo, o aún peor, venderlos.

¿Que son WAP o WEP?

WEP: Acrónimo de Wired Equivalent Privacy o "Privacidad Equivalente a Cableado", es el sistema de cifrado incluido en el estándar IEEE 802.11 como protocolo para redes Wireless que permite cifrar la información que se transmite. Proporciona un cifrado a nivel 2 de la capa OSI, basado en el algoritmo de cifrado RC4 que utiliza claves de 64 bits (40 bits más 24 bits del vector de iniciación IV) o de 128 bits (104 bits más 24 bits del IV). Los mensajes de difusión de las redes inalámbricas se transmiten por ondas de radio, lo que los hace más susceptibles, frente a las redes cableadas, de ser captados con relativa facilidad. Presentado en 1999, el sistema WEP fue pensado para proporcionar una confidencialidad comparable a la de una red tradicional cableada.

WAP: (Wi-Fi Protected Access, Acceso Protegido Wi-Fi) es un sistema para proteger las redes inalámbricas (Wi-Fi. WPA implementa la mayoría del estándar IEEE 802.11i, y fue creado como una medida intermedia para ocupar el lugar de WEP mientras 802.11i era finalizado. WPA fue creado por "The Wi-Fi Alliance" (La Alianza Wi-Fi). WPA adopta la autenticación de usuarios mediante el uso de un servidor, donde se almacenan las credenciales y contraseñas de los usuarios de la red. Para no obligar al uso de tal servidor para el despliegue de redes, WPA permite la autenticación mediante clave compartida ([PSK], Pre-Shared Key), que de un modo similar al WEP, requiere introducir la misma clave en todos los equipos de la red.

¿Cual es más seguro?

Sin lugar a duda el WAP, la razón es que el sistema de cifrado WEP esta basado en el sistema de cifrado RC4, el cual funciona de la siguiente forma: expande una semilla ("seed" en el original ingles) para generar una secuencia de numero pseudoaleatorios de mayor tamaño, que junto al mensaje se cifra a través de una operación XOR.

Uno de los mayores problemas del cifrado RC4, es el que no se puede utilizar la misma semilla para cifrar dos mensajes diferente (por que si obtuviera 2 mensajes, descifrarlo seria trivial), para evitar eso, el sistema de cifrado WEP utiliza un vector de iniciacion de 24 bits, que se modifica regularmente y es añadida a la contraseña (por esta concatenación, se genera la semilla inicial del algoritmo).

Existen diferentes estandar para el protocolo WEP, el WEP de 64 bits (que lleva una llave de 40 bits mas la semilla de 24 bits) y el de mas reciente creación el WEP de 128bits (que es una cadena hexadecimal de 26 caracteres introducido por el usuario, cada carácter representa 4 bits dando un total de 104 bit, a los cuales se le agrega los 24 bits de la semilla).

Sin importar el protocolo usado por el usuario, el vector de inciación de algoritmo RC4 tiende a ser directo y predecible para incrementar el vector de ataque de un paquete a otro. Siendo el sistema de cifrado capaz de generar muchos paquetes, la cantidad de tramas que pasan por un punto de acceso es muy grande, lo que hace que rápidamente se consigan 2 mensajes con el mismo vector de iniciación, por ende puede ser descifrado.

El aumentar el tamaño de la clave de cifrado, aumenta el tiempo necesario para romperlas, pero no resulta imposible su descifrado. Solo se necesita capturar una cantidad importantes de paquetes (que dependera de la cantidad de bits del cifrado) con un Packet Snirffers y luego con un WEP Cracker o key cracker  se trata de "romper" el cifrado.

Un WEP Cracker o Key Cracker, no es más que un programa de matemáticas estadisticas, que procesa los paquetes capturados  para decifrar la clave WEP.

¿Como puedo protegerme?

A pesar que en el mundo de IT, es bien sabido que el protocolo WEP es el más inseguro, se sigue en la mayoría de los hogares y PYMES. Ya que es el más facil de configurar, y cualquier sistema que utilice el estandar 802.11 lo soporta. Sin embargo no ocurre lo mismo con el protocolo WAP, ya que este no es soportado por los equipos viejos.

La recomendación, es verificar si todos sus dispositivo soportan el protocolo WAP y WAP2, y configurar el router bajo dicho protocolo ya que son menos susceptible para ataque (mas no estan exentas de ellas)

martes, 29 de marzo de 2011

El kernel de Linux ahora puede “hacer milagros”

Recientemente, Linus Torvalds libero la versión 2.6.38 del kernel de Linux, y está llegó con muchas novedades, entre las que se encuentran: agrupación automática de procesos (el llamado “parche que hace milagros”), mejoras de escalabilidad en el VFS, compresión LZO y snapshots de sólo lectura en Btrfs, el protocolo de redes Mesh B.A.T.M.A.N. (que ayuda a proveer de conectividad de red en presencia de desastres naturales, conflictos militares o censura de Internet), soporte gráfico para AMD Fusion, páginas grandes transparentes en lugar de a través de hugetblfs, y muchos otros cambios menores y nuevos drivers.

Agrupación automática de procesos

Con esta característica el sistema agrupará todos los procesos que tengan el mismo ID de sesión como una sola entidad. Ejemplo: Imaginemos seis procesos que están consumiendo CPU continuamente, los cuatro primeros con un mismo ID de sesión y los otros dos utilizando otras dos sesiones diferentes.

Sin agrupación automática: [proc. 1 | proc. 2 | proc. 3 | proc. 4 | proc. 5 | proc. 6]
Con agrupación automática: [proc. 1, 2, 3, 4 | proc. 5 | proc. 6 ]

El ID de sesión es una propiedad de los procesos en los sistemas Unix (poco conocida – puede verse con comandos como ps -eo session,pid,cmd). Los hijos lo heredan del padre tras fork, y pueden empezar una nueva sesión utilizando setsid. Bash crea una sesión nueva cada vez que se inicia, lo cual significa que con esta característica se puede ejecutar “make -j20″ dentro de una shell en un escritorio, sin que se note mientras se navega la web. Esta característica está implementada sobre la característica “group scheduling” (incluida en 2.6.24). Se puede desactivar en /proc/sys/kernel/sched_autogroup_enabled

Escalabilidad del VFS

Existen actualmente esfuerzos para hacer que la capa VFS (“Virtual File System”, el código que va entre las llamadas al sistema y el sistema de archivo) sea más escalable. En versiones anteriores ya se incluyeron algunos cambios preliminares, en esta versión tanto el dcache (“caché de directorios”) y el mecanismo entero de búsqueda de rutas se ha reescrito para ser más escalable (detalles en este artículo de LWN). Estos cambios hacen al VFS más escalable en cargas multihilo , pero lo más interesante (y es lo que le gusta a Linus Torvalds) es que también hacen las cargas con un sólo proceso más rápidas (debido a la eliminación de operaciones de CPU atómicas): En su $HOME, “find . -size” es un 35% más rápido. Ejecutar un “git diff” en un repositorio de kernel cacheado es un 20% más rápido (64 git diff en paralelo en 64 repositorios de kernel son un 26x más rápido). Todo lo que llame a stat con mucha frecuencia es más rápido.

Compresión LZO y snapshots de sólo lectura en Btrfs

Btrfs añade a su sistema de compresión transparente soporte para el algoritmo de compresión LZO, como alternativa a zlib. También se añade soporte para marcar un snapshot como de sólo lectura. Finalmente, los sistemas de archivos Btrfs que encuentren errores serán remontados automáticamente en modo de sólo lectura, lo cual es un paso adelante para hacer al código más resistente errores

Páginas grandes transparentes

Los procesadores manejan la memoria en pequeñas unidades llamadas páginas (que son de un tamaño de 4 KB en x86). Cada proceso tiene un espacio de direcciones de memoria virtual y hay una “tabla de páginas” donde se guardan todas las correspondencias entre la página del espacio de direcciones de memoria virtual de cada proceso y su página real de RA. El trabajo de buscar en la tabla de páginas para encontrar qué página RAM corresponde a cada dirección virtual es muy costoso, así que la CPU tiene un cache de traducciones recientes. Sin embargo, este caché no es muy grande y sólo soporta páginas de 4 KB, así que muchas cargas (bases de datos, KVM) tienen problemas de rendimiento porque no se pueden cachear todas sus direcciones virtuales. Para resolver este problema, los procesadores modernos añaden entradas de cache que soportan páginas mayores que 4 KB (como 2 ó 4 MB). Hasta ahora, la única manera que el espacio de usuario tenía de usar esas páginas era con hugetblfs. Esta versión añade soporte para usar esas páginas grandes automáticamente cuando sea posible. Las páginas grandes pueden configurarse para ser usadas siempre o sólo a medida que se pidan mediante madvise(MADV_HUGEPAGE), y su rendimiento puede cambiarse en tiempo de ejecución en /sys/kernel/mm/transparent_hugepage/enabled.

Tráfico saliente de red se expande automáticamente a varias CPUs con tarjetas de red multiqueue

Esta característica, apodada XPS, implementa un sistema que asigna una CPU a cada queue de la tarjeta de red, con lo cual se reparte la carta entre varios procesadores y se aumenta el rendimiento. Es algo análogo a RPS, pero para tráfico de entrada. En un benchmark de netperf con 500 instancias de netperf TCP_RR con 1 byte de petición en un sistema AMD con 16 cores salió que:

Con XPS (16 queues, 1 TX queue per CPU) 1234K al 100% CPU
Sin XPS (16 queues) 996K al 100% CP.

Protocolo B.A.T.M.A.N.

Es un alias para “Better Approach To Mobile Adhoc Networking”. Una red ad hoc es una red descentralizada que no se basa en infraestructuras previas, como routers o puntos de acceso. En su lugar, cada nodo participa en el enrutado siendo el mismo un router y enviando datos de otros, y de ese modo la determinación de las rutas se hace dinámicamente, basándose en la conectividad que va surgiendo. B.A.T.M.A.N. es una implementación de una de esas redes. Es útil para situaciones de emergencia como desastres naturales, conflictos militares o censura de Internet. Más información del proyecto en http://www.open-mesh.org/

Soporte gráfico de AMD Fusion

Interesante también el hecho de que se haya incluido compatibilidad con la plataforma AMD APU Fusion, que combina en el mismo encapsulado gráficos y CPU.

Richard Stallman: “Los smartphones son el sueño de Stalin”

El fundador del proyecto GNU fue entrevistado a su paso por España por la publicación Network World y, como casi siempre, no dejó indiferente a nadie. En este caso, Richard Stallman comentó lo que para él son los smartphones o teléfonos inteligentes hoy en día y los sistemas operativos móviles. En pocas palabras, una amenaza para la libertad de los usuarios. He aquí una síntesis de todo lo que dijo.

“No tengo ni jamás tendré un smartphone. Es el sueño de Stalin. Los teléfonos son herramientas de Gran Hermano y no llevaré un dispositivo de rastreo que registra donde voy todo el tiempo ni un dispositivo de vigilancia que se pueda activar para escuchar”.

La entrevista derivó entonces hacia algunos de los movimientos con éxito de software libre y surgió el nombre de Android:

“Sólo recientemente se convirtió en algo posible ejecutar algunos teléfonos con software libre. Existe una versión de Android llamada Replicant que puede funcionar con el HTC Dream sin necesidad de software propietario excepto en Estados Unidos. Si el fabricante puede reemplazar el ejecutable, pero usted no puede, entonces es una cárcel”-

Sobre los peligros que acarrea un software libre en los móviles, Stallman comentó que:

“Pueden protegerse del peligro del espionaje electrónico. Si se trata de software libre, es probable que se pueda proteger de eso, ya que eso es causa del software en el teléfono”.

Para finalizar, la entrevista derivó en los sacrificios por el software libre:

“Cada persona toma sus decisiones en base a sus valores. A la mayoría de las personas se les enseña a pensar sobre el software como una cuestión de precio y rendimiento y no se respeta su libertad. Las personas que toman las decisiones en base a esos valores no harán ningún sacrificio de conveniencia para conseguir el software libre, mientras que yo estoy dispuesto a trabajar durante años y años para que no haya software propietario en mi equipo”.


Fuente
http://www.networkworld.com/news/2011/031411-richard-stallman.html

lunes, 28 de marzo de 2011

Linux y Windows: unidos por el Autorun



El archivo autorun.inf está alojado en la carpeta raíz de los dispositivos extraíbles, y es uno de los vectores de ataque más utilizados por los creadores de malware, para propagar sus amenazas por estos medios. Pero esto no es un problema sólo de Windows. En el blog del laboratorio de Eset, el Especialista de Awareness & Research Pablo Ramos advierte que las últimas versiones de Linux, por cambios debidos a usabilidad, permiten la ejecución automática de archivos al conectar dispositivos extraíbles.

Para casi cualquier usuario de PC, es de su conocimiento que la familia de códigos maliciosos denominada INF/Autorun ocupa las primeras posiciones en niveles de infección, desde hace tiempo. Esto se debe principalmente a la gran cantidad de dispositivos extraíbles que se encuentran infectados, sin que los usuarios sean conscientes de ello.

En las actualizaciones publicadas por Microsoft este último martes, se encuentra disponible un nuevo parche que deshabilita esta función. Dicho fix ha sido liberado disponible para las todas las versiones del sistema operativo de Microsoft anteriores a Windows 7, sistema que ya no cuenta con esta metodología.

A partir de la publicación de esta actualización todos aquellos usuarios que mantengan sus sistemas operativos con las actualizaciones al día, no se encontrarán expuestos a las amenazas que hacen uso de este archivo. Esta debería ser una gran noticia para los usuarios, y Microsoft ha realizado (finalmente) lo que la comunidad de la seguridad le ha solicitado durante años.

Por este motivo, remarcamos una vez más la importancia de realizar de manera periódica la instalación las actualizaciones publicadas, ya sean de la plataforma utilizada o las aplicaciones de terceros instaladas en ella. Más allá de los sistemas que sean actualizados y se encuentren protegidos, hay que remarcar que una gran cantidad de usuarios no cuentan con software licenciado y no podrán efectuar la instalación del mismo.

Esto conlleva a que por más que se encuentre disponible el parche de seguridad, muchos equipos continúan siendo vulnerables a este vector de ataque, de manera similar a a lo que ocurrió con Conficker, el conocido gusano que se propaga desde hace un par de años y todavía continúa infectando sistemas. A más de dos años de la publicación del parche de seguridad que impide la propagación de este gusano todavía se siguen detectando infecciones de Conficker, lo que confirma que muchos usuarios cuentan todavía con su sistema desactualizado o no pueden instalar los parches debido a que no cuentan con software licenciado.

Más allá de la buena noticia, vale destacar que este vector de ataque no va a desaparecer, por los motivos ya expuestos (no todos los usuarios corregirán esta funcionalidad) y, por otro lado, porque a pesar de que muchos creen que este método que solo podía ser utilizado en sistemas Windows, esto no es así.

Algunas versiones de escritorio del sistema operativo GNU/Linux cuentan con funcionalidades similares que podrían derivar en la infección del sistema. Tal vector de ataque ha sido expuesto por Jon Larimer, investigador que demostró en la Shmoocon cómo se puede explotar el Autorun en sistemas Linux, por lo que ya no es solo el sistema operativo de Microsoft el que puede verse afectado por este vector de ataque. Según Larimer, las últimas versiones de Linux, a partir de cambios por su usabilidad, permiten la ejecución automática de archivos al conectar dispositivos extraíbles. Vale destacar, de todas formas, que se trata de una prueba de concepto (demostración de que esto es posible), pero aún no se han observado ataques In-the-Wild explotando esta funcionalidad, aunque no es posible descartarlo para un futuro. Para los que entiendan inglés, aquí les dejo la charla completa con la demostración incluida:



En conclusión, una vez descubierto un vector de ataque, los desarrolladores de códigos maliciosos lo utilizan para la propagación de malware. Es por ello que se remarca tanto la importancia de contar con una solución antivirus con capacidad de detección proactiva como así también la concientización del usuario en los que respecta a materia de seguridad.

Con los medios sociales, pocas empresas lo tienen claro

Según estimaciones de Gartner, en 2012, la mitad de las empresas intentarán bloquear los medios sociales online. De hecho, demasiadas organizaciones hoy no cuentan con políticas integrales de cumplimiento para su uso, según detalla la consultora. Además, aconseja que “Al no existir una garantía de seguridad absoluta, la opción más segura es tener una política consistente y aplicarla de manera firme”.

A finales de 2013, se estima que a la mitad de ellas habrán tenido que producir material para cubrir sus necesidades de presencia en las redes sociales. Por ello, las empresas necesitan tener en marcha una estrategia de actuación completa para todas las aplicaciones e información utilizada en los medios sociales.

“El contenido en los medios sociales es como cualquier otro que haya sido creado por compañías y personas y está sometido, por tanto, a las mismas leyes, normas y costumbres”, ha explicado la analista de Gartner, Debra Logan.

“Los creadores de normas necesitan mantener unas políticas de actuación sencillas para que marquen qué se debe hacer y qué no se debe hacer on-line. Una buena norma básica es que, cualquier código de conducta que se deba cumplir en los encuentros personales y cualesquiera que sean las reglas del buen comportamiento general y del sentido común, deben aplicarse también en el mundo on-line”.

Logan afirma que el panorama general en torno a los medios sociales sigue siendo un “puzle”, debido al solapamiento de normas y regulaciones, así como al conflicto y contradicción que se produce entre ellas.

En lo que en Gartner llaman e-discovery, esto es, presencia y descubrimiento de los medios digitales, especialmente los sociales por parte de las empresas, no existen diferencias entre los medios sociales y electrónicos e incluso con los documentos en papel. Según Logan, “la frase a recordar es, “si existe, se puede encontrar””. De hecho, Gartner también ha declarado que es frecuente que aparezcan contenidos internos cuando se realizan búsquedas on-line. Cuanto más integrado esté el sistema, por ejemplo, en plataformas de comunicaciones unificadas, más probable será que aparezca alguna evidencia. Al haber una incertidumbre legal sobre los medios sociales en este campo, gestionar la información y la presencia de las empresas en la Red es un reto para las empresas.

Gartner no espera que haya ninguna guía clara producida desde tribunales en el futuro próximo sobre el cumplimiento de normas en las redes sociales.

De hecho, en algunos casos, podría ser apropiado prohibir el acceso a los medios de comunicación social en el entorno de trabajo. Gartner estima que a finales de 2012, el 50 por ciento de las empresas intentarán bloquear el acceso a algunas o a todas las redes sociales.

¿Puede la informática ayudar a predecir el futuro?

Una empresa sueco-estadounidense ha desarrollado una tecnología que, supuestamente, permite predecir el futuro. El sistema analiza cientos de miles de sitios web, bases de datos, blogs, tweets, etc., buscando conexiones entre los textos con el fin de determinar cuándo podrían ocurrir determinados hechos. En concreto, la tecnología analiza distintos caudales informativos, estableciendo posibles conexiones lógicas y contextuales, evaluando además la calidad de las fuentes.

"El sistema puede analizar los textos con un grado tal de exactitud que podemos saber cuándo algo ocurrirá", asegura Steffan Truve, director científico de Recorded Future, al diario sueco Aftonbladet.

El proyecto habría interesado a la CIA y a Google, que incluso habrían invertido en la tecnología esbozada por Truve. Desde hace tiempo, la CIA se interesa por empresas que tengan la capacidad de desarrollar tecnologías que puedan facilitar su labor de inteligencia.

Los creadores de la tecnología admiten ante Aftonbladet que la predicción de catástrofes naturales como las que estos días afectan a Japón son difíciles de pronosticar. Explican que su tecnología podría pronosticar, por ejemplo, la cotización bursátil de una aerolínea después de anunciar nuevas rutas.

Y si, por ejemplo, un blogger escribe que una empresa cerrará dos de sus divisiones en diez meses, el sistema no asigna necesariamente la mayor credibilidad a la información. Sin embargo, si el sistema detecta que la información es referida por otros boletines o bases de datos, intenta determinar las probabilidades de que los hechos anunciados ocurran en el plazo indicado.

"Nuestras estadísticas indican que, por ejemplo, al monitorizar blogs financieros con herramientas estadísticas es posible pronosticar el desarrollo que tendrá la cotización bursátil de distintas empresas", comentó Truve a Aftonbladet.

viernes, 25 de marzo de 2011

Caso de Estudio: El Scaner en Red

Anoche, como algunos de mis followers de Twitter sabrán, estuve atascado en un problema que desafiaba toda la lógica en cuanto a mis creencias de practicidad: Un Scaner en Red.

Pero, me parece que he empezado mal el Caso... Un cliente compro una maravilla de Multifuncional de Oficina: HP Officejet 4500-gm, según sus características posee: Impresora, Scaner, Copiadora y Fax; Posee bandeja para tomar automáticamente los documentos que se van a copiar. y lo más importante sirve en Red.

Lo que yo no me imaginaba, es que la dichosa OfficeJet también permite Scanear en Red, algo que en el manual de guía rápida no lo dice. El caso como tal, comenzó por casualidad, cuando una de las empleadas mientras buscaba escanear varios documentos hizo el descubrimiento que si dejaba varios Hojas en la bandeja tractora, y en su computadora le decía que el origen en vez de Plana era bandeja, le permitia escanear varios documentos a la vez.

He de decir, que nunca considere dicha función, me parece demasiado engorroso ir hasta el Scanner, dejar una hoja, volver al computador y Scanear (fue mi primera aproximación al problema). Pero si fueramos a Scanear varios documentos, y tuviéramos una bandeja con tractor que hiciera el trabajo automáticamente, el panorama cambia. En término de tiempo, si la empresa trabaja con la digitalización de varios documentos, en una inversión mucho mas rentable.

Sin embargo, el scaner tenía una sorpresa más que lo dejare para el próximo post, ya que fue dicho problema el que realmente me animo a escribir sobre este caso.

miércoles, 23 de marzo de 2011

Una nueva Guerra de Navegadores ha comenzado

Puede que para muchos, no ha pasador desapercibido las ultimas noticias sobre los navegadores de internet que han circulado en las ultimas semanas. Y no es la primera vez que ocurre, por el lejano 1996, Se daba una carrera por conquistar las recientemente populares GUI Gráficas y el poder Surfear en la red (si en serio, así lo llamaban en aquella época algunos). De esa guerra, los principales contendiente por los usuarios del naciente Internet Gráfico era entre Netscape e Internet Explorer, resultando este último vencedor.

Pero en pleno 2011, una nueva guerra de navegadores ha comenzado nuevamente... pero ahora tenemos un nuevo aliciente: La Cloud Computing.

Internet Explorer - Firefox - Chrome: La Guerra ante la sombra del Cloud

Actualmente, la frontera entre aplicación de escritorio y web se esfumaron, los vendedores han iniciado una carrera por ofrecer las mejores claves en términos de seguridad, usabilidad y performance. Cada uno ha mejorado un aspecto, ha tomado como ejemplo a sus competencia para poder reinventarse y mantener a sus usuario actuales, y tratar de captar nuevos usuario.

Internet Explorer 9: Práctico y Agil

El nuevo navegador de Microsoft se aplica sin ningún inconveniente a los equipos que poseen Windows Vista o 7, su instalación es sencilla y se realiza mucho más rápido que las versiones anteriores. Gracias a la aceleración de hardware, los sitios web se ven como los programas ya instalados en la máquina. Para acceder a los sitios preferidos, sólo se requiere un clic. Además, presenta gran fluidez en los videos de alta definición y los gráficos muestran excelente nitidez y capacidad de respuesta.

Internet Explorer 9 permite reorganizar las pestañas o abrir cualquier pestaña en una nueva ventana del explorador con solamente arrastrarla hasta el escritorio. La navegación y la multitarea es mucho más fácil y con este navegador se presenta un sistema de gran agilidad.

Otra función que presenta el Explorer 9 es la de los sitios anclados. Aquí se puede acceder a los sitios favoritos del usuario directamente desde la barra de tareas de Windows, sin la necesidad de tener que abrir previamente Internet Explorer. También es posible agregar pestañas de las páginas principales de cada sitio anclado.

Con respecto a la privacidad en el navegador, el Internet Explorer 9 garantiza la privacidad de toda la información canalizada a través de la función One Box. El usuario es quien decide si desea compartir información con los proveedores de servicios de búsqueda y, en caso afirmativo, qué datos pueden conocer.

Como contrapartida, solo esta disponible para 2 sistemas operativo (Windows Vista y 7), lo cual obliga a los usuarios de XP a migrar a dichos sistemas operativos.

Firefox 4: destaca su versatilidad


La nueva versión de Mozilla, Firefox 4, presenta un diseño minimalista y se podrá ejecutar desde cualquier computadora o dispositivo móvil. Funciona en todas las versiones de Windows, incluyendo XP. Por otro lado, es más veloz y logra la estabilidad que, quizás, antes no tenía, dado a que ahora no se cuelga cuando un programa como Flash o Quick Time no responde. 

De esta manera, se puede disponer en todo momento de la misma configuración general, así como los passwords, el historial, los favoritos o pestañas abiertas. Además, puede utilizarse en cualquier equipo que tenga pantalla táctil.

Este nuevo navegador, que se destaca por su versatilidad, cuenta con una herramienta fundamental: Sync. Esta función permite sincronizar los marcadores, contraseñas, y hasta las últimas pestañas cerradas, entre los navegadores de diferentes computadoras.

Desde Mozilla, afirman que la nueva versión del navegador tendrá un 40% más de rendimiento que la anterior. Por otra parte, Firefox 4 está preparado para mostrar sitios que se hagan de aquí en el futuro. Esto quiere decir que soportará versiones HTML5.


Google Chrome 10, más rápido que un rayo

El navegador de Google, Google Chrome, ha sido actualizado a la versión 10. Esta modalidad cuenta con una mayor seguridad y mejor tiempo de respuesta. La actualización incluye una nueva versión del V8, motor de JavaScript de Chrome, que promete velocidades de páginas Web y aplicaciones JavaScript. Además, el Chrome 10 presenta la herramienta de seguridad sandbox con Adobe Flash, que le proporciona a los usuarios una red de seguridad, mientras ve el contenido Flash.

Google registró un incremento del 66% en velocidad sobre la antigua versión del V8. Otra mejora que tiene que ver con la rapidez y fluidez es la aceleración de hardware GPU para videos en páginas Web, poniendo muchas de las tarjetas de video a funcionar a su máximo poderío.

Chrome 10 presenta la herramienta de seguridad sandbox con Adobe Flash. Ésta le proporciona a los usuarios una red de seguridad, mientras ve el contenido Flash. Actualmente, esta protección sólo está disponible en la versión de Windows.

Por otra parte, una característica fundamental del nuevo navegador es la capacidad para sincronizar contraseñas entre equipos, así como bookmarks, extensiones, preferencias y temas, entre otros. Para poder realizarlo, sólo se debe habilitar en la pestaña de preferencias. 

Conclusiones

Los 3 principales navegadores del mercado ya están disponible para su instalación oficial, y los desarrolladores ya se apresuran al contar con navegadores que cumplen con los estándares HTML5 y CSS3 en mas de un 98% en los ultimos navegadores. Por tanto, Podemos esperar un incremento de páginas web que interatuarán de una manera nunca antes vista en lo visual y lo estetico con el usuario.

Así, la nueva guerra de navegadores ha comenzado...

martes, 22 de marzo de 2011

¿Por que debemos tener un servidor?

Hace algunos días, un ex-estudiante me hizo una pregunta inocente, pero a la vez poderosa ¿Por que debemos tener un servidor en la empresa?

Las razones son muchas, pero para mí la principal es la de compartir datos. En mi, experiencia puedo decir que si no compartimos información, no podemos esperar una colaboración entre los empleados e inclusive entre los clientes de nuestras empresas. 

Como muestra un ejemplo:

En una empresa "X", el departamento de compra guarda en una hoja de calculo todas las compras que se necesita para confeccionar el producto "Y", de la misma forma tiene la cantidad en existencia de dicho producto.

El vendedor "Z", desconoce cuantos productos "Y" tiene en existencia, ni conoce por certeza en que momento llegará el producto al almacén. Pero lo que si tiene el vendedor "Z" es la cantidad que le ha pedido los diferentes clientes.

Conclusión: El departamento de compra no sabe que producto debe reponer, y el vendedor desconoce cuando se reponen los productos.

Sin datos compartidos, no hay colaboración

En una empresa, sin importar su tamaño, la desinformación solo lleva al fracaso. Sobre todo en la PYME, he observado que los gerentes depende de "la buena fe de los empleados", en donde cada quien guarda la información relacionada a su trabajo diario, en su computador asignado e inclusive en computadores personales ajenos a la empresa.

Como técnico, me he encontrado con lista de clientes, informe trimestrales, análisis de costos, e inclusive una vez me conseguí con un plan de lanzamiento de un nuevo producto en computadores personales de trabajadores de empresa. No me gusta pensar que es una práctica común, pero lo es, y a la que los gerentes de empresas están ajeno o en el peor de los casos, desconocen sobre el tema.

En muchas ocasiones puedo escuchar en PYME, conversaciones como esta:

¿El último listado de stock? Está en la computadora de Jorge. ¿Usaste el listado que estaba en la notebook de Osvaldo? Pero eso estaba todo desactualizado. Llamá ya mismo al cliente y dile que espere, que le mandamos enseguida uno más nuevo. ¿Ya hizo una orden de compra? Bueno, fijémonos si tenemos lo que pide y si no... pongamos alguna buena excusa”. 

Si, alguien se sintió identificado con esta conversación, es que realmente esta necesitando centralizar su información. Un servidor, al contrario de lo que se piensa, no es complejo ni costoso. Muchos de los Sistemas Operativos de Servidores, tienen la opción de "Servidor de Archivo" casi que por defecto, y su configuración y mantenimiento resulta ser mínimos.

Este primer paso, nos permitirá obtener un cierto orden dentro de la jerarquía de la información que transita en nuestras empresas. Obteniendo una red de ayuda, podemos obtener un soporte fiable y accesible por todos en la empresa y maximizar el principal componente para que crezcamos: La colaboración.

Hace más de 20 años que las gestión de la información se lleva a través de formato electrónico, pero es en los últimos 5 años, en el que, el concepto de inmediatez se ha hecho más presente. 

Entonces ¿Por que instalar un servidor? Por que hoy en día es algo esencial en las empresas.  Una vez instalada la red el siguiente paso es utilizar los software que aprovechan esta arquitectura para dar soluciones específicas a las necesidades de cada empresa.

¿El último listado de stock? En un segundo te lo envío”. En estos tiempos, esta es la conversación con la que te tienes que estar identificando.

El terremoto de Japón, un desastre humano y para la IT

El mayor terremoto de los últimos 140 años y el tsunami posterior han acabado con carreteras, aeropuertos y otras infraestructuras, al tiempo que han dañado el tejido industrial del Japón. Este país, la tercera economía del mundo tras Estados Unidos y China, es uno de los principales motores de algunas industrias, en especial la tecnológica. Varias grandes del sector de nacionalidad nipona se han visto afectadas por la tragedia. Y, aunque en este momento lo más importante son las pérdidas humanas, cabe preguntarse también qué consecuencias habrá para el mercado mundial de informática y comunicaciones.

En las próximas semanas, las grandes tecnológicas globales enfrentarán costos más altos para conseguir componentes y una posible escasez de productos. Partes esenciales como chips de memoria y pantallas de cristal líquido se utilizan en electrónicos de consumo como los teléfonos inteligentes y los televisores. Una interrupción en los envíos de Japón puede perjudicar seriamente a estas compañías. Japón aporta el 40% de los componentes electrónicos en todo el mundo.

Los efectos del terremoto en Japón son innumerables y están influyendo y mucho en la industria tecnológica. Así lo estima iSupply, cuyas predicciones apuntan que los mercados de equipamiento de electrónica de consumo, memorias y pantallas LCD serán los más perjudicados.

En 2010, Japón produjo equipamiento electrónico, incluidos PC, dispositivos de electrónica de consumo y sistemas de comunicaciones, por valor de 216.600 millones de dólares, cifra que da buena cuenta de cómo el terremoto puede afectar a este mercado. Además, según la consultora iSupply, los proveedores japoneses acapararon más del 20 por ciento de la producción global de semiconductores en 2010, y, si bien, no toda la producción está localizada en Japón, un buen porcentaje se fabrica en instalaciones niponas.

El mayor impacto sobre la producción de semiconductores de Japón no es tanto el daño directo que el terremoto ha causado en las fábricas, como en la interrupción de la cadena de suministro. En este sentido, los fabricantes tendrán dificultades para obtener materias primas y para llevar a cabo la distribución y envío de sus productos. Esto puede causar algunos trastornos en el suministro de semiconductores desde Japón durante las próximas dos semanas, apunta iSuppli. De momento, la fabricación de memoria DRAM, en la que Japón acumula el 10 por ciento del suministro mundial, no se ha visto afectada, según las estimaciones de la consultora.

En cuanto al mercado de pantallas LCD, Japón acumula el 6,2 por ciento de la producción de paneles a partir de 10 pulgadas y el 14 por ciento de las pantallas de televisión LCD, y aloja algunas de las fábricas más avanzadas, entre ellas la del fabricante Sharp. ISupply señala que, según sus fuentes, las instalaciones de Sharp no se han visto directamente afectadas por el terremoto, dada su ubicación remota, y sólo una gran fábrica de LCD puede estar en la zona del impacto periférico del sismo.

Empresa por empresa

Varios fabricantes del sector tecnológico, incluyendo Sony, Panasonic y Fujitsu, han cerrado sus plantas para evaluar los daños sufridos y planear cómo lidiar con los cortes de suministro eléctrico que podrían prolongarse varias semanas.

Panasonic ha lanzado un comunicado haciendo balance del impacto del terremoto y del tsunami: la compañía cuenta con dos factorías en Fukushima y Sendai, dos de las zonas que tristemente más se repiten en los titulares de los últimos días. Según éste, aunque sus fábricas no han sido afectadas con gravedad por incendios o daños, la producción está suspendida. Por el momento la compañía asegura que el impacto sobre sus resultados fiscales es “incierto”, aunque ya ha avanzado a sus accionistas que anunciará cualquier detalle importante en cuanto tenga esa información.

Toshiba, por su parte, ha anunciado que se pone a disposición de TEPCO, la compañía responsable del suministro eléctrico de Tokio, para ayudar a que la ciudad no se quede desabastecida de electricidad. Por ello, la compañía ha cerrado oficinas – salvo unos servicios mínimos – en aquellas zonas que podrían verse afectadas por apagones.

Fujitsu es otra de las firmas que también se han puesto al servicio de la sociedad: ha anunciado ya que donará 100 millones de yenes para paliar los efectos del terremoto y ha puesto su know how tecnológico a disposición para recuperar servicios elementales como la atención médica o el servicio eléctrico.

Por su parte, Canon está estudiando los daños sufridos en sus fábricas. Quince de sus trabajadores en Utsunomiya resultaron heridos durante el terremoto y a día de hoy están suspendidas las operaciones en todas sus fábricas del norte del país, la zona más afectada por el terremoto. Sus factorías en el oeste no están afectadas por el temblor y la compañía ya ha anunciado que utilizará alternativas a sus dañadas fábricas del norte para recuperar la producción.

Sony, por su parte, ha suspendido operaciones en ocho fábricas.

Podrán escasear los semiconductores

Debido a que Japón produce más del 40% de los chips de memoria flash en todo el mundo, y el 15% del tipo DRAM, el terremoto de 8,9 grados que sacudió el país podría afectar gravemente al suministro mundial de semiconductores.

Según Jim Handy, analista de la firma de investigación de semiconductores Objective Analysis, no habría una gran caída en la producción de chips si subiese el precio drásticamente, aunque advierte que a corto plazo podría sufrirse escasez de unidades y producirse una subida importante de los precios. Otros terremotos de menor magnitud, como el de 5,9 en 2008 y los dos terremotos de 6,0 y 6,8 en 2007, ya plantearon preocupaciones similares acerca de la industria de los semiconductores.

Mike Howard, analista de iSupply, asegura que, según sus contactos en Japón, la producción de las plantas de Micron, Toshiba y Elpida Memory se encuentran lo suficientemente lejos del epicentro del terremoto como para evitar cualquier tipo de daño, situándose todos ellos en la parte sur y oeste de Japón. Aunque no han sido afectadas estas instalaciones directamente, Howard argumenta que sí podría haber un impacto en la producción de semiconductores debido a una posible interrupción en la cadena de suministro. "Los proveedores son propensos a tener dificultades para obtener materias primas y seguramente vayan a encontrarse problemas con el envío de productos hacia el exterior," aseguró.

Por otro lado, Objective Analysis argumenta que la demanda de semiconductores se va a ver afectada, ya estén las fábricas cerradas o no, porque muchos fabricantes de productos electrónicos en Japón, entre ellos los de semiconductores, van a parar de producir hasta que el daño del terremoto sea reparado. Por ejemplo, Nikon, que cuenta con instalaciones cerca del epicentro, también ha tenido que hacer lo mismo.

Sin embargo, en muchos sentidos, la industria de semiconductores de Japón está mucho más preparada para desastres de esta magnitud que las instalaciones que hay en otros países asiáticos. No sólo porque Japón dispone de unos códigos de construcción más estrictos, también porque sus plantas de fabricación se encuentran repartidas por todo el país. Por ejemplo, en Corea y Taiwán, otros de los dos productores de semiconductores más importantes, las instalaciones se agrupan.

jueves, 17 de marzo de 2011

El 37 % de los menores comparte datos con desconocidos en redes sociales

Hace unos días atrás, Microsoft dio a conocer los resultados de una nueva encuesta denominada "Privacidad online: Navegá protegido", que analiza los comportamientos de los menores a la hora de cuidar su seguridad y privacidad en las redes sociales.

La empresa Microsoft acaba de hacer público los resultados de una reciente encuesta denominada "Privacidad online: Navegá protegido".

En este estudio se analizaron los comportamientos de los menores a la hora de cuidar su seguridad y su privacidad mientras utilizan las principales redes sociales como Facebook.

Este trabajo recopiló mucha de la información con que se trabajó en el propio portal de Microsoft, MSN, y también buscó analizar el grado de conocimiento que tienen los padres sobre las actividades de niños y adolescentes en la web; además de mensurar los riesgos a los que están expuestos y el manejo de su información personal y el controvertido tema de la privacidad en línea.

LOS RESULTADOS

Aunque el 69% de los padres asegura que existen pautas claras en el hogar para compartir información, el 35% de los menores de edad afirma haber conocido personalmente a un contacto con el que sólo tenía una relación virtual.

"Como vemos" comentó Jorge Cella, directivo de Microsoft durante la presentación pública del estudio, "el 16% señaló que alguna vez recibió intimidaciones o amenazas en alguna red social y de la misma manera, en relación a su acción al respecto, el 28% respondió que no hizo nada en cambio el 46% lo denunció".

"Pero además", continuó, "el 15% sufrió discriminación en alguna red social y el 47% afirmó que no hizo nada al respecto y un 21% lo denunció".

Estos datos muestran que es clave el trabajo de concientización e integración entre la escuela, la familia, la industria, y las instituciones comprometidas en este tema.

OTRAS ESTADÍSTICAS
  • El 37% de los menores (este dato llega al 38% en el total de los casos) aseguró que comparte en redes sociales o por chat, con gente que no conoce en la vida real, algún dato personal real como edad, colegio, mail, teléfono, dirección, o nombres de familiares.
  • Respecto de los contenidos el 38% publica fotos suyas en la web habitualmente y el 21% también sube videos. El 64% afirma que lo hace para compartir con amigos.
  • El 20% dijo que dio información falsa, si un desconocido o un conocido "virtual"- en un sitio web pidió algún dato personal. Sólo el 32% abandonó la conversación y el 35% indicó que no deseaba o no podía compartir ese tipo de datos por Internet.

USAR SIN PERMISO

Las consultas enfocadas en privacidad este año muestran lo siguiente:
  • El 20% de los encuestados asegura que alguna vez alguien usó sin permiso, la dirección de correo electrónico o el perfil en las redes sociales.
  • El 30% no actuó al respecto, el 22% lo denunció y el 19% avisó a sus amigos. El 25% de los menores de 17 años lo habló con sus padres.
  • El 16% señaló que alguna vez recibió intimidaciones o amenazas en alguna red social; el 28% respondió que no hizo nada. El 46% lo denunció, el 6% avisó a sus amigos y el 16% lo habló con sus padres.
  • El 15% sufrió discriminación en alguna red social y el 47% afirmó que no hizo nada al respecto. El 21% lo denunció y el 11% lo habló con sus padres.

CONSEJOS PARA NAVEGAR MAS SEGUROS POR LA RED

Finalmente, en la presentación los coordinadores del trabajo ofrecieron una serie de consejos, sitios web y pautas donde poder encontrar consejos prácticos para navegar más seguro por Internet.

Y recomendaron a los padres entrar al portal navegaprotegido.org (creado por Microsoft Latinoamérica junto a la Fundación Ricky Martin, con el apoyo de diversas organizaciones) sobre los riesgos de Internet.

martes, 15 de marzo de 2011

Sospechosos Habituales: Errores comunes del ensamblado de PCs, parte III

Para concluir este tutorial acerca de los errores cometidos más comúnmente durante el ensamblado de PCs, veremos los aspectos relacionados con la configuración de la memoria. 

Excepto las PCs más antiguas, actualmente todas trabajan con un esquema de memoria de canal dual (dual channel) o canal triple (triple channel). Tal esquema hace que la tasa de transferencia se duplique o triplique gracias a que el controlador de memoria del microprocesador o del chipset accede a la memoria mediante bloques de 128 ó 192 bits, en lugar de 64 bits. Para asegurar que la memoria está funcionando con una performance óptima, es necesario asegurarse de que la funcionalidad de canal dual o canal triple esté habilitada en la motherboard.

En el caso de las configuraciones de canal dual, para aprovechar esta característica se deben emplear un número par de módulos; mientras que en el caso de canal triple, la cantidad de módulos debe ser tres o múltiplo de tres. De lo contrario, el controlador de memoria escalará “hacia abajo” el funcionamiento del subsistema de memoria; es decir, si se colocan dos módulos en una placa con canal triple, funcionará como si fuera de canal doble, y si se coloca un único módulo en una placa con canal doble o triple, funcionará como si fuera de canal simple. Por ejemplo, en una placa con canal doble, es mejor colocar dos módulos de 1 GB que un único módulo de 2 GB.

Además de la cantidad de módulos a instalar, debe verificarse que éstos se instalen en los sockets correspondientes. La identificación de éstos depende de cada motherboard. Algunas mothers requieren que los módulos se instalen secuencialmente (el primer módulo en el primer socket, el segundo módulo en el segundo socket, etc.), pero la mayoría de las placas requieren saltearse uno o dos socket, separándolos en los bancos de memoria destinados a cada canal. Es común encontrar sockets coloreados que facilitan su identificación, pero no hay ninguna regla establecida a este respecto. En algunas placas, los módulos deben colocarse en los módulos del mismo color, mientras que en otras, los módulos deben repartirse entre los sockets de diferentes colores. Para saber cuál es la forma correcta de asignar los módulos a los sockets, lo mejor es recurrir al manual de la mother.

Chequear el uso de doble o triple canal

Hay dos formas básicas de verificar si una PC está funcionando en modo de canal dual, canal triple o canal simple. La primera es ver lo que aparece en la pantalla en el preciso momento en que se enciende la PC. La segunda consiste en correr una utilidad de identificación de hardware. Si la PC está utilizando una configuración incorrecta de memoria, será necesario ver qué sucede; puede ser que haya un único módulo en un sistema de canal dual, o dos módulos en un sistema de canal triple, o que los módulos estén colocados en los sockets equivocados.

Muchas mothers modernas despliegan una pantalla gráfica al iniciarse, ocultando los detalles de configuración. En estos casos, conviene presionar la tecla Tab mientras está visible la pantalla gráfica para pasar a la pantalla en modo texto que permite ver la configuración de memoria. Una vez en modo texto, conviene presionar la tecla Pausa para poder leer la pantalla tranquilamente, ya que ésta se muestra sólo por unos segundos.

En caso de que se prefiera utilizar una utilidad de identificación de hardware, existen numerosas opciones de programas gratuitos para descargar. Consulte la sección Downloads para ver algunas opcione

lunes, 14 de marzo de 2011

Las tribulaciones de instalar programas en GNU/Linux

La instalación de nuevos programas en Linux, si bien tiene enormes ventajas respecto de la forma de hacer las cosas en Windows, puede confundir a los nuevos usuarios. Entre otras cosas, porque cuando queremos instalar uno nuevo podemos descargar el código fuente y compilarlo nosotros mismos, o bien descargar un paquete precompilado para nuestra distribución. He aquí un listado de cosas que se podrían mejorar para hacer las cosas más amigables.

1. Código abierto... y algo más

El software libre permite que cualquiera pueda acceder a su código fuente. Sin embargo, la mayor parte de los usuarios no quieren acceder al código fuente de los programas, sino a un simple binario. En ese sentido, los desarrolladores deberían preocuparse por hacer que sus aplicaciones se encuentren disponibles para todas las versiones, o al menos la mayor parte de ellas. Por suerte, no hace falta que ellos hagan el trabajo sucio, ya que existe una larga cantidad de fanáticos de las diferentes distros que pueden ayudar en esa noble tarea.

2. Eh... ¿y ahora qué?

Acabo de instalar X aplicación y no aparece el acceso directo en el menú principal. Seguro alguna vez te sucedió, especialmente con aplicaciones Windows instaladas a través de Wine. Esto es inaceptable en un sistema operativo del siglo XXI.

3. Uniformizar las interfases

Olvidémonos por un segundo de la loca idea de unificar los paquetes de instalación en un único formato, eso nunca sucederá (en algunos casos, por razones muy válidas). Sin embargo, podría resultar muy útil que las interfases gráficas de instalación de paquetes luzcan similares e incluso que sean compatibles con los diferentes sistemas de paquetes. Esto sucede en algunos casos, pero debería hacerse con mayor ahínco.

4. La compilación debería ser más sencilla

Muchas veces resulta imposible conseguir los paquetes de un programa para nuestra distro favorita. En ese caso, la única opción que nos queda es descargar el código fuente y tratar de compilarlo. La mala noticia es que muchos no incluyen un detalle de los pasos a seguir para tener éxito en esta complicada tarea. ¿No sería hermoso que se incluyera un script install.sh que se encargara de todo, incluso de verificar las dependencias?

5. La odisea de desinstalar un programa compilado "a mano"

Desinstalar un programa que se ha compilado "a mano" puede convertirse en una verdadera pesadilla, sobre todo si los desarrolladores no incluyeron instrucciones para make uninstall.

6. ¿Un metapaquete estándar?

OK, nunca jamás vamos a ponernos de acuerdo en la utilización de un formato de paquetes común. Sin embargo, ¿no sería posible la utilización de un metapaquete adentro del cuál pudieran almacenarse cualquiera de los formatos de paquetes ya existentes (del mismo modo que el metapaquete AVI puede almacenar diferentes formatos de video)? De ese modo, el mismo paquete podría funcionar en cualquier distro. :)

7. Nombres de paquetes estandarizados

¿Por qué demonios las distintas distros le ponen nombres diferentes a los mismos paquetes? De modo que sea más sencillo resolver los problemas de dependencias de paquetes, resultaría indispensable acordar un método uniforme y estandarizado para asignar los nombres a los paquetes.

8. Uniformizar la forma en que se construyen los paquetes

Además de los nombres, es preciso uniformizar el método en que se agrupan los programas para construir paquetes. Hoy cada distro hace lo que quiere. Corregir este problema le daría mayor consistencia a la jerarquía de paquetes y reduciría enormemente la confusión.

9. Compilación e instalación automática del código fuente

¿No sería hermoso que los administradores de paquetes fueran capaces de descargar, compilar e instalar automáticamente los programas en vez de tener que utilizar el sistema de paquetes actual? Yaourt parece ir en esta línea... pero debería haber más experiencias en este sentido.

10. Actualizaciones desde el explorador web

En Ubuntu, Apt viene con una herramienta para instalar programas directo desde el explorador web. Otras distros deberían replicar esta experiencia e incluso sería interesante el desarrollo de administradores de paquetes online. No sería un agujero de seguridad, en tanto y en cuanto los programas se descargarían desde los repositorios oficiales de la distro.

11. ¿Realmente vale la pena la existencia de tantos formatos de paquetes distintos?

No sé si la estandarización total y absoluta es la mejor opción, pero convengamos que la existencia de una infinidad de formatos de paquetes distintos hacen las cosas más difíciles para los desarrolladores que quieren que todos los usuarios de Linux utilicen sus aplicaciones.

12. Ejecutar luego de instalar

¿Cuándo aparecerá la posibilidad de ejecutar la aplicación que uno acaba de instalar? Es tan sencillo y sería de taaaanta utilidad. En vez de mostrar información supérflua (o al menos, detalles que la mayor parte de los usuarios no desean conocer), sería interesante que contáramos con esta opción.

13. Keep source builds in package database

Compilar e instalar un programa en Linux no sólo es una tarea difícil, además, el administrador de paquetes no va a estar al tanto de la instalación de ese programa o sus dependencias, creyendo que siguen sin estar satisfechas. Un administrador de paquetes que permitiera la compilación e instalación de programas desde su código fuente permitiría también resolver este problema.

14. Eliminar viejas dependencias

No es el caso de aptitude o yum, pero cuando utilizamos apt-get para desinstalar paquetes, sus dependencias (que ya no son precisadas por otros paquetes) no se desinstalan junto con ellos. Para subsanar esta situación, hay que usar sudo apt-get autoremove. Señores, esto debería ser automático... ¡desde hace rato!

Fuente: Techradar y usemoslinux.blogspot.com