martes, 26 de octubre de 2010

Sígueme en la nueva pág. de noticias sobre tecnología y otros temas.

Hola lectores,
Gracias por las muestras de afecto e interés por su parte por los correos que cordialmente han enviado a mi cuenta personal, actualmente sigo escribiendo pero lo hago en la siguiente dirección no duden en consultarla, en ella encontraran mi material más reciente entre otra información de varios temas interesante de colaboradores y expertos. Un saludo y abrazo para aquellos que me han dado una palmadita en el hombro preguntando ¿ya no escribes no me han llegado tus invitaciones a leer tu blog? A todos ellos, gracias.
Sigue las noticias de blog Tecnología De Información desde www.dosmares.com.mx

viernes, 30 de julio de 2010

Dell elimina Ubuntu de sus ventas en línea

Dell dejó de vender computadoras y portátiles en su página web con el sistema operativo Ubuntu de Linux, aunque afirma que mantiene su compromiso con el software libre.

Según un portavoz de la compañía, Dell está actualmente llevando a cabo algunos cambios a las páginas relacionadas con el sistema operativo Ubuntu, y como resultado, los equipos con dicho sistema operativo tan sólo se encuentran disponibles si la compra se realiza mediante teléfono.

El mismo portavoz también destacó que la principal razón por la que los sistemas de Ubuntu no se encuentran disponibles en las principales páginas web de Dell es porque dicho sistema operativo está orientado fundamentalmente a usuarios avanzados y entusiastas, mientras que la inmensa mayoría de usuarios compra los equipos basados en sistema operativo Windows preinstalado de serie. También señala que la falta de esta opción en línea afecta tan sólo a las tiendas de Dell europeas, ya que el dominio dell.com todavía cuenta con un “top 10” en el que aparecen equipos como el Mini 10n o el Inspiron 15n con la opción de compra de sistema operativo libre.

En definitiva, las declaraciones vertidas por el fabricante son un tanto tranquilizadoras, en el sentido que se asegura que van a seguir apostando por la inclusión del software libre en la configuración de sus equipos, para todo aquel que desee adquirirlo con dicho sistema operativo. Sin embargo, muchos otros lo ven como una falta general de interés por el sistema operativo que en su día fue una apuesta decidida, y que a su vez, permite abaratar la adquisición de nuevos equipos al no tener que pagar licencia de software.

jueves, 29 de julio de 2010

Nokia desarrolla Terminal Mode para conectar el celular y el auto

La tecnología Terminal Mode que Nokia está desarrollando para interconectar smartphones y automóviles está un paso de hacerse realidad. El fabricante mostró las primeras imágenes, con uno de sus teléfonos conectado a un Volkswagen, en la conferencia anual MobileBeat.

Terminal Mode es una tecnología que Nokia propusó como estándar para conectar el teléfono celular a los sistemas de información del coche. Se trata de una conexión bidireccional que permite intercambiar información audiovisual y relativa al GPS, de manera que permita integrar los servicios que ofrece el celular en los sistemas del automóvil, incluyendo sus bocinas, pantallas y sistemas de control.

En la conferencia anual MobileBeat, que tuvo lugar en San Francisco, Nokia mostró los primeros resultados del desarrollo de Terminal Mode, funcionando con un automóvil Volkswagen.

En la demostración se pudo ver cómo es posible utilizar los smartphones, y sus correspondientes aplicaciones, a través de la propia interfaz del sistema de información del coche, de manera que la pantalla del coche actual como terminal de control del smartphone.

Terminal Mode es una tecnología estándar y abierta para todos que está siendo desarrollada en colaboración con el grupo de trabajo “Electrónica de Consumo para la Automoción” (CE4A) y ya ha sido respaldada por varios fabricantes de automóviles. Además, Nokia también está en conversaciones con otras empresas de telefonía móvil.



El 73% de las empresas utiliza las redes sociales para la búsqueda de profesionales

Los resultados del estudio de Jobvite ponen de manifiesto que el 73% de los responsables empresariales sondeados utilizan ya las redes sociales online como parte de sus medios de identificación de candidatos y que un 19% más espera hacerlo a lo largo de este año. En cuanto a la preferencia por las distintas alternativas existentes, el 78% utiliza LinkedIn, el 55% Facebook (un 15% más que en 2009) y el 45% prefiere Twitter (un 32% más que en 2009).

Jobvite ha entrevistado a 850 responsables de recursos humanos y contratación sobre el uso que hacen de los sitios web de networking social para buscar posibles candidatos. Sus respuestas indican que estos ejecutivos consideran las redes sociales como un canal viable para la localización de candidatos altamente cualificados y que planean utilizarlas en mayor medida en el futuro.

De hecho, según Jobvite, el reclutamiento de personal por este medio está en algunas compañías eclipsando ya canales más tradicionales para la búsqueda de candidatos, como las agencias de empleo o las bolsas de trabajo.

La compañía subraya además otras ventajas del uso de redes como LinkedIn, Facebook o Twitter para buscar empleo, como son el hecho de que el candidato tendrá acceso antes a las oportunidades de trabajo

Receta para el exito en gerencias de proyectos

¿Cuál es la receta para el éxito en la gestión de proyectos? Muchos profesionales TI concuerdan en que el compromiso y el apoyo de la alta gerencia, alcance y requerimientos claramente definidos, buena comunicación, y los recursos adecuados para el proyecto encabezan la lista de los ingredientes fundamentales.

Por su puesto, éstos no son los únicos factores que influyen en el resultado exitoso de un proyecto. Los profesionales de TI también consideran crucial la metodología (o el proceso o el marco de trabajo) de la gestión del proyecto, la necesidad de expectativas de gestión, y un gerente de proyecto con muchas habilidades.

Recientemente, 83 miembros de CIO Forum en LinkedIn desarrollaron una meticulosa guía de los factores de éxito de un proyecto mientras participaban en una discusión sobre las formas de asegurar el éxito en un proyecto de TI.

Algunos de los factores más importantes que se mencionaron eran obvios, otros, no tanto. Aquí, comparto algunos de los factores menos obvios, pero no menos importantes, que tienen influencia sobre el éxito del proyecto. (Y por menos obvios nos referimos a los factores que no se nos vienen de inmediato a la mente, son obviados fácilmente o que se desestiman cuando las cosas se complican en el proyecto). compilaron esta lista, que de ninguna manera es exhaustiva, basados en los comentarios que surgieron en la discusión del CIO Forum y durante entrevistas telefónicas con expertos en gestión de proyectos. Siéntase libre de dejar sus comentarios.

1. Definir con claridad qué es éxito
Uno no puede lograr el éxito si no sabe qué es, el éxito de los proyectos debe definirse en términos que sean significativos para el negocio.

“Con frecuencia, como profesionales de TI, asumimos que el éxito se define en base al cumplimiento de los plazos, del presupuesto y de los requerimientos definidos”,“Aunque esto es importante, es [igualmente] importante entender la propuesta de valor esperada del proyecto y dirigir los esfuerzos del mismo para asegurar que se logre”.

En otras palabras, incluso si el proyecto es concluido a tiempo, dentro del presupuesto y cumple todos los requerimientos, podría aún ser considerado que falló si no proporciona el valor de negocio esperado.

2. No temer a las decisiones impopulares
Bronnie Brooks, consultor de TI y gerente de proyectos que participó en la discusión del CIO Forum, le dijo a CIO que ella tuvo que tomar decisiones difíciles a lo largo de los años que fueron impopulares incluso para su cliente, su gerente o su equipo, para poder mantener los proyectos dentro del plazo, dentro del presupuesto, y con los recursos adecuados intactos. Por ejemplo, afirma que le tuvo que decir a un cliente que una característica que estaban esperando en un próximo release de un software no se daría y que tendrían que esperar hasta el siguiente release, un año después. En otra ocasión, tuvo que trasladar a un miembro del equipo que uno de sus clientes quería en el proyecto, hacia otro proyecto donde sus habilidades eran necesarias.
Tomar decisiones duras acerca de los recursos y prioridades del proyecto puede ser difícil para algunos gerentes de proyectos TI que quieren quedar bien con todos y que quieren creer, como todos los demás, que el proyecto va a funcionar, señala Brooks. Pero tomar ese tipo de decisiones es crucial.

“Algunas veces la mejor decisión no va a ser la más popular”, sostuvo Brooks, “pero te va a permitir avanzar”.

3. Capacitar y guiar al usuario final luego del Go-Live
Seguro piensa que capacitar a los usuarios finales en cualquier nuevo sistema que está siendo desplegado podría considerarse como un factor de éxito obvio y, para muchos profesionales, probablemente lo sea. Pero con frecuencia las implementaciones de los sistemas fallan, no porque se hayan entregado tarde o porque hayan superado su presupuesto, sino porque los usuarios finales no han sido adecuadamente capacitados. Consecuentemente, no adoptan el nuevo sistema.

Nunca se puede decir que se ha puesto suficiente énfasis en la capacitación o que se ha dado suficiente atención a la guía que se debe realizar luego del go-live”, “Podría decir que la mayoría de las fallas en los proyectos TI se producen por una inadecuada capacitación del lado del usuario y una pobre administración de la fase más crítica: las posterior al go-live”.

4. Definir claramente los roles y responsabilidades
Algunas veces, las personas involucradas en un proyecto (el gerente de proyecto, los miembros del equipo, los miembros del comité de guía y los auspiciadores) no entienden sus roles y responsabilidades porque nadie las ha definido, señala Chet Ung, auditor TI de The Wood Group quien participó en la discusión del CIO Forum

Si, por ejemplo, los miembros del comité de guía del proyecto no entienden su rol, no sabrán con qué se supone que deben de contribuir, señala Ung. Ellos no se dan cuenta que tienen la capacidad de cambiar el curso de un proyecto. Consecuentemente, no contribuyen con nada en las reuniones porque no saben qué preguntar, e incluso no saben que pueden hacer preguntas. Los proyectos pueden fallar cuando el comité de guía no cumple con el rol supervisor que se supone tiene, señala.

“Los roles y las responsabilidades tienen que ser definidas y documentadas para establecer las expectativas y evitar la confusión sobre el nivel de contribución que cada miembro del proyecto realiza”, escribió Ung en el CIO Forum.

5. Hacer que los workflows sean transparentes
Cuando los workflows del proyecto son transparentes, todas las personas involucradas en el proyecto saben exactamente cuál es su rol y “que va hacia arriba o hacia abajo” en el trabajo, En otras palabras, ellos saben qué trabajo se ha hecho en el proyecto antes que el suyo y quién lo hizo, así como qué trabajo se hará después que el suyo.

Los workflows transparentes pueden ahorrar tiempo y mejorar la calidad del proyecto, “Si sabes que tienes algo de alguien que hace un trabajo excelente, no tendrás que llenar espacios vacíos. Te sientes cómodo aceptando lo que estás leyendo”, señala. En forma similar, si la persona a quien le envía su trabajo es muy diligente y detallista, pasará más tiempo perfeccionando su producto de tal forma que cumpla con las altas expectativas de la siguiente persona en el flujo.

6. Tener un proceso para administrar los cambios
Los usuarios finales de un sistema que está siendo desarrollado o de un nuevo proceso que está siendo implementado, generalmente quieren hacer cambios al sistema o al proceso a medida que éstos se van desplegando. No se dan cuenta que incluso los pequeños cambios pueden afectar significativamente el costo del proyecto y su plazo.

Algunas veces el gerente del proyecto o el equipo de implementación a los que se les pide que acomoden estos cambios adicionales en el alcance del proyecto no se dan cuenta de la forma, digamos, en la que añadir otros tres botones a la interfase de usuario puede impactar en el presupuesto del proyecto y en el plazo, especialmente en el caso de los consultores externos, Al satisfacer a los usuarios finales, añade Spivey, el consultor o gerente de proyecto acepta añadir los tres botones, afirmando que será un cambio sencillo, solo para luego encontrar que los equipos de diseño técnico le dicen que añadir esos botones demora al proyecto tres meses debido al trabajo adicional que ellos conllevan.

“Alguien tiene que volver con el usuario y decirle ‘realmente no sabíamos de lo que estábamos hablando. Pensábamos que éste iba a ser un cambio simple, pero va a agregarle tres meses al proyecto’”

Un proceso de control de cambios señala a todos que pedir nuevas características y funciones es algo que tiene que ser solicitado de manera formal, y que pasará por un proceso de examen formal para determinar cuánto trabajo requerirá y cómo va a afectar los costos y plazos del proyecto. Con un proceso de control de cambios formal, un gerente de proyecto puede decir con mayor precisión si un cambio en particular es realmente menor, o no, Más aún, el auspiciador del proyecto puede tomar una decisión mejor informada acerca de las características y funciones adicionales que realmente valen la pena asumir, dado que ampliarán los costos y plazos del proyecto.

Con un proceso de control de cambios formal, hay menos sorpresas, lo cual hace feliz a todos.

7. Gestionar el riesgo
“La gestión del riesgo es una parte fundamental de la gestión del proyecto, sin importar su tamaño”, “Debe ser parte de todos los niveles de planeamiento, ya se del planeamiento inicial del proyecto o del planeamiento de las fases o niveles de cada nueva parte del proyecto. Muchas veces veo que se hace por adelantado y luego no se revisa”.

La gestión del riesgo es muy crítica, porque proporciona a los gerentes de proyecto un panorama anticipado, tanto de las amenazas que pueden desbarrancar el proyecto como de las oportunidades para mejorarlo. Las prácticas de gestión del riesgo, también proporcionan a los equipos del proyecto la oportunidad para comprometer a las personas, tales como los auspiciadores del proyecto y a los usuarios finales, que podrían controlar los riesgos que podrían amenazar un proyecto, señala.

8. Tener la documentación adecuada
Sin una adecuada documentación, los equipos de proyectos podrían no alcanzar los requerimientos funcionales y técnicos correctos para un proyecto, señala el auditor TI Ung. Y sin una adecuada documentación de los muchos requerimientos, el equipo del proyecto podría gastar mucho tiempo, esfuerzo y dinero en un proyecto que no satisface las expectativas del auspiciador y de los usuarios finales.

Los equipos de proyecto también se arriesgan al avanzar con un proyecto que carece de un plan de ejecución o estatutos, documentos que son críticos para el éxito de los proyectos.

La falta de documentación, “crea mucha confusión e incertidumbre acerca de la dirección en la que el proyecto debería ir”. La confusión, a su vez, crea conflictos, demoras y sobrecostos.

9. Realizar un buen proceso de Quality Assurance (QA)
Las acciones de quality assurance como integration testing, black box testing, functional testing y stress testing generalmente reciben poca atención, Algunas veces esto se debe a que el gerente de proyecto no está familiarizado con los diferentes tipos de QA testing. En otras ocasiones, el gerente de proyecto tiene que ajustar los gastos para cumplir con el inminente plazo del proyecto. Debido a que la QA generalmente se deja para el final de un proyecto, es la víctima frecuente del recorte de costos. Sin importar la causa, el resultado es software, un sistema o un nuevo proceso que no funciona adecuadamente.

“Un buen proceso de QA es muy importante”, “Un equipo de QA se aseguraría que los requerimientos y funcionalidades se encuentran intactos antes que los usuarios finales toquen el producto. Solo se requiere de un error para que se esparza la sensación de que el proyecto ha fallado”.

Recomiendacion realizar demos iniciales para solicitar feedback de los usuarios. Obtener feedback inicial es una de las formas más efectivas de reducir el riesgo de que un proyecto no satisfaga las necesidades de los usuarios finales (y se considere por tanto una falla)

10. Establecer el gobierno del proyecto
El gobierno establece el marco de la forma en que un proyecto o programa se administrará, un entendimiento o lenguaje común para que siga el equipo del proyecto, Cuando uno tiene un buen gobierno del proyecto, las personas que se encuentran involucradas con el proyecto entienden lo que tienen que hacer.

Cuando no hay un gobierno del proyecto, el personal podría ejecutar un proyecto de forma inconsistente. Por ejemplo, el equipo de desarrollo podría usar un marco de trabajo de gestión de proyecto, mientras que los analistas de negocio podrían usar un proceso diferente. Una ejecución inconsistente del proyecto incrementa el riesgo de falla.

lunes, 19 de julio de 2010

iPad en México

Apple lanzará oficialmente el iPad en México el próximo 23 de julio, además de otros países como Austria Bélgica, Hong Kong, Irlanda, Luxemburgo, Holanda, Nueva Zelanda y Singapur.

Con esto se espera que el número de unidades vendidas en todo el mundo crezca exponencialmente. Cabe recordar que Apple había vendido más de tres millones de iPads a sólo ochenta días de su lanzamiento

El iPad permite a los usuarios pueden navegar por Internet, leer y enviar correos electrónicos, compartir fotos, reproducir videos en alta definición, escuchar música, jugar videojuegos, leer libros electrónicos, entre otras funcionalidades a través de su Multi-Touch de iPad.

Este dispositivo tiene 0.5 pulgadas de grosor y pesa únicamente 1.5 libras y ofrece hasta con 10 horas de vida de la batería.

La empresa en México informó que será a partir de este viernes 23 de julio que puedan adquirirse todos los modelos de iPad a través de las tiendas minoristas de Apple y sus distribuidores autorizados.?

En México, añadió Apple, estará disponible a un precio sugerido de venta a partir de $7,498 pesos para el modelo WiFi de 16 GB, $8,999 pesos para el de 32GB, y $10,499 pesos para el de 64GB.

Para los modelos WiFi + 3G los precios van desde $9,499 pesos para el modelo de 16GB, de $10,999 pesos para el de 32GB, y $12,499 pesos para el de 64GB.

sábado, 17 de julio de 2010

25,000 ataques dirigidos Windows XP en este mes

Microsoft recomienda ampliamente a los usuarios de Windows aplicar los parches incluidos en su último boletín de seguridad lanzado ayer. El motivo es que la compañía detectó más de 25,000 ataques dirigidos a un agujero del sitema operativo.

Los investigadores de Microsoft descubrieron un “gran aumento” durante el fin de semana de los ataques web que explotan esta falla. “Desde el 12 de julio más de 25,000 computadoras de unos 100 países/regiones han reportan intentos de este ataque al menos en una ocasión”, asegura la compañía.

Los usuarios de Rusia son los más afectados por el problema, según Microsoft. Éste país es el objetivo del 2% de todos los ataques, lo que supone diez veces más que el total de ataques por computadora a nivel mundial. Portugal ocupa la segunda posición.

Los ataques que terminan con éxito instalan secretamente software malicioso en la computadora de la víctima, con frecuencia un programa conocido como Obitel. Una vez en la PC, Obitel permite a los atacantes cargar otros tipos de código malicioso, como software para el robo de contraseñas, además del envío de spam.

Hace dos semanas, el total de ataques contra XP no superaba los 10,000.

Según los expertos en seguridad, la brecha está siendo principalmente explotada mediante ataques web tipo “drive-by”, en los que el código malicioso se distribuye en sitios web hackeados o diseñados específicamente para este fin.

domingo, 11 de julio de 2010

Los Sistemas Operativos mas usados

El 37% de las computadoras de los usuarios entrevistados en reciente sondeo llevado a cabo por una empresa de TI (PC Advisor) continúan utilizando Windows XP, sin haberse actualizado ni a Vista ni a Windows 7, las versiones más actualizadas del sistema operativo de Microsoft.

El 31.4% de los sondeados dijo utilizar XP Service Pack 3 (SP3), las más reciente actualización emitida por Microsoft para XP, mientras que un 5.6% continúa utilizando SP2 o, incluso, anteriores. Algo peligroso, teniendo en cuenta que Microsoft dejará de soportar XP SP2 a mediados de julio.

Windows 7, aunque más nuevo, disfruta claramente de una mayor popularidad, con un 30.6% de cuota. Por su parte, Vista, no supera el 16.4% de penetración.

El porcentaje de usuarios de Linux en sus PC asciende, según PC Advisor, a un 7%, mientras que los de Mac OS y “otros” se sitúan respectivamente en un 6.4% y un 0.8%.
Windows de Microsoft continua como el gran favorito.

El Nuevo Hotmail de Microsoft

Microsoft ya inició la migración de usuarios al nuevo Hotmail, que se modernizó para incluir características más potentes e integración con redes sociales. Además, ya está disponible para descarga la beta de Windows Live Essentials Wave4, que también recibirá la integración con redes sociales como una de sus principales novedades.

Hotmail está recibiendo un cambió de imagen, que de acuerdo a portavoces de Microsoft, acabará con su imagen de correo simplón asociado a Messenger. El objetivo de la compañía es integrar nuevas funcionalidades que ayuden a hacer más cosas en menos tiempo, así como ayudar a los usuarios a limpiar sus bandejas de entrada de correo no deseado, pues muchas de las cuentas de Hotmail tienen ya 14 años, y es mucho tiempo acumulando suscripciones a listas que, a veces, se olvidan.

Una de las novedades más visibles está relacionada con la publicidad, pues los correos salientes dejarán de incluir un pie con anuncios. Además, la publicidad gráfica que aparece en la ventana del administrador de correo se podrá suprimir para ganar ese espacio, aunque será necesario hacerlo en cada recarga de la página, pues Hotmail sigue siendo un servicio gratuito sostenido por publicidad.

Hotmail, en realidad todas las aplicaciones de Windows Live, se integra ahora con Messenger y con las redes sociales más usadas. Messenger aparecerá como un menú más en la aplicación y podremos acceder como servicio online, sin necesidad de instalar el cliente de Messenger. El correo se puede organizar ahora en pestañas predefinidas para ver los mensajes de nuestros contactos, de redes sociales, etc.). Otro filtro permitirá ver sólo los correos que tengan fotos, o sólo los que tengan documentos de office. Además se mejora el filtrado de spam con Smart Script, y se incorporan reglas de filtrado para otro tipo de correos. Otra novedad en cuanto a la organización del correo es la posibilidad de agrupar mensajes por conversaciones, heredada de Outlook 2010.

Una de las novedades más interesantes es la integración con SkyDrive, el disco duro en línea que ofrece 25 GB gratuitos a todos los usuarios de Hotmail. Ahora contamos con una opción para mandar mensajes de hasta 10 GB de adjuntos, que se subirán automáticamente al espacio de SkyDrive y, si son fotos, se creará una galería. El acceso está limitado a las personas que reciban el correo y se puede limitar también en el tiempo. En caso de que sean documentos de Office, se podrán editar desde Office Web Apps, y compartir los cambios con el interlocutor.

En el caso de correos recibidos con fotos, se incluye una previsualización con Silverlight, y algo similar ocurre si se manda un enlace a un vídeo de YouTube o a una galería de Flickr (y alguna página más con la que hay acuerdos firmados).

Otra novedad, que ya existía en otros correos, es la posibilidad de integrar cuentas de otros proveedores, y mandar mails en su nombre.

Messenger se integra con Facebook

En el caso de Messenger la mayor novedad es la integración con redes sociales, permitiendo publicar y responder directamente sin necesidad de abrir el navegador. Esta nueva "vista social" integra los contactos de todas las redes que se configuren y nos permitirá elegir porque vía nos comunicamos en cada momento. De momento se conecta con Facebook y LinkedIn, y la compañía está en conversaciones con Twitter.

Messenger también contará con la previsualización de fotos y videos, e incluirá soporte de videoconferencia en alta definición. Además, si el usuario lo prefiere, podrá agrupar todas las conversaciones en una ventana, organizándolas en pestañas

También se facilitará el uso de Messenger sin necesidad de instalar la aplicación, pues todas las aplicaciones de Windows Live, contarán con un menú de mensajería instantánea.

Mejoras en otras aplicaciones de Windows Live Essentials

La Galería Fotográfica de Windows Live también recibe algunas novedades, como una función para crear panorámicas fácilmente, o funciones de retoque automático de defectos comunes. Pero la más llamativa es la fusión de varias fotografías de grupos de personas, para elegir de cada instantánea las caras que mejor hayan salido, y combinarlas en una sola foto en la que nadie tenga los ojos cerrados o un gesto extraño.

También se incorpora etiquetado de personas y reconocimiento de caras, que permitirá el etiquetado automático.

Por su parte, Windows Live Sync utilizará Skydrive para sincronizar archivos entre varios dispositivos, que pueden ser computadoras, o móviles con Windows Mobile. También permitirá el uso remoto de una computadora desde otro PC.

El despliegue del nuevo Hotmail ya se ha iniciado y los usuarios verán cómo sus cuentas van migrando automáticamente hasta el mes de agosto en el que se completará el proceso. Sin embargo, la integración con SkyDrive no se producirá hasta octubre.

El resto de aplicaciones aún están en fase beta y se lanzarán en su versión final en septiembre, pero ya puede descargarse la beta para probarlas desde la web de Windows Live.

La antena del iPhone 4

Apple pretende solucionar el problema de cobertura de la antena del nuevo iPhone 4 con una actualización de software, que tan solo solucionará la exactitud del icono indicador de señal.

El problema que fue tan comentado en la red los últimos días, sigue dando mucho que hablar y va a hacer que el éxito inicial de ventas del nuevo iPhone 4, se vea afectado. A pesar de que no es un problema total, pues afecta principalmente a algunas unidades y a los usuarios que sujetan el teléfono con la mano izquierda, el iPhone 4, necesita una solución definitiva, que al parecer pasa por la colocación de una carcasa especial o asumir que hay que sujetar el teléfono sin tocar la antena.

Apple no va a tener más remedio que regalar las carcasas a los usuarios afectados, por mucho que les cueste aceptar que son culpables de problema. En E.E.U.U. ya se comenzó a emprender acciones legales contra Apple y la operadora AT&T, por las fallas del teléfono en cuanto a cobertura se refiere.

Cabe recordar que Apple ha vendido ya en los mercados en los que ha estado disponible el iPhone 4, más de un millón y medio de unidades y que sólo algunos usuarios zurdos que sujetan el teléfono de una manera determinada tienen ese problema. No obstante, Apple tiene que dar una solución urgente a este problema que va a minar sus expectativas en el lanzamiento de este dispositivo, al que se le tiene tanta envidia que ya está siendo objeto de burlas por varios fabricantes de la competencia.

domingo, 27 de junio de 2010

y usted sabe que hace su hijo en la red...

Norton Online Family Report 2010 informó que un 62 por ciento de los menores han tenido alguna mala experiencia en la red, incluyendo desconocidos que se ponen en contacto con ellos, descargas de virus o imágenes inapropiadas.

Symantec presentó los resultados del último Norton Online Family Report, un estudio realizado por StrategyOne entrevistando a 2,800 niños de 8 a 17 años de edad y a 7,066 adultos de 14 países.

Este año es la primera vez que la percepción de los padres sobre el tiempo que los niños pasan en Internet coincide con la realidad, aunque todavía siguen sin conocer a que dedican exactamente ese tiempo y que riesgos trae. La principal preocupación de los padres son los contenidos inapropiados y la información personal que los menores puedan desvelar, pero no aparecen referencias a otros problemas como posibles estafas o descargas de contenidos que puedan tener consecuencias legales.

Por su parte los menores aseguran cumplir con las normas sobre el uso de la computadora en un 86% pero, básicamente, porque consideran esas normas insuficientes y obsoletas, y piensan que ellos mismos se autoimponen restricciones más severas. Al menos ahora consideran a sus padres la primera persona a la que recurrir en caso de que les ocurriera algo en la red, algo que en anteriores estudios no sucedía.

Pero en la práctica esto no siempre es así, pues del 62% de hijos que aseguran haber pasado por malas experiencias (al 41% intentó contactarles un desconocido, el 33% descargaron algún virus, el 25% han visto imágenes violentas o de desnudos y un desconocido intentó citarlos en la vida real con un 10%), SÓLO EL 45% DE LOS PADRES LO SABE. El motivo, es que los pequeños se sienten culpables de que estas cosas les hayan sucedido y tienen temor de contarlas.

Para colaborar en la protección de los menores, Symantec lanzó la aplicación gratuita Norton Online Family en español (y otros 24 idiomas más). Se trata de una aplicación de control parental basada en la nube, por lo que las actualizaciones y configuraciones se realizan automáticamente. Además de funciones de bloqueo, permite otras de supervisión en tiempo real, notificando al móvil las actividades de los menores, y permitiendo a sus padres que puedan activar y desactivar bloqueos de forma remota.

Contrail | La red Social de Microsoft

Microsoft está desarrollando Contrail, una red social móvil diseñada para evitar la desconfianza generada entre los usuarios por el modelo de privacidad de la popular Facebook.

Technology Review reporta que investigadores de Microsoft, están actualmente desarrollando una red social que permitirá a los usuarios compartir contenidos con las personas elegidas sin necesidad de compartir tal información en el servidor central del servicio. Cuando el usuario cargue los datos, se encriptarán y el será aquel quien determine qué personas peden acceder a ellos.

Las personas seleccionadas podrán después desencriptar y ver los datos. Con Contrail, el servidor central nunca sabrá cuál es la información o qué usuarios concretos están relacionados con ella. Sólo “verá” datos encriptados. Además exigirá autorización para recibir actualizaciones de “amigos”.

A diferencia de Facebook, que envía toda información por defecto a la totalidad de contactos del usuario, Contrail obligará a éste a implicarse en la administración de su privacidad desde el principio.

Esta red social móvil correrá sobre la plataforma de cloud computing Windows Azure y estará diseñada para ofrecer la mejor experiencia posible sobre smartphones. Los datos serán enviados directamente a los dispositivos y el terminal de cada miembro de la red actuará como n portal de su cuenta en la cloud.

El Dominio .xxx

ICANN (Corporación de Internet para la Asignación de Nombres y Números) está a punto de aprobar la creación del dominio .xxx, en los que se englobarán aquellas páginas web de contenido pornográfico.

ICANN confirmó que al final se decidieron a liberar el dominio .xxx. Esta decisión llegar tras las reiteradas peticiones de ICM Registry para que el organismo aprobara el polémico dominio.

La intención del ICANN es que tras la creación del .xxx todos aquellos sitios de internet de contenido sexual que lo deseen puedan utilizarlo de manera voluntaria. Con esta decisión se mantendrá la neutralidad en la asignaciñon de dominios.

La importancia de la aprobación de este dominio se muestra en el hecho de que, según datos del sector pornográfico en Internet, el mundo del sexo en la Red genera más de 3,000 dólares al segundo. Además, el 25 por ciento de las búsquedas que se realizan en Internet llevan la palabra sexo.

En total, se calcula que existen 370 millones de páginas pornográficas, “con lo que .xxx puede convertirse en uno de los nombres de dominio más grandes, tan grande si no más grande que .com”.

No obstante, parte del sector se opone a la creación de esta página, ya que “es una invitación a que todos aquellos que no están de acuerdo perjudiquen el negocio”.

domingo, 20 de junio de 2010

Overcloacking | Pros y Contras

En esta semana llego a la bandeja de entrada de mi correo personal una pregunta de parte de un lector (persona que agradezco en acercarse a mí para responder su duda)
¿Es cierto que si hago un overclocking a mi procesador mejorará el rendimiento?

El overclocking es el aumentar la frecuencia de reloj de la Unidad de Proceso Central (CPU) esto con el fin de tener una velocidad de reloj mayor para los componentes electrónicos. Con esto se busca un rendimiento de velocidad superior al que comúnmente maneja el procesador, pero esto puede tener consecuencias como inestabilidad del mismo y reducción de tiempo de vida del mismo procesador.

Este proceso en muchos casos es peligroso incluso para usuarios expertos es difícil saber que tanto aumentará el rendimiento del procesador, para estos detalles de aumento de GHz hay que tomar en cuenta que no solo es aumentar la frecuencia y ya...

Hay que contar con el hardware adecuado para alto desempeño (Memoria RAM, Motherboard y tarjeta de video), contar con un buen sistema de enfriamiento, ya que si no se cuenta con un buen hardware y no se toman las medidas de seguridad para el equipo se puede tener accidentes, desde quemar el procesador o en casos no muy extremos quemar todo el hardware ya mencionado con anterioridad.
Hay muy buenos sistemas de enfriamiento a base de nitrógeno o gases que evitan el calentamiento dañino para hardware de alto desempeño (para mí los más seguros son los líquidos).

En mi particular punto de vista si quiero un procesador rápido compro un procesador rápido en lugar de aumentar la frecuencia y sacrificar tiempo de vida, seguridad y estabilidad ya que lo que gastaría en un sistema de enfriamiento especializado preferiría gastarlo en un procesador más rápido y de más núcleos.

Para los usuarios hogareños convencionales NO es recomendable hacer overclocking sin el previo estudio y evaluación de su hardware ya que podrían quemar su equipo y en su mejor caso aumentar solo unos pocos Megahertz de velocidad.

Mejoran la Virtualizacion de Escritorios | Sun Ray 3 Plus

Oracle presentó el Cliente Sun Ray 3 Plus de Oracle la última incorporación a la familia de productos de Cliente Sun Ray, y la última versión del software oracle Virtual Desktop Infrastructure.

Estos productos fueron adicionados a la cartera de virtualización de escritorio de Oracle, la cual también incluye Oracle Secure Global Desktop y Oracle VM VirtualBox.

Las mejoras admiten los escritorios virtuales de Windows 7, calificación ENERGY STAR 5.0, pantallas más grandes y brindan mayor rendimiento y seguridad.

Con estas nuevas soluciones, Oracle continúa mejorando la cartera de productos de virtualización desde el escritorio hasta el centro de datos, lo que permite a los clientes utilizar más eficientemente todo el stack de software y hardware.

El cliente Sun Ray 3 Plus de Oracle consume muy poca energía y ofrece ahorro de costos por ser una alternativa a la PC de escritorio:
La familia de productos de Cliente Sun Ray está conformada por dispositivos de bajo costo que no necesitan mantenimiento alguno y que se utilizan para implementar escritorios Windows, Linux y Oracle Solaris alojados en servidores.
Sin un sistema operativo local o almacenamiento, los Clientes Sun Ray se administran de manera centralizada, lo que ofrece una alternativa segura, económica y sumamente funcional a las computadoras de escritorio.
La combinación del software Sun Ray y el de Oracle Virtual Desktop Infrastructure con el Cliente Sun Ray 3 Plus ofrece un verdadero escritorio remoto.

¿Y si tu empresa fuera un equipo de futbol?

La máxima fiesta futbolera está con todo... Los ojos del mundo estarán puestos en Sudáfrica y en los equipos que participarán en la Copa Mundial de la FIFA 2010 en las próximas semanas.

Pocos escaparán de la fiebre del balompié, y los directores de tecnologías no serán la excepción.
¿Cuál es su equipo favorito, además de la selección nacional por supuesto? ¿Quién es su jugador preferido? ¿Con quién se identifica? Si su empresa fuera un equipo de futbol, ¿qué posición jugaría usted? ¿Portero, delantero, defensa?

El portero. Conocido también como guardameta, el portero debe evitar a toda costa que el balón entre a su meta y le anoten un gol. Es el único jugador que puede tocar la pelota durante el juego y dentro de su área; viste un uniforme distinto a sus compañeros y lleva el número uno.

Como un director de tecnologías-portero, usted dependería totalmente del desempeño de su equipo. Si bien tiene un panorama completo del juego, sólo puede entrar en acción cuando los problemas están virtualmente en la puerta, aunque tendría la capacidad de reaccionar y resolverlos de inmediato. La mala noticia es que no en todos los casos: a veces el balón acabará en la red. Su rol es más bien reactivo que proactivo. Puede gozar de ciertos privilegios y ser considerado el héroe o el malo del juego.

Defensa. Este miembro de la escuadra está delante del guardameta, puede ubicarse a la derecha, centro o izquierda del campo y su objetivo es detener los ataques del rival.
El director de tecnologías-defensa está la mayor parte del tiempo tratando de rechazar los ataques de agentes externos e internos – ya sea de los competidores, hackers, y amenazas originadas al interior. Enfocan mucha de su energía a proteger los activos de la empresa (físicos y virtuales), de ahí que se vuelven especialistas en seguridad. Repasa con su equipo el plan de juego para aplicar la mejor defensa y no dejarse sorprender por el enemigo.

El mediocampista. Llámelo también centrocampista o volante, su objetivo es coordinar el juego entre los defensas y los delanteros así como apoyarlos en caso de ser necesario.

En esta posición, el director de tecnologías-mediocampista tiene una participación más estratégica. Tiene una visión del juego de 180 grados y sabe trabajar en equipo. Sus decisiones son determinantes para el éxito o fracaso del partido, y su campo de acción puede ampliarse o reducirse de acuerdo a las circunstancias. Deben saber cómo reaccionar y hacerlo sin perder tiempo.

El delantero. Se ubica delante de todos sus compañeros con la misión de meter goles. Aunque su función normalmente se limita a atacar, pueden adoptar un rol defensivo si la situación lo amerita. Son los más reconocidos porque son la mayoría de las veces los autores de los goles.

Los directores de tecnologías-delanteros anticipan la dirección que seguirá el balón para saltar, cabecearlo o patearlo para estrellarlo en la red. Tienen la capacidad de concretar el trabajo del equipo para ayudar a su compañía a superar a su competencia o implementar nuevos procesos y tecnologías. Su desempeño puede ser tan bueno, que contrarios y aliados lo estarán observando muy de cerca.

Y a diferencia de la Copa Mundial de la FIFA Sudáfrica 2010, la final se juega todos los días...
¿Listo para meter gol?

martes, 15 de junio de 2010

El troyano de Linux

Aquellos que pensaban que Linux es un sistema operativo inviolable quizá deberían replanteárselo, pues apareció un troyano que podría penetrar en él. Son malas noticias para el sistema operativo, pues revela que una gran cantidad de equipos que trabajan con Linux podrían estar afectados.

Aunque también hay buenas noticias, al menos para los administradores TI y las empresas que optaron por Linux como sistema operativo, pues el troyano se encuentra en un juego que los usuarios deben descargarse a propósito. Por eso, por ahora, las empresas pueden estar tranquilas.

La noticia salió en un anuncio realizado en Unreal IRCd Forum. “Es muy embarazoso. Hemos descubierto que el archivo Unreal3.2.8.1.tar.gz fue reemplazado hace tiempo por una versión con un troyano en su interior. Esta puerta trasera permite a cualquier persona ejecutar cualquier comando con los privilegios del usuario que esté trabajando con el irdc.

Esta puerta trasera puede ser ejecutada sin necesidad de contar con restricciones de usuario como la contraseña, por ejemplo”. En este post se llega a afirmar que “parece ser que la sustitución del .tat.gz tuvo lugar en noviembre de 2009, aunque nadie se había dado cuenta hasta ahora”.

Unreal es un juego muy popular, similar a Doom o Quake. Se desconocen el número exacto de descargas del mismo realizadas desde el pasado noviembre, pero parece claro poder asumir que hay muchos sistemas Linux que pudieran estar afectados por el troyano.

En cualquier caso, no parece probable que ninguno de ellos esté en entornos profesionales, por lo que el riesgo del ataque, desde un punto de vista empresarial no es muy alto. Los administradores TI pueden aprender, en cualquier caso, de comprobar todo... ya que en los foros de Unreal IRCd. sus administradores dicen “Simplemente no nos dimos cuenta, pero deberíamos haberlo hecho. No comprobamos los archivos en los espejos regularmente, aunque deberíamos hacerlo”.

Básicamente, debido al falso sentido de seguridad que da Linux, simplemente nunca se le ocurrió a nadie comprobar si este software corría peligro. Así, combinando ese falso sentido de la seguridad con el hecho de que Linux sólo representa en torno al 2% del mercado mundial de sistemas operativos, hace que no sea un objetivo lo suficientemente valioso o atractivo para los atacantes. Por ello, muchos usuarios Linux no tienen ningún sistema de seguridad en sus equipos. Aunque, para ser honestos, los expertos en Linux sí reconocen que el sistema operativo no es impenetrable. Si se analiza en detalle, se pueden encontrar cientos de vulnerabilidades, la diferencia es que el modo en que Linux ha sido desarrollado hace que sea más difícil explotar una vulnerabilidad. Además, al ser código abierto, sus vulnerabilidades se solucionan en horas.

Por todo esto, la lección que deben extraer los administradores TI especializados en Linux es que no pierdan de vista el sistema y sean precavidos. No es inmune a los ataques. Es cierto que Linux no tiene que hacer frente a la gran cantidad de amenazas contra las que lucha Windows , pero no deben bajar la guardia. Además, aunque esos ataques no son explotados de forma tan rápida como cuando aparece un gusano en Windows, lo cierto es que están ahí y representan un Talón de Aquiles potencial en los sistemas y redes si éstos no están monitoreados y protegidos por sistemas de seguridad & barreras de fuego.

Así, no debemos asumir que los sistemas Linux son seguros simplemente porque son Linux, se deben implementar controles y políticas de seguridad al igual que en los sistemas Windows, evitando así, en la medida de lo posible, ataques como el de este troyano.

La pornografia en la red, Mas dañina que nunca

Un nuevo estudio de International Secure System Lab revela que los consumidores de pornografía en línea son de los más vulnerables al código malicioso en Internet.

Algunos de los resultados de este estudio confirman lo que la mayoría de la gente piensa de la pornografía en línea: es un gran negocio. A pesar de que la mayoría de los contenidos son ofrecidos de forma gratuita, es parte de un sistema de comercio de tráfico complejo diseñado sobre la compra y venta de visitas.

Casi 92% de los sitios identificados como pornográficos ofrecían contenido gratuito y funcionaban como sistemas de marketing y generación de hits y 8% restante lo vende o actúa como sistema de procesamiento para contenido adulto de alto costo.

Resulta interesante que una gran parte de sitios gratuitos utilizaban diversas técnicas para explotar usuarios potencialmente vulnerables, incluidos sistemas como el catching de Javascript, redirección de sitios Web y “blind linking” (enlaces a otros sitios).

El objetivo de estas prácticas es principalmente explotar las vulnerabilidades del usuario con la finalidad de generar tráfico adicional y no identificado para beneficiar a los propietarios del sitio. Usando técnicas de análisis tipo “honeypot”, los autores del estudio calcularon que 3.2% de los 260,000 sitios incluidosen su estudio buscaban sistemas para distribuir código malicioso (malware).

Posible explotación por terceros

Supuestamente, el motivo de estas prácticas es hacer dinero, pero indirectamente. La distribución de código malicioso genera negocio, pero hay que señalar que a ninguna empresa de la industria de la pornografía en línea le interesa correr el riesgo de verse en alguna de las “listas negras” elaboradas por los motores antimalware.

Los autores del estudio pudieron comprar el tráfico de 49,000 visitantes únicos de sitios de terceros por sólo 161 dólares. 20% de ellos tenían vulnerabilidades de Office, PDF o Flash que hubieran permitido infectar sus equipos con código malicioso. Del total, 1,000 visitantes tenían señales de haber sido ya infectados con algún tipo de software malicioso.

Basta imaginar el peligro que habrían corrido esos casi 50,000 visitantes si la información hubiera sido comprada por un pirata informatico en lugar de por los investigadores de International Secure System.

lunes, 7 de junio de 2010

Apple presenta el iPhone 4

Este Lunes Apple anunció el iPhone 4 durante la Worldwide Developers Conference. Steve Jobs dijo sobre este equipo: “Sin duda alguna esta es una de las cosas más hermosas que he creado”. Descubre todas sus nuevas características.


El iPhone 4 es 24% más delgado que el iPhone 3GS y cuenta con nuevos botones de volumen, un botón de silencio, un segundo micrófono y la incorporación de una micro SIM. Además, Apple integró tres antenas: una para Bluetooth, una para Wi.Fi y otra para UMTS y GSM.
Apple informó que el iPhone 4 dispondrá de una nueva tecnología llamada retina display que agrega mucha mayor precisión al iPhone. Otra de las mejoras de la pantalla, es que contará con 326 píxeles por pulgadas, casi el doble que en su anterior 3GS.

Entre otras novedades, el nuevo iPhone 4 es libre de arsénico, libre de BFR, libre de mercurio, PVC, y está hecho de materiales altamente reciclables. Asimismo, funciona con la cuádruple banda HSPDPA/HSUPA que es capaz de otorgar una velocidad de
subida de hasta 7.2 Mbps en subida y 5.8 en bajada.

“Eso es sólo en teoría, porque las compañías aún no tienen ese servicio”, dijo Jobs

Al iPhone 4 se le añadió un giroscopio de tres ejes para medir la velocidad angular que puede captar la rotación alrededor de la gravedad. El giroscopio más el acelerómetro perciben seis ejes de detección

En lo que refiere a la cámara, cuenta con una de 5 megapíxeles con zoom digital 5x y un flash LED, así como una cámara frontal adicional. También, se incluye la captura de video de alta resolución HD 720p a 30 fotogramas por segundo y la posibilidad de entablar un video chat. Sobre este servicio no se saben muchos detalles.

El iPhone 4 estará disponible en USA, Francia, Alemania, Gran Bretaña y Japón el 24 de junio.
Fuente: PCWN

lunes, 31 de mayo de 2010

Microsoft Office vs. Google Apps | la pelea por las empresas

En la batalla por tener el dominio del territorio de las suites de productividad en las empresas de hoy y el futuro, Microsoft y Google están dejando ver sus fortalezas y también sus debilidades.

En lo que respecta a Google, a pesar de que la ventaja en precio de las Google Apps y del anuncio de que ahora dos millones de compañías están utilizando Google Apps, varios datos de investigación muestran aún que Google va perdiendo en la empresa. La adopción de Google Apps no solo se encuentra muy por detrás de Microsoft, sino que también está a la saga de OpenOffice, e incluso de Lotus Symphony de IBM. Los ingresos estimados para Google Apps en 2009 son de 50 millones de dólares, una pequeña porción del fondo de 22 mil millones de dólares de la compañía.

Microsoft, mientras tanto, debe ser competitivo con Web Apps -pero no demasiado competitivo-, ya que estas aplicaciones presumiblemente manejarán muchos menos ingresos que su “gallina de los huevos de oro” de hace mucho tiempo, la tradicional suite Microsoft Office. En el año fiscal 2009, la división de negocios de Microsoft (de la cual Office es un gran componente) generó 18 mil 900 millones de dólares en ganancias. Microsoft también debe convencer a los clientes de que "entiende" el cómputo en la nube de la forma en que Google lo hace.

Si alguien tiene el dinero y el poder de marca hacia el consumidor para enfrentar a Microsoft, es Google, señalan los analistas. Pero aún hay muchas explicaciones que dar.

Web Apps en números
Hoy en día se le ofrece a la empresa una gran cantidad de herramientas de productividad: Está Microsoft Office, seguido por alternativas de menor costo o gratuitas como Lotus Symphony de IBM, y los productos de web Google Apps y Office Suite de Zoho, entre otros.

Sin embargo, aunque el navegador web debe ser la plataforma de cómputo más predominante tanto para consumidores finales como para empresas, el uso de alternativas basadas en la nube de las corporaciones -comparadas con Microsoft Office- se mantiene bajo, de acuerdo con datos recientes de Forrester Research.

En una encuesta de marzo realizada a 115 empresas estadounidenses y europeas, y tomadores de decisiones de tecnología de las PyMEs, Forrester señala que 81% están actualmente soportando Office 2007, mientras solo 4% está utilizando Google Apps.

Más aún, a pesar del elevado precio de Office 2010 en relación con las alternativas actuales, un tercio de los encuestados planea actualizarse a Office 2010 el próximo año, y un cuarto planea actualizar en los siguientes dos a tres años.

¿Cómo es que Google Apps tiene alguna opción contra Microsoft Office en la empresa? Quizás no enseguida, pero Google está en una buena posición para avanzar mientras la empresa cambia hacia la web, señalan los analistas de la industria.

"Google es una compañía web y tiene la mayoría de recursos para atraer a la empresa hacia la web", señala Sheri McLeish, analista en Forrester Research, añadiendo que "ambientes mezclados donde Google complementa a Microsoft son la ola del futuro".

Sin embargo, McLeish no está convencida aún de que Google esté completamente dedicado a la empresa, diciendo que mientras la interfaz de usuario limpia y simple de Google se ha popularizado con los consumidores finales, podría ser demasiado limitada para las empresas.

"Por ejemplo, Google Wave pareció una buena idea, pero necesitaba una masa crítica y no la consiguió", señala McLeish.

Google Apps y Office 2010: Precios y características
Google Apps
tiene un precio de 50 dólares por usuario por año que incluye Gmail con 25GB de almacenamiento, Google Docs (procesamiento de texto, hojas de cálculo y herramientas de creación de presentaciones) y otras aplicaciones como Google Sites y Google Talk. El antivirus Postini de Google y la protección contra spam también vienen con la suite. Hay una tarifa extra por almacenar mensajes de 13 a 33 dólares, dependiendo de la duración de almacenamiento que se necesita.

En abril pasado, Google rediseñó su herramienta de edición, Google Docs, para mejorar la velocidad y la colaboración en tiempo real, un área donde Google Apps triunfa sobre Office.

Del lado de Microsoft Office, el precio de la suite completa está entre los 150 a 680 dólares, dependiendo de cuál de sus muchas versiones esté buscando. Con Office 2010, Microsoft estará ofreciendo Office Web Apps, versiones en línea gratuitas -pero no completas- de Word, Excel, PowerPoint y OneNote.

Habrá tres versiones de Web Apps: Una para consumidores soportada por publicidad; una versión hospedada para empresas que pagan por cuentas hospedadas en Microsoft Online Services, el cual es alimentado por SharePoint; y una versión corporativa in-house para empresas con licencias por volumen para Microsoft Office y el servidor SharePoint.

Office 2010 fue lanzado para las empresas el 12 de mayo, pero Office Web Apps no están programadas para lanzarse hasta mediados de junio.

Microsoft también tiene BPOS (siglas en inglés de suite de productividad de negocios en línea) en su arsenal, una parte de los servicios de Microsoft Online que incluye versiones en línea de SharePoint, Exchange, Office Communications Server y Live Meeting por 10 dólares por usuario por mes para todas las cuatro aplicaciones.

Construido para la empresa vs. construido para la nube
A pesar de la ventaja de costo de Google Apps -una ventaja quizás aún más atractiva en un tiempo de recesión económica y en un tiempo cuando los consumidores están acostumbrados a las aplicaciones web para el cómputo en casa- la investigación de Forrester no son los únicos datos que muestran a Google rezagado por una milla en la carrera de adopción.

Una encuesta realizada a 800 administradores de TI a nivel mundial en enero de 2010 por ITIC (Information Technology Intelligence Corp.) muestra que 4% de los negocios están utilizando Google Apps para su correo electrónico principal y software de productividad. La encuesta también muestra que Google Apps es adoptado más ampliamente en pequeños negocios.

La barrera que Google debe penetrar, señala McLeish, es la vasta experiencia de Microsoft en servir y soportar empresas. "Microsoft ha establecido los cimientos en la empresa", señala. "Dice mucho que aún pueda demandar precios elevados por las versiones completas de Office cuando Google Apps es gratis o mucho más barata".

Microsoft es rápido en exclamar que es una compañía construida para los negocios, mientras que Google fue construida para los consumidores.

"Le preguntaremos a los clientes: ¿alguno de estos nuevos competidores está realmente comprometido con los servicios de productividad en línea para la empresa?", indica Ron Markezich, vicepresidente corporativo de Microsoft Online Services. "¿Están haciendo inversiones en la empresa a largo plazo? A Microsoft le ha tomado 15 años probar que estamos comprometidos con servir a las empresas y ahora, por supuesto, eso es una gran parte de nuestro negocio".

El gran temor: Canibalizar Office, fracasar en acabar con Google
Pero incluso con la pequeña presencia de Google en la empresa, aún es un nombre de marca gigante con bolsillos profundos y productos con los cuales la mayoría de consumidores (que también trabajan en empresas) están familiarizados, particularmente Gmail.

Podría no ser una verdadera amenaza a los clientes corporativos de Microsoft ahora, pero las aplicaciones de productividad basadas en nube de Google han forzado a Microsoft a cambiar su modelo de negocios. Microsoft ha creado versiones en línea de sus productos de software, bajado precios y debe justificar a sus clientes corporativos por qué deben pagar tantos dólares por Office y Exchange cuando podrían "volverse Google" y ahorrar dinero.

Esta nueva dinámica ha creado un conflicto difícil para Microsoft, en el cual tiene que promover aplicaciones basadas en nube para detrimento de su franquicia de productos de software de escritorio, dicen el veterano analista de tecnología, Roger Kay.

"Microsoft necesita ser exitoso con las aplicaciones web, pero no demasiado exitoso", señala Kay. "No están obteniendo ganancias completas de sus aplicaciones de nube, así que necesitan hacerlas suficientemente ligeras para que la gente se actualice al producto completo de paga, que es la ‘vaca lechera’ de Microsoft. Microsoft estará reacio a renunciar a cualquier cosa que le dé dinero".

Este acertijo no es sencillo de resolver para Microsoft, agrega Kay, añadiendo que el peor escenario para Microsoft es que Office Web Apps, Exchange y SharePoint Online despeguen y canibalicen el software cliente de Microsoft, sin llegar a acabar con Google Apps.

Google mismo concede que cualquier éxito de la noche a la mañana en la empresa no es realista, aunque se mantiene completamente comprometido con las corporaciones, citando el rápido crecimiento en el corto período de vida de tres años de Google Apps.

"Google Apps solo ha estado en el mercado desde el 2007 y hemos ido de cero a dos millones de usuarios de negocios", señala Rajen Sheth, administrador de producto senior de Google para Google Apps. "Hay tanto potencial aquí y estamos en esto a largo plazo".

Microsoft está tratando de migrar sus productos hacia un ambiente de nube, mientras que Google es fundamentalmente una compañía de nube, señala Sheth, y ha pasado por grandes dolores de cabeza para construir grandes data centers diseñados específicamente para aplicaciones ágiles basadas en web.

¿Irá Microsoft completamente por la nube, si no por Google?
Aun así, la realidad de la empresa actual es que Google Apps simplemente no son una tecnología de reemplazo al por mayor para Microsoft Office, señala Ted Schadler, vicepresidente y analista principal en Forrester Research.

"Podría ver empresas moverse a Google por correo electrónico, pero raramente las verá reemplazando Microsoft Office con Google Docs", indica Schadler, añadiendo que las características de colaboración de Google Apps, tales como Google Sites y Google Talk probablemente serán utilizadas solo para mejorar Microsoft Office.

"Google Apps continuará teniendo éxito con sus características de colaboración y móviles que aumenta a Office en la empresa. Pero no las veo desplazando a Microsoft Office en ninguna forma significativa", agrega.

Sin embargo, una cosa es segura: Google está invirtiendo fuertemente en su juego de nube empresarial y aunque pudiera no tener una masa crítica detrás de ella, ha forzado a Microsoft a ajustar su modelo de negocio entero.

Vale la pena preguntar: ¿Estaría Microsoft completamente metido en la nube si no hubiera habido un Google?

Escrito por: Shane O'Neill Infoworld

martes, 25 de mayo de 2010

Mitos de PC | 1, ¿Alguna vez has retirado tu memoria USB sin utilizar la función de "Quitar hardware con seguridad"?

¿Alguna vez has retirado tu memoria USB sin utilizar la función de "Quitar hardware con seguridad"?

Lo más común es que por prisa o por descuido todos lo hayamos hecho alguna vez, sin embargo, muchos afirman que si no retiras tu memoria mientras ésta se encuentre leyendo o escribiendo datos, no le pasará nada a tu información. Otros afirman que siempre debes desconectarla correctamente.

¿Es cierto que puedo perder mis datos si no retiro con seguridad mi USB de la computadora?

La respuesta es: Verdad!!!

Cuando una USB está conectada a la computadora ráfagas de corriente de entre 1.5 y 3V pasan de la computadora a la memoria USB. Éstas le permiten estar lista para ejecutar las funciones que el usuario necesite (grabar, formatear, etc), pero al momento de querer retirar la USB se debe ejecutar la orden de "Quitar hardware con seguridad", para que la computadora gire la instrucción de no seguir pasando corriente al puerto USB en dónde está conectada la memoria.

De no ser finalizada esta tarea y se extrae el dispositivo de la computadora, es muy probable que en ese momento estén pasando ráfagas de corriente y desalineen los códigos digitales dentro de la memoria USB; y dañen la información o generen un corto en la circuitería interna.


Así que ya lo sabes, de no quitar el hardware con seguridad, hay mucha probabilidad que en algún momento se dañe uno o varios de tus archivos. En caso de que no te haya pasado hasta el momento no esperes a que te pase y no te arriesgues a que pierdas datos importantes.

Mitos de PC | 2, :¿Es cierto que alguien puede espiar nuestras conversaciones del MSN desde otra PC?

El Messenger es una herramienta muy útil, tanto, que seguramente lo has utilizado para comunicar algo personal ¿Quién no lo ha hecho?. Por ello es probable que evites guardar las conversaciones en tu computadora, o en su caso las eliminas apenas y puedes, si es que compartes la PC con otro usuario.

¿Pero es verdad que es posible que alguien podría "robar" nuestras conversaciones del Messenger sin que nos demos cuenta, aún cuando no las guardemos en nuestra PC?

¿Es cierto que alguien puede espiar nuestras conversaciones de Hotmail MSN desde otra PC?

La respuesta es: Verdad!


Sí, esto no es un mito. Los criminales o las personas mal intencionadas usan dichas técnicas a menudo con el fin de obtener información sensible de los usuarios como sus contraseñas u otros datos que los podrían comprometer. A veces lo hacen a nivel del tráfico de red, es decir, desviando el tráfico a través de una máquina maliciosa o también por medio de un virus informático que recopila, graba y reenvía la información de las conversaciones a las personas malintencionadas.

Si deseas aumentar la seguridad de tu PC te recomiendo usar un Firewall y un Antivirus actualizado. En la actualidad hay múltiples opciones, tanto gratuitas como de paga, que te ayudarán a tener una PC bien protegida contra estetipo de softwares mal intencionados.

Mitos de PC | 3, ¿Puede un Virus informático dañar el Hardware de mi PC?

¿Puede un Virus informático dañar el Hardware de una computadora?

Cierto.

Aunque suene un poco descabellado, un virus en verdad puede dañar el disco duro de tu PC.

sí es posible crear un código malicioso que cause daños físicos al hardware del usuario. Sin embargo, esto no ha sido tan popular, ya que el objetivo de los criminales cibernéticos no es dañar, sino robar: robar las cosas que representan dinero o que sean dinero mismo. Por ejemplo, números y pins de las tarjetas de crédito o cuentas bancarias, etc.

Un caso famoso en su momento (2001) fue el del virus "Chernobyl",que en efecto dañaba las computadoras donde se alojaba. ¿Cómo afectaba a las PC? Simplemente dañaba el disco duro de las computadoras al grado de dejarlos inutilizables y sin manera de recuperar los datos del mismo.

Su funcionamiento era relativamente simple, pero muy peligroso. Se trataba de un archivo ejecutable que no sólo borraba los archivos, sino que además borraba las BIOS (sistema básico para cargar un sistema operativo) del disco duro, que en algunos casos, los dañaba permanentemente.

Este es sólo un ejemplo, pero en lo dicho, un virus puede dañar a tu PC físicamente hablando.

Como siempre recomiendo usar un programa antivirus actualizado en nuestra computadora para reducir el riesgo de un daño en nuestra PC o en nuetros datos.

Mitos de PC | 4, ¿Un procesador de doble núcleo duplica la velocidad ?

¿Un procesador de doble núcleo duplica la velocidad de mi computadora?

FALSO!!!

Un lector escribió solicitando información sobre qué computadora necesitaba comprar para editar videos. Comentaba que le habían sugerido una computadora con un procesador superior a 2 GHz, lo cual le confirmé que era una buena idea, pero a su vez me comentó que si era correcto adquirir un procesador de 1.1 GHz con doble núcleo para adquirir 2.2 GHz.

Un procesador de doble núcleo no significa que tendrá el doble de potencia que la marcada por el vendedor. Los procesadores de doble núcleo no duplican la velocidad del procesador, ya que cada uno es independiente; por lo que la frecuencia marcada por el fabricante es la misma para cada núcleo.

Un procesador de 2.0 GHz con doble núcleo tiene precisamente esa velocidad de procesamiento, pero no una frecuencia conjunta de 4 GHz.

¿Qué significa entonces que un procesador tenga dos o más núcleos?

Lo que hace que un procesador de más de un núcleo tenga un mejor desempeño es que ofrece la posibilidad de separar las tareas para que cada núcleo ejecute una. Realizar tareas en forma paralela da como resultado un mayor rendimiento comparado con los procesadores de un solo núcleo.

De necesitar la velocidad de 2GHz se debe adquirir un procesador con esa velocidad real, y de querer un mejor rendimiento puede buscarse un procesador con más de un núcleo. En el caso de tratarse de una computadora destinada a edición video, recomiendo se adquiera una buena tarjeta gráfica y ponerle más de 2GB en memoria RAM.

Mitos de PC | 5, Virus

Cuando un virus infecta tu computadora sólo basta con que se aloje en la partición del sistema para causar daño ¿pero acaso le bastará con quedarse ahí?

Por diversas razones muchos de nosotros tenemos nuestro disco duro particionado. Esto quiere decir que el total de nuestro disco duro podemos dividirlo en varias carpetas, que se detectan cada una como un disco duro independiente.

En una pregunta que llegó a mi mail se cuestionaba la posibilidad de que un virus pudiera propagarse en las demás particiones del disco duro. En teoría esto no tendría ningún caso, pues sería suficiente con que instalara en la partición que fuera utilizada como sistema del equipo.

Esto no quiere decir que no existan virus que se propaguen en las demás particiones de tu PC. Esta problemática depende de cada virus en particular. Hay programas de código malicioso que efectivamente para tener el control sobre el sistema del usuario no necesitan infectar todas las particiones sino sólo la del sistema.

Sin embargo, agrega que hay virus que tratan de infectar todos los archivos ejecutables donde sea que estén almacenados o también infectan todas las unidades (particiones), ya que éstas se usan por el virus como el principal medio de propagación para infectar otras máquinas. Como ejemplo, los virus informáticos que se difunden a través de las memorias USB.

Hay algunos antivirus que por default tienen la opción de escanear únicamente la carpeta del sistema. Asegúrate de revisar todas las particiones de tu computadora cuando ejecutes una limpieza general de tu equipo, en especial ahora que los virus han evolucionado a tal grado que los hackers buscan hacerlos lo más resistentes posibles. Además, hay que recordar que las unidades USB se han convertido en una de las principales fuentes de propagación de un virus.

Mitos de PC | 6, Rendimiento

Conforme vayas agregando datos y programas a tu computadora es lógico que su rendimiento gradualmente vaya disminuyendo, puesto que los recursos del equipo se irán invirtiendo poco a poco en los programas que vayas instalando. Aquí es cuando tal vez quieras aplicar el famoso consejo de eliminar espacio y aumentar la memoria RAM, que en algún momento escuchaste de alguien más. De hecho, hay que admitir que esto sí es una buena forma de ayudar a tu PC.

La memoria RAM nos sirve para almacenar de forma temporal información, por ejemplo, cada vez que abrimos un programa como puede ser una hoja de cálculo, ésta es puesta en la memoria RAM y los datos se mantienen de forma temporal hasta que le demos la opción de salvar, así, las modificaciones o cambios son guardados en el disco duro, por lo que mayor memoria nos puede ayudar a tener más programas abiertos o mayor información disponible para procesamiento dando la sensación de que el equipo aumenta su desempeño.

“Sin embargo, si queremos llevar a cabo cálculos, tales como incluir formulas matemáticas, tablas dinámicas, comparativas, etc., que necesiten procesar información, estas operaciones son llevadas a cabo por el CPU ya que esa es su función y una vez terminadas las regresa a la memoria RAM para su almacenamiento temporal, por lo que si contamos con un procesador con características multinúcleos y de una frecuencia mayor estos se ejecutaran mucho más rápido, ayudando a terminar las tareas en un menor tiempo mejorando el desempeño del equipo de computo, por lo que es mejor tener un procesador con mejores prestaciones para un mayor desempeño''.

En pocas palabras, aumentar los recursos de tu computadora ayudará a que aumente un poco su productividad, pero esto no quiere decir que sea capaz de ejecutar programas de última generación que requiera de exigentes características en hardware.

En caso de que desees instalar un editor de video, por mencionar algo, con liberar en espacio en disco duro no bastará para que éste trabaje de manera óptima.
con esto aclaramos el mito numero 6 de el rendimiento de la PC

La tecnología de los libros electrónicos


¿Se imagina poder leer las noticias o sus libros favoritos en una pantalla flexible y a color? Empresas especialistas están trabajando para que pronto sea posible.

La tecnología de los libros electrónicos no deja de avanzar. En concreto y para finales de año, varios fabricantes lanzarán nuevos lectores de e-books con una tecnología de pantalla sorprendente. La próxima generación de e-readers nos ofrecerá grandes innovaciones centradas en la capacidad de reproducir imágenes en color, en la visualización de contenidos en video y en el desarrollo de dispositivos aun más ligeros que los actuales, con pantallas flexibles (aunque todavía no podrán plegarse) y resistentes a golpes y caídas que sus predecesores.

Todas estas mejoras abrirán las puertas de una nueva era de contenidos para libros electrónicos: ya sean gráficos en color (pensemos en los libros de texto para niños) y contenidos en video (idóneo para revistas o periódicos electrónicos). Además, los nuevos dispositivos tendrán una durabilidad muy superior a sus antecesores. No podemos olvidar que, por el momento, las pantallas LCD de nuestros smart-phones o PC aún no están bien adaptadas para servir como sustitutas del papel, pues al estar retroiluminadas no se pueden leer durante mucho tiempo sin que fatiguen los ojos del usuario.

Las pantallas de E-Ink

La mayoría de los lectores de libros electrónicos que existen en el mercado utilizan unas pantallas denominadas de “papel electrónico” que son fabricadas por la compañía E-Ink (adquirida recientemente por la empresa taiwanesa Prime View Internacional, PVI). Los productos Vizplex de E-Ink se fabrican usando la electroforesis; en esta tecnología, pequeñas microcápsulas conteniendo partículas blancas y negras se suspenden en un fluido que queda sellado en el interior de una lámina de plástico que se lamina sobre un circuito electrónico.

Las partículas negras y blancas de esta tecnología responden de manera diferente a las cargas eléctricas negativas y positivas, de modo que la superficie de la pantalla mostrará blanco o negro dependiendo de cuales surjan y se hagan visibles.

Los fabricantes están aumentando sus esfuerzos para enriquecer la experiencia de usuario gracias a tres conceptos básicos: el diseño, el peso y la pantalla. De entre las mejoras, destacan su delgadez y su alta resolución, lo que permite obtener unas fuentes muy nítidas en un equipo tan fino y ligero. Además, las pantallas de E-Ink tienen un consumo energético bastante reducido, ya que no necesitan retroiluminación para visualizar el contenido, sino que funcionan con luz reflectante; es decir, que al igual que con el papel, necesitamos luz ambiental para visualizar la información de la pantalla. En concreto, un monitor de tinta electrónica gana contraste al ser iluminado por los rayos del sol, mientras que con la tecnología LCD es poco legible en estos entornos.

Existe otro motivo del por qué el “papel electrónico” consume menos energía que los LCD. La electroforesis nos proporciona pantallas biestables; es decir, que el sistema puede mantener una imagen sin la necesidad de estar encendido o apagado. Eso sí, sólo considera la última imagen que estábamos viendo justo antes de apagar el aparato. Es por eso que el consumo de la batería de estos lectores con pantallas de papel electrónico se mide según el número de páginas que puede ver el usuario.

Inconvenientes del papel electrónico

El principal defecto de esta tecnología es su elevado tiempo de respuesta; es decir, lo que tarda el dispositivo en cambiar el contenido de la imagen o en pasar de página. Además, se produce un ligero parpadeo siempre que se modifica la imagen. Este problema funcional suele ser una de las mayores quejas de los usuarios y se produce porque el tiempo de respuesta de la pantalla es de, por lo menos, unos 200 milisegundos, mientras que LCD tan sólo tarda unos dos milisegundos en cambiar el contenido de la imagen. No obstante, continúa el debate sobre si los monitores LCD son más lentos a la hora de reproducir movimientos muy rápidos en video, frente a los de plasma u otras pantallas basadas en fósforo.

Mientras tanto, la mayoría de los usuarios que utilizan e-readers se han adaptado al tiempo de respuesta prolongado, porque a efectos prácticos, el retraso no es tan largo si lo comparamos con el tiempo que se tarda en pasar las páginas de un libro físico. Obviamente, este tiempo de espera sí supone una desventaja si deseamos reproducir video en nuestro dispositivo, por lo que al día de hoy, los libros electrónicos no sirven para reproducir imágenes en movimiento.

Otro de los inconvenientes es la ausencia de color, que no se trata de un problema grave para los contenidos solamente de texto. Pero esta limitación hace que una gran variedad de contenidos en color se escapen de las posibilidades del usuario, como revistas, libros infantiles, libros de texto ilustrados, y cualquier otro medio con fotografías e ilustraciones.

También, hay que tener en cuenta que la primera generación de libros electrónicos no ha sido diseñada para sufrir el grado de uso y desgaste provocado por los más pequeños. Las pantallas flexibles tienen menos riesgo de rotura en el caso de recibir un golpe o de caer al suelo. Además, una pantalla flexible es más ligera y permite hacer más portátiles los lectores de gran formato (actualmente el Kindle DX de Amazon es un modelo relativamente pesado con poco más de medio kilo).

¿Tinta electrónica o LCD?

Los monitores LCD reproducen magníficamente imágenes y video en color, pero también consumen una gran cantidad de energía, sobre todo para dispositivos móviles, lo que puede suponer una gran desventaja si queremos pasar varias horas leyendo un libro electrónico. Tampoco hay que olvidar que, sobre todo en monitores LCD de gran tamaño, el riesgo de rotura obliga a utilizar tecnologías para reforzar la pantalla que aumentan el peso final del dispositivo. Por esta razón, el peso de la pantalla LCD puede ser una seria amenaza si vamos a estar sujetando nuestro libro electrónico durante mucho tiempo.

Otra de las alternativas que barajan los fabricantes es aplicar a los nuevos lectores electrónicos monitores LCD monocromos. Desde por ejemplo, ofrecen Libre Pro, un e-reader diseñado con una pantalla monocroma de 5 pulgadas desarrollada por Toshiba. Al ser un dispositivo LCD, desaparece el problema del tiempo de respuesta con cada página y, como novedad especial, se prolonga la vida de la batería considerablemente porque no utiliza el sistema de retroiluminación usado habitualmente en los LCD. Según estimaciones de Aluratek, con este dispositivo podremos leer de 22 a 24 horas con cada carga de batería, siempre y cuando no tardemos más de 60 segundos en pasar cada página.

Desde E-Ink se está considerando el desarrollo de alguna de estas cuestiones en futuros productos, gracias a la colaboración de varias empresas asociadas, según Sri Peruvemba, vicepresidente de Marketing de la compañía. Por ejemplo, el modelo Skiff Reader, respaldado por Hearst Corporation y presentado en el pasado CES, ha sido diseñado especialmente para mostrar la información de periódicos, gracias a su pantalla táctil flexible de 11,5 pulgadas que permite visualizar contenidos en papel electrónico. Hay que decir que esta pantalla ha sido fabricada conjuntamente por E-Ink y LG. Además, también se ha potenciado la conectividad de Skiff Reader, ya que soporta redes 3G y WiMax.
La nueva compañía propietaria de E-Ink, Prime View Internacional (PVI), le está ayudando a desarrollar una pantalla de papel electrónico en color. Precisamente, y de acuerdo con Peruvemba, el desarrollo de un sistema en color fue una de las razones por las que E-Ink aceptó ser adquirida por PVI. Pero lo más interesante ha sido el anuncio del fabricante chino de libros electrónicos Hanvon, también conocido como Hanwang, de sus planes para iniciar, a finales de año, la producción en masa de un lector de e-books basado en las pantallas en color que está desarrollando E-Ink. Sin embargo, este futuro tan prometedor no contempla mejoras para solucionar la cuestión del tiempo de respuesta ya que, reconoció el ejecutivo, el problema todavía se encuentra en fase de investigación.

Los competidores de E-Ink

Mientras E-Ink se consolida como empresa dominante en el mercado del papel electrónico, es inevitable que otras compañías sigan luchando con nuevas propuestas. Así pues, las firmas desarrolladoras se han centrado en dos aspectos: el uso de un sistema biestable y la aplicación de gráficos en color. De hecho, en la Oficina de Patentes de Estados Unidos se han contabilizado más de 1.200 registros relacionados con estas tecnologías de, entre ellos, compañías como Intel, Fujitsu y Kodak.

Según el analista de DisplaySearch, Jenny Colgrove, se han detectado muchas compañías compitiendo en el mercado del papel electrónico, como SiPix en Taiwán (cuya tecnología está empezando a utilizar Asus) e incluso Bridgestone (sí la misma que fabrica neumáticos), gracias a sus desarrolladores en Japón. Ambas empresas han mostrado prototipos de e-readers en color. Asimismo, la firma holandesa Irex ha anunciado que planea la distribución de un modelo de libro electrónico en color para 2011.
Pero uno de los modelos de lector electrónico que más interés está generando es el que Qualcomm tiene en desarrollo, aunque ésta sea más conocida por su tecnología para redes móviles. La tecnología de Qualcomm MEMS empleada en este dispositivo se denomina Mirasol y ya fue presentada hace varios años.

Mirasol es una tecnología de modulación interferométrica (IMOD) que al igual que sus rivales de la electroforesis, permite que las pantallas funcionen mediante luz ambiental y no necesiten retroiluminación para visualizar su contenido, como sí ocurre con los monitores LCD. Utiliza dos placas conductoras que se separan al aplicarles una carga eléctrica; de manera similar a como un prisma crea un arco iris, una pantalla Mirasol presentará colores distintos cuando la luz pase a través del sistema, pero siempre en función de la distancia que exista entre las dos placas.
Desde Qualcomm apuntan que Mirasol es un sistema superior a la tecnología basada en electroforesis que utilizan E-Ink y otros fabricantes por diversos motivos. Por un lado, porque con el sistema Mirasol, el tiempo de respuesta es más rápido, lo que favorecerá la reproducción de videos y, por otro, porque es más eficiente a nivel energético que sus rivales.

Las pantallas Mirasol saldrán próximamente en China con el móvil C108 de Hisense y en sistema monocromo. Además, Qualcomm MEMS Technologies y el fabricante taiwanés Inventec dieron a conocer la terminal Inventec V112 en el Mobile World Congress, llevado a cabo en Barcelona, España, que usará como monitor secundario una pantalla Mirasol de 1,1 pulgadas. De igual manera, se espera para el tercer trimestre del año el lanzamiento de un lector de libros electrónicos con una pantalla en color de 5,7 pulgadas y que podría ser la nueva generación del Kindle, según afirmó Cheryl Goodman, director de Marketing de Qualcomm.

No obstante, podría existir una alternativa a estas tecnologías de pantalla para libros electrónicos, según apunta el analista James McQuivey, de la consultora Forrester Research, quien ve muy posible implantar modelos híbridos que reúnan lo mejor de la tecnología LCD con los avances proporcionados por los modelos de luz reflejada, como la electroforesis o la modulación interferométrica, entre otros. La compañía Pixel Qi ha mostrado unos prototipos de 10 pulgadas, con pantallas transflectivas (las habituales en dispositivos PDA) que ha aplicado en netbooks y lectores de libros electrónicos. La firma defiende que su sistema ofrece una calidad de imagen superior y mejora la legibilidad, sobre todo en interiores, que es cuando el sistema activa la retroiluminación LCD.

En definitiva, aunque en el futuro se pueda imponer alguna de las tecnologías que hemos explicado, no cabe la menor duda de que 2010 está siendo un año espléndido para el mercado de dispositivos de libros electrónicos. Porque según apunta la consultora DisplaySearch, este año se prevé triplicar el número de pedidos de estos dispositivos; en concreto, el cambio podría suponer el salto de los 5 millones del año pasado hasta unos 15 millones de pedidos a lo largo de 2010.
Fuente; PC world