miércoles, 10 de diciembre de 2014

Comentarios On-line... ¿Valen la pena?

En este mundo de la Informática que tanto me apasiona, y creo que al igual que muchos, el relacionarme con Internet y las comunidades online es un punto del que no podemos estar ajenos si no queremos "perdernos el tren". Para poder estar actualizados debemos dedicar un momento de cada día a leer foros y blogs especializados, a caracterizarnos en una red social, a leer páginas de noticias, etc. Ese concepto lo aprendí desde que era un simple estudiante y hasta el día de hoy lo practico. Uno debe también saber que creer de lo que leemos, que aprehender y que dejar.

Un buen día decidí dejar de ser un simple espectador para pasar a participar activamente y contribuir un poco a este ambiente. Con mi cuenta de Google abrí un humilde Blogspot y comencé a escribir de mi experiencia como técnico y "persona idónea", compartiendo algunas cosas que leía y que creía que era interesante que se sepan, mejorando algunas exposiciones, traduciéndolas o haciéndolas mas amigables a la lectura de cualquier persona.

Una de las cosas que siempre me preocuparon son los comentarios. ¿Cómo hacer para formar una comunidad? ¿Cómo hago para que la gente se interese en lo que escribo y quiera dejar sus opiniones sobre los temas que hablo? Y aunque nunca logré tener una audiencia (ni escribía seguido, ni escribía bien), el tema de los comentarios seguía en mi cabeza.

Por la manera en que funciona Internet, para quienes escribimos, ya sean simples blogs personales o medios, los comentarios siempre fueron el feedback por excelencia. Antes de las elaboradas métricas y las redes sociales, la manera más fácil de interactuar con los lectores era a través de la sección de comentarios.

Desde hace unos años, una nueva tendencia en los medios online comenzaba a surgir. Los comentarios habían pasado de ser aliados de quien escribía, para convertirse en un enemigo. Totalmente prescindibles. Pero, ¿cómo se llegó a esto?

A principios de este año, The Atlantic publicaba un artículo sobre cómo los comentarios cambian la percepción sobre un sitio y afectan su tráfico. Habla de casos como el de National Journal que eliminando los comentarios logró centrar las miradas en el contenido en sí, incrementando también las visitas del sitio, y de cómo los comentarios en Internet son, en general, racistas, sexistas, ignorantes, o de cualquier modo inútiles, pero, esto siempre y cuando se deje una sección de comentarios sin moderar.

Si queremos un ejemplo a nivel nacional, basta con entrar a cualquier nota de La Nación para coincidir casi a ciegas con lo expuesto en el párrafo anterior. Si buscamos un ejemplo claro lo tenemos tan cerca como al final de una noticia de este diario. Producto del anonimato y de la falta de moderación.

Estuve leyendo un poco acerca de este tipo de fenómeno y encontré una nota del Washington Post, donde una periodista llamada Anne Applebaum publicaba ‘Otra razón para evitar leer los comentarios’, en la cual, a grandes rasgos, comenta:
"Múltiples experimentos han demostrado que la percepción de un artículo, su escritor o la temática del mismo, pueden ser alterados por comentarios anónimos, especialmente si son duros. Un grupo de investigadores encontró que comentarios groseros “no solo polarizan a los lectores, sino que también cambian la interpretación de la noticia en sí.” Un analista digital de Atlantic Media también descubrió que las personas que leen comentarios negativos son más propensas a juzgar que un artículo era de baja calidad y, sin considerar el contenido, dudar de la verdad que se declara en aquel."
Pero esto no podría ser la regla de todo medio o blog, ¿verdad? Bueno, el problema está en que una vez que un sitio ganó popularidad y una masa enorme de lectores, hay dos opciones coherentes: invertir en mantener una sección moderada de comentarios en las que solamente existan las discusiones con argumentos centradas en el tema específico del artículo, o eliminar por completo los comentarios, ahorrar recursos y centrarse exclusivamente en el contenido, dejando que la conversación sobre el mismo se vaya a las redes sociales.

En estos últimos meses pareciera ser que la tendencia es inclinarse a lo seguro, o sea quitar los comentarios. Así encontramos grandes medios como Reuters, y no tan grandes como Re/code, que han decidido eliminar por completo las secciones de comentarios.

Mientras sigo leyendo sobre cómo los comentarios online son una pérdida de tiempo en la cual no hay que destinar recursos, no puedo dejar de pensar en comunidades como esta; ya que, más allá del blog, pretendo llevar a cabo una comunidad de lectores que entren cada día a informarse y, porque no, a participar de los temas expuestos compartiendo dudas, problemas, soluciones, sugerencias, etc.

Creo que es este el punto más importante para que los comentarios de un sitio realmente valgan la pena; lograr que el lector se sienta parte de la comunidad, alimentar desde el inicio un debate centrado y argumentado que nutra al artículo en sí. ¿Tarea complicada? Seguro! Pero no imposible.

¿Qué opinan?

Los virus que infectan routers


Hace algunos días leí por Internet sobre un malware extraño que redirigía las URL que llegaban a nuestra barra de direcciones ya sea escritas a mano o clickeadas a sitios de anuncios publicitarios (adfoc.us y adf.ly por lo general), síntoma que se repetía en todos los browsers de la PC, todas las máquinas de la casa/oficina y algunos dispositivos móviles también. Sumado a ésto, aparentemente el bicho resistía diversos antimalwares e incluso se seguía manifestando tras reinstalar el sistema operativo. Hace unos meses hablamos sobre un caso parecido pero específico para un modelo de Zyxel, si tenés uno de esos no estaría de más pasar por ahí antes. Por el momento hay reportes de infecciones en dispositivos Linksys, D-Link, TP-Link y algunos más, es decir, casi todas las grandes marcas del mercado hogareño.

Mis sospechas quedaron confirmadas tras varios reportes de clientes, colegas y amigos: No es la computadora el problema sino el router. Si, esa inofensiva cajita con puertos y antenitas que compraste por 400 pesos o te dio tu ISP a comodato es la que tiene el problema. Hay virus que infectan routers señores pero por suerte es algo que tiene solución.

¿Cómo lo resolvemos? Lo primero que tenemos que hacer es un hard reset, es decir volver el aparato a su configuración de fábrica. Cuidado: Hacer ésto eliminará las configuraciones que hayamos realizado en la interfaz web para, por ejemplo, redirigir puertos. Una vez hecho ésto entramos a la interfaz con la IP  (normalmente es la primera en el rango que su DHCP le entrega a nuestra PC, por ejemplo si nuestro equipo después del reset recibe la IP 192.168.0.101 la del router suele ser 192.168.0.1) y la combinación usuario/contraseña por defecto. Otras alternativas de IP para probar con el router son: 10.0.0.2 y también 192.168.1.1

Una vez que estemos en la configuración del router, lo primero que tendríamos que hacer es una actualización de firmware. Es una operación muy sencilla (normalmente está en el menú System > Firmware Upgrade o similar, donde encontramos un botón para cargar el archivo que bajamos desde la web del fabricante) pero bastante delicada, así que si viven en un barrio con cortes de luz frecuentes es mejor proveerse de un UPS antes de realizar esta tarea. Si se quieren quedar tranquilos pueden instalar en su lugar un firmware alternativo como DD-WRT y OpenWRT pero ya es para usuarios más avanzados y un error les puede convertir su router en un pisapapeles carisimo pero con mucha onda :)

Luego de cargar el firmware actualizado forzamos los servidores DNS de nuestra preferencia y desactivamos -salvo que nos complique mucho la vida por algún uso específico- las opciones poco felices del apartado seguridad, como ser el acceso remoto a la configuración web (WAN access o algo así) y UPNP. Con ésto ya debería, con algo de suerte, quedar resuelto el problema.

Y a vos, ¿Te pasó? ¿Formateaste la PC y al final era el Router? ¡Contanos tu experiencia!

viernes, 28 de noviembre de 2014

¿Qué es lo que pasa en Facebook cada 15 minutos?


Primero lo primero, leamos un poco de las estadísticas del "Caralibro":


  • Facebook tiene 1260 millones de usuarios registrados.
  • Facebook tiene 680 millones de usuarios móviles.
  • Las personas gastan 700 mil millones minutos en Facebook cada mes.
  • La gente se queda en Facebook al menos 20 minutos en cada visita.
  • La gente ha creado más de 50 millones de páginas de fans de Facebook.
  • 1 de cada 12 personas en el mundo tienen una cuenta de Facebook.
  • 1 de cada 5 página de vista previa es una página de Facebook.
  • Más de 5.800 empleados trabajan para Facebook
  • Más de 219 mil millones de fotos se han subido a Facebook


Si consideráramos a Facebook como un país, sería el tercer mayor país del mundo


  • 30 millones de cuentas de Facebook pertenecen a personas fallecidas
  • 10 millones de cuentas de Facebook son falsas.
  • Más de 45 millones de cuentas de Facebook son duplicadas. * Al menos el 50% de los usuarios inicia sesión en Facebook todos los días.
  • 50% de usuarios, de 18 a 34 años de edad, comprueban la página de Facebook cuando se despiertan.
  • Alrededor del 60% delos usuarios hablan más en Facebook de lo que hacen en la vida real.
  • 30% de los usuarios de Facebook tienen más de 35 años de edad.


El promedio de amigos por usuario es de 130.

  • Medianamente, a un usuario al menos le gustan 80 páginas o grupos.
  • El 50% de los usuarios encuentra noticias en Facebook en lugar de medios de noticias.


Cada 15 Minutos

  • La gente comparte más de 1.600.000 publicaciones en el muro.
  • Más de 10.210.000 comentarios se publican.
  • Las personas envía, a través de Facebook, 2.800.000 mensajes.
  • Se aceptan 2.000.000 de solicitudes de amistad.
  • Más de 2.700.000 fotos se han subido a Facebook.
  • Más de 1.100.000 enlaces se han compartido.
  • Alrededor de 1,9 millones de estado se han actualizado.


Ranking de páginas en Facebook


  • App de Facebook para teléfono: Más de 311.200.000 likes
  • Facebook: Más de 95.300.000 likes
  • Rihanna: Más de 78.600.000 likes.
  • YouTube: Más de 76.700.000 likes
  • Eminem: Más de 76.500.000 likes
  • Coca-cola: Más de 73.300.000 likes
  • Shakira: Más de 71.900.000 likes
  • Texas Hold'em Poker - Juego: Más de 70 millones likes
  • Los Simpson: Más de 67.900.000 likes
  • Harry Potter: Más de 65.850.000 likes

martes, 25 de noviembre de 2014

Mejora tu conexión WiFi



Hace un par de años, científicos de la Universitat Politècnica de València demostraron que, al contrario de lo que se creía hasta ahora, las condiciones meteorológicas sí que influyen de forma significativa en el rendimiento de las redes WiFi.

La lluvia, el frío o el calor, y la incidencia solar pueden afectar a estas redes, y los científicos creen que tener esto en cuenta ayudará a mejorar el funcionamiento de las mismas en el futuro. Según la nota de prensa de la UPV, lo que más afecta en las prestaciones de las conexiones inalámbricas es la temperatura y la radiación solar. “Hasta ahora se creía que las condiciones meteorológicas no influían en frecuencias inferiores a 10 Gigahertz. Nosotros hemos demostrado que factores como la lluvia, el frío o calor o la incidencia solar pueden incidir de manera significativa en el rendimiento de las conexiones inalámbricas WiFi que funcionan a frecuencias de entre 2 y 4 Gigahertz”, explicaba Jaime Lloret, investigador de la Politècnica de València.

Para llegar a esta conclusión, los investigadores de la UPV llevaron a cabo un exhaustivo trabajo de campo a lo largo de 2011, realizando un análisis estadístico sobre el funcionamiento de la red inalámbrica de la universidad y de la información recogida por la estación de la Agencia Española de Meteorología ubicada en el campus de Vera.

De este modo, tanto este estudio que pone especial énfasis en la climatología como el hecho de apostar por una red inalámbrica de calidad para trabajar, es muy importante tener en cuenta una serie de cosas que necesitaremos para mejorar la conexión inalámbrica durante todo el año.

1. Ubicar mejor el router
Quizá es lo más importante. A veces el router no se encuentra en la mejor de las posiciones para transmitir su señal. Una habitación situada en el extremo de la oficina o debajo de una estantería no son el lugar óptimo. El dispositivo deberá encontrarse en un sitio central, desde el que pueda ofrecer una conexión fluida a todos los espacios que lo requieran. Si es necesario se puede comprar un cable Ethernet que permita situarlo en la mejor ubicación.

2. Instalar un segundo router
Otra opción para mejorar la conexión WiFi es establecer un segundo router como otro punto de acceso, que en la práctica actuará como un repetidor de señal. Para esto es necesario conectar los dos puertos LAN de los aparatos. Los dispositivos más nuevos incluso vienen preparados para servir como puntos de acceso. Una vez dentro de su configuración es tan sencillo como hacer clic en una de las opciones. Para los modelos más antiguos habrá que configurar más opciones. 

3. Cambiar el canal de la WiFi
Los routers trabajan generalmente en los canales 1, 6 u 11. Si el nuestro se encuentra en el canal uno saturado el rendimiento mejorará al cambiarlo a otro. Esta información se puede conocer con la herramienta gratuita inSSIDer, que está repleta de datos, pero sólo hay que fijarse en el parámetro ‘channel’. Posteriormente hay que entrar en la configuración del router para cambiar el canal.

4. Drivers y firmware actualizados.
Los routers son en realidad pequeños dispositivos que realizan la función de conectividad, distribuir el acceso a Internet, bloquear accesos, etc. Esto lo realizan a través de su programación que se encuentra en el Firmware del equipo. Muchas veces los fabricantes tienen que corregir errores de operación de sus aparatos y para ello van sacando actualizaciones de firmware.
Recomendamos mantener el router con la versión más actual, muchas veces esto resuelve gran cantidad de fallos en el equipo incluso de compatibilidad con otros fabricantes.Lo mismo sucede con los controladores de las placas wifi (tanto de PC como de dispositivos portátiles).

5. Protege tu red con una contraseña segura
No a todo el mundo le gusta pagar por internet, así que hay quienes desean disfrutar gratis lo que otras personas pagan. Coloca una clave segura para evitar que personas no autorizadas se conecten, esto puede reducir seriamente el ancho de banda y afectar en general la calidad del servicio, sin olvidar la propagación de virus.

6. Coloca una antena de mayor tamaño y ganancia.
La antena es un elemento vital de los equipos WiFi, no solamente de los routers sino también de las placas de red. Muchas marcas dan la opción al usuario de quitar la antena que trae para poder colocar una antena de mayor ganancia. La ganancia es la capacidad que tiene la antena para amplificar y aumentar la fuerza de la señal. Además, si se quiere dar servicio a toda la casa, se debe escoger una antena omnidireccional, es decir que envíe la señal en todas las direcciones.

7. Usar una placa Wifi de alta potencia
Esta sería la opción más barata y recomendable para casi todo el mundo. Actualmente se comercializan placas Wifi de alta potencia como las conocidas Alfa o Ubiquiti. Tienen una potencia entre 1000 y 2000 mw y son capaces de conectarse a redes Wifi muy lejanas.

8. Verificar qué aplicaciones o programas están usando Internet
Muchas veces nos damos cuenta de que tenemos instalados programas o aplicaciones que no usamos pero que aún así consumen recursos valiosos, ya sea en nuestra PC, en la tablet o en el smartphone. Hacer una limpieza de las cosas que no usamos puede significar que la conexión se agilice un poco, así como también ganar espacio de memoria en los equipos. Es aconsejable instalar sólo lo que vamos a usar o, en su defecto, comprobar periódicamente qué cosas bajamos por curiosidad que ya no nos interesan tanto para poder borrarlas.

Programas para mejorar la conexión inalámbrica

Además de los consejos anteriores, también existen programas que nos pueden ayudar a disponer de una conexión inalámbrica de mayor calidad.

1. Easy WiFi Radar
Se trata de una utilidad capaz de detectar redes WiFi y de conectarnos a ellas con toda facilidad. Easy WiFi Radar actúa como un radar que localiza puntos de acceso a Internet, indica la potencia de la señal y te permite conectarte automáticamente a redes sin contraseña, simplificando el procedimiento al máximo.
Es precisamente el sencillo uso de la aplicación lo que la hace especialmente recomendable a todo tipo de usuarios. Podrás conectarte a las redes WiFi de tu entorno sin complejas configuraciones de acceso. 

2. Free WiFi Hotspot
Free WiFi Hotspot es una herramienta con la que podremos convertir nuestro equipo en un punto de acceso WiFi desde el que podremos compartir nuestra conexión a Internet con cualquier otro usuario cercano sin necesidad de utilizar ningún hardware adicional.
El programa permite compartir conexiones independientemente de su naturaleza, ya sea DSL, por cable, Buethooth o móvil. El único requisito, es que nuestra PC disponga de una palca WiFi integrada. Además, no cuenta con límite de conexiones.
A la hora de configurarlo, sólo necesitamos establecer el nombre o ID de la red, escoger una contraseña y seleccionar la placa de red que vamos a utilizar en caso de tener varias. Una vez determinados estos parámetros, cualquiera que conozca la contraseña podrá acceder a la red, conectándose a Internet en cuestión de segundos.
En todo momento podremos administrar la conexión que estamos compartiendo iniciándola, pausándola o deteniéndola. Además, cuando esté funcionando podremos visualizar en una consola de información todos los cambios que están teniendo en la red en cuanto a los datos de conexión de todos los usuarios que se unan a la misma.

3. WiFi SiStr
Se trata de una sencilla herramienta que te permite conocer en valores numéricos el estado de la señal de tu conexión inalámbrica. Con WiFi SiStr estarás siempre al tanto de la potencia que llega a tu dispositivo WiFi. Presenta un única barra de progreso que indica en todo momento la intensidad de la señal. A la izquieda puedes ver la representación numérica de ésta.

4. Who Is On My WiFi?
Esta herramienta está muy bien para poder saber cuantas personas hay conectadas a nuestra conexión inalámbrica sin nuestro consentimiento. El programa rastrea todos los dispositivos que están utilizando tu red WiFi para que los usuarios puedan identificar cuáles han sido autorizadas (PCs, smartphones y tablets) y cuáles son los desconocidos que no deberían estar ahí.
El programa es bastante eficaz para detectar a cualquier intruso, ya que muestra tanto la dirección IP como la dirección MAC y el nombre de los dispositivos.
No importa que tu WiFi esté protegida con contraseña, de hecho, hay programas diseñados para desencriptarlas y así poder conectarse. Gracias a Who Is On My WiFi? podrás dejar de preocuparte de la seguridad de tu red, ya que esta aplicación lanzará un mensaje de voz cuando un nuevo dispositivo desconocido se conecte con tu router.

5. Acrylic WiFi
Acrylic WiFi es una sencilla herramienta que actúa como un escáner de redes inalámbricas, detectando todas aquellas que se encuentren a tu alcance para mostrarte información sobre la calidad de la misma. Con este programa podrás analizar el estado de tu WiFi y encontrar qué dispositivo de los que están conectados a dicha red está perjudicando la velocidad y su buen rendimiento.
Acrylic WiFi será muy útil también para acceder a la información detallada de todos los dispositivos que usan tu red para reconocer a cualquiera que intente engancharse a ella sin tu permiso. La interfaz de la aplicación es bastante básica y proporciona un uso sencillo de la misma. Sólo hay que pulsar ‘Play’ en la pestaña para que comience a recopilar toda la información.

Espero que estos datos hayan sido útiles y que les permita mejorar la calidad de su conexión inalámbrica a internet. Hasta la próxima!

Ventajas de utilizar Software Libre en la Educación


Los avances tecnológicos plantean nuevos retos que cumplir, nuevas estrategias que diseñar y nuevos medios que utilizar. Dependiendo del área de conocimiento en la que nos situemos, por ejemplo, ha obligado a los contadores a manejar equipos de cómputo y dominar programas informáticos para migrar sus operaciones y tareas a plataformas digitales que les permitan estar a la vanguardia y ser competitivos en el mercado.

En áreas como la educación, el monstruo de la tecnología ha obligado a los profesores a utilizar nuevas estrategias didácticas que incluyan el uso de dispositivos electrónicos y software específico para apoyar las actividades que se llevan a cabo en el aula. En este sentido, algunos especialistas en educación y tecnología han considerado que el uso de software libre en el salón de clases puede ayudar en ciertos aspectos del proceso de enseñanza-aprendizaje.

¿Qué es el software libre?
El software libre es aquel en donde el usuario tiene cuatro libertades fundamentales sobre él:
  • Libertad de usar el programa, con cualquier propósito.
  • Libertad de acceso al código fuente del programa.
  • Libertad de copiado y distribución.
  • Libertad de modificar y mejorar el programa.


¿Qué enseña el software libre?


Actualmente existen proyectos, como Gleducar, encaminados a transformar los paradigmas educativos, incorporando las nuevas tecnologías de la información y la comunicación en las instituciones educativas a través del uso potencial del software libre.

En la Wiki de Gleducar se enumera una serie de fundamentos y razones a favor del uso de software libre en las instituciones educativas. De modo que, con el software libre podemos enseñar:
  • Que hay muchas cosas por crear
  • A plantearnos retos
  • A cooperar con la comunidad local
  • Libertad de elección
  • A aprender de otros
  • A propagar libremente el conocimiento
  • A no discriminar
  • A trabajar en equipo
  • A investigar y aprender
Ventajas


La principal función de la educación es la de brindar acceso al conocimiento. El software libre nos brinda libertades para poder ejercer esa apropiación del conocimiento y por ello tiene una gran cantidad de beneficios para la educación comparados con el software privativo, entre ellas se encuentran:
  1. Crea personas libres, independientes y críticas. El uso de programas con licencia gratuita elimina la dependencia y ofrece libertad para elegir el programa que más nos agrade y que mejor se adapte a nuestras necesidades.
  2. Reduce costos de equipos. La ventaja del software libre en relación al hardware, es que no requiere de equipos tan potentes y es posible que funcione en la mayoría de las computadoras que existen en el mercado.
  3. Reduce costos de licencias. Las licencias del software libre son completamente gratuitas, por lo que las escuelas pueden ahorrar un poco de dinero e invertirlo en otras áreas.
  4. Facilita que los alumnos trabajen en casa con las mismas herramientas que utilizan en la escuela, de forma legal.Es posible descargar de manera gratuita y completamente legal los programas de software libre con que se trabaja en la escuela para que los estudiantes puedan continuar realizando sus tareas en casa.
  5. Ofrece mayor seguridad. Dificulta el ataque de terceros y la afectación por virus comunes en otros sistemas operativos.
  6. Crea comunidades para compartir conocimiento. Al compartir material educativo libre estamos compartiendo conocimiento y formando comunidades de aprendizaje en las que se valoran las experiencias de éxito.
  7. Se favorece el mercado local. La posibilidad de tener acceso al código fuente del software permite que las empresas locales puedan adaptarlo a las necesidades específicas de un contexto o institución determinada.
  8. Permite profundizar en la informática. El software libre permite que los estudiantes conozcan como trabajan los programas y fomenta el interés, la investigación y el aprendizaje de nuevos conceptos en el campo de la informática.
  9. Permite el trabajo en cualquier entorno. Trabajando en entornos de software libre, más que enseñar a utilizar un producto se enseña a utilizar una tecnología, por lo que el estudiante estará preparado para utilizar otros entornos cuando sea necesario.
  10. Permite ver más allá. El software privativo crea una burbuja alrededor del usuario que no le permite vislumbrar lo que hay más allá. El uso del Software libre permite romper esa burbuja y conocer que existe cantidad de programas gratuitos disponibles que nos brindan posibilidades infinitas para realizar aquello que deseamos.

Ahora que ya conocemos algunas de las bondades del software libre, podemos comenzar a formar parte del movimiento involucrando a alumnos, al centro escolar y ver como las prácticas educativas se transforman en beneficio de la educación.

miércoles, 15 de octubre de 2014

Mark Zuckerberg dona 25 millones para controlar el ébola


Por triste que parezca, los esfuerzos para controlar el virus del ébola no están dando demasiado resultado. Al margen de los sucesos ocurridos en España que involucran una enfermera, a su marido y a su perro, la enfermedad ya lleva un recuento de 4.000 muertes atribuidas. A medida que los distintos frentes van fallando, la población se une para pedir más investigación sobre el virus. 

El último en subirse al carro de ciudadanos preocupados ha sido Mark Zuckerberg, que ha anunciado en su página de Facebook que él y su mujer Priscilla Chan han hecho una donación de 25 millones de dólares al Centro de Prevención y Control de Enfermedades de Estados Unidos (la CDC).

  • "Tenemos que controlar el ébola antes de que se extienda, y se convierta en una catástrofe global"
  • Zuckerberg teme que el ébola sea una nueva catástrofe, como el HIV, o la polio, y que tarde décadas en curarse
  • La fundación de Bill y Melinda Gates también ha donado 50 millones de dólares


El hecho de que la donación haya sido hecha a un organismo cuya única intención es controlar la prevención del virus en suelo estadounidense, así como buscar una cura, ha hecho que algunos usuarios de la red social se planteen sus motivos para donar tanto dinero. 

Y es que la fama de excéntrico de Marck Zukerberg le precede, y hay quien opina que el millonario sólo pretende evitar la expansión del ébola, en lugar de ayudar a controlarlo en sus países de origen, como han hecho otros donantes como Bill y Melinda Gates a través de su fundación. 

En cualquier caso, todas estas donaciones no son más que una fración de los 100.000 millones que la Organización Mundial de la Salud ha estimado que costaría erradicar completamente el ébola, tanto en suelo norteamericano y europeo como en África.

Descubren cómo conseguir que baterías duren 20 años cargadas

  • Son capaces de alcanzar una carga de 0 a 70 % en sólo 2 minutos.
  • El secreto reside en un gel creado con nanotubos de dióxido de titanio, creación del profesor Chen Xiaodong.
  • Podrían llegar al mercado en tan sólo 2 años.


Nos pasamos gran parte de la semana cargando la batería de nuestro smartphone, algunos (me incluyo) todos los días tienen que recurrir al cargador y al enchufe y otros, los más afortunados, pueden tomárselo con un poco más de tregua. Todo depende del modelo de smartphone y del uso que hacen del mismo. Y es que lo cierto es que las baterías parecen haberse quedado estancadas en un punto de no mejora de su capacidad. ¿Hasta ahora?

Un equipo de investigadores de la Universidad de Tecnología de Nanyang ha descubierto cómo crear una batería capaz de mantenerse cargada durante nada menos que 20 años, y leíste bien: años, no horas, ni días, ni siquiera semanas. Además, se cargaría muy rápidamente, en sólo unos minutos, fenómeno que no se asemeja ni de cerca a la actualidad.

Una importante ventaja que se desprende de ésto, a parte de las que ya podamos intuir, reside en que no será necesario que nos enfrentemos a la resignación de que no podemos cambiar la batería de ciertos dispositivos, como tablets, y que con el paso del tiempo acaban por agotar sus ciclos de carga y no nos queda más remedio que sustuirlos por otros dispositivos más modernos, aunque por lo demás el dispositivo siga ajustándose a nuestras necesidades.

En lo que se refiere a los ciclos de carga y descarga, sólo a partir de las primeras 1.000 cargas completas comenzará a verse reducida la capacidad de la batería, pero no hasta dicho momento.


Pero quizás lo más sorprendente de todo es que la forma de fabricación de las nuevas baterías no dista demasiado de la forma en que actualmente se hace. La clave reside en reemplazar el grafito que se usa en el ánodo de las baterías de iones de litio con un gel fabricado a partir de nanotubos de dióxido de titanio, cuyo inventor de éste último es el profesor del NTU Chen Xiaodong.

En dos años podrían llegar al mercado, ¡las esperamos ansiosos!

lunes, 6 de octubre de 2014

Direcciones "acortadas"


Llevo ya varias semanas viendo como algunas cuentas de Facebook y Twitter, con algún interés oculto (o no), publican imágenes impactantes acompañados de una dirección URL acortada para no descubrir el destino final. El peligro de las URL acortadas es que a simple vista no sabemos hacia dónde nos llevará cuando hagamos click en ellas.

Esta URL, en el caso que les expongo en la foto, a diferencia de llevar a un sitio Web con la información completa e “impactante” según indicaba la publicación, nos llevará a un sitio de vídeos de pornografía o incluso a un sitio Web malicioso, preparado para infectar nuestro equipo con algún malware.

Veamos un ejemplo:
En la imagen superior pueden ver un ejemplo claro. Texto impactante, imagen impactante y supuestamente una URL que nos llevará a un vídeo, más impactante todavía. Vamos, ¡hay que hacer click sí o sí!
Nada más y nada menos que 1.649 retweets de la publicación… Alguno caerá, seguro.

Pero, ¿y si comprobamos antes la URL? Está acortada, pero ¿por qué no descubrimos dónde nos llevaría antes de hacer click?

En la publicación observamos la URL http://goo.gl/hJsxiV que sin embargo, al poner el puntero del ratón encima, nos llevará a http://t.co/pnYhDc5SBR (otra URL "acortada") como podemos observar en la barra de estado del navegador Web.

Ahora bien, sin hacer click en el enlace, ¿cómo podemos saber dónde nos llevará? Para eso disponemos de unos recursos online que nos permiten expandir este tipo de URL y mostrarnos la dirección Web real.

Uno de estos servicios es http://checkshorturl.com

En este sitio Web escribimos la URL acortada http://goo.gl/hJsxiV o sino http://t.co/pnYhDc5SBR y hacemos clic en el botón Expand.

Y a continuación, en la misma página, nos mostrará el resultado de expandir esta URL. Adonde hubiéramos llegado en el caso de hacer click en el enlace. Por motivos de ética no comparto el resultado, pero es fácilmente comprobable con sólo seguir los pasos anteriores. Funciona con todas las páginas o URLs "acortadas".

viernes, 3 de octubre de 2014

El mejor antivirus eres tú!


La tecnología relacionada con la informática ha tenido un gran impacto en la humanidad. Gracias a ella, han aparecido nuevas maneras de trabajar, nuevas aplicaciones y servicios que hoy en día son usados por millones de personas y que, en definitiva, han cambiado tareas tan cotidianas.
Por ejemplo, como acudir a una oficina bancaria ya no es necesario para la mayoría de gestiones, sino que todo se puede hacer a través del Home Banking o de las aplicaciones móviles. Ante tareas tan importantes, se hacen imprescindibles las buenas prácticas en el uso de las herramientas informáticas (computadora, celular, software, etc.)
.
El software, mejor con garantías

Las fuentes para instalar software en un equipo informático (computadora, tablet, celular) han ido evolucionando, pasando del soporte físico (diskette, CD, DVD), a la descarga online (archivos ejecutables en servidores) y, hoy en día, principalmente a través de tiendas de aplicaciones específicas para cada plataforma (Google Play, App Store, etc.). En cualquier caso, siempre conviene usar fuentes de confianza para que la calidad del software sea la esperada y no haya ningún “extra” que pueda poner en peligro la seguridad de las operaciones que se hagan.
En diversos lugares de Internet, como páginas web, servidores ftp y a través de redes de intercambio, se pueden encontrar archivos con software preparado para instalar pero de dudosa procedencia. No es recomendable usar este tipo de archivos para instalar software, ya que pueden haber sido modificados por alguien con fines maliciosos, con el fin de interceptar comunicaciones, tomar el control del equipo sin que el usuario se de cuenta y así poder hacer un sinfin de cosas como acceder a datos personales y servicios, de forma no autorizada.
Esto hay que tenerlo en cuenta para todos los dispositivos, ya que para todos ellos hay disponible opciones para instalar software fuera de los circuitos normales. Si se necesita una aplicación, siempre es mejor acudir a la fuente legítima para su descarga y, si se trata de un software de pago y la barrera es el pago de la licencia, siempre está la alternativa de optar por el software libre, que hoy en día es muy competitivo y de calidad. Con el software libre, de la misma manera, siempre hay que acudir a las fuentes y repositorios oficiales.

Las contraseñas, cuanto más "complicadas", mejor

La puerta de entrada a muchos servicios es la contraseña de acceso. Los usuarios cuando se registran tienen que indicar una y hoy en día, es raro el sistema que no recuerda la importancia de que sea segura. ¿Qué significa esto de “segura”? Muy sencillo, que no pueda ser fácilmente identificada por terceros, que no pueda ser descifrada por una computadora a base de probar y probar combinaciones (ataque de fuerza bruta) o que no se repita en otros servicios menos seguros o sea compartida con otras personas.
El objetivo de una contraseña segura siempre es proteger al usuario del acceso no autorizado de terceras personas, evitando así que puedan operar en su nombre y usurpar su identidad. En este sentido, no sólo es importante fijar contraseñas seguras en los servicios, sino también en la cuenta de correo electrónico que se deja como contacto para ellos porque es por esta dirección pasan todos los emails enviados para poder recuperar cualquier contraseña y si alguien tiene acceso a nuestra cuenta, puede ser como abrirle el acceso a todo.
La contraseña de la cuenta de correo electrónico es una de las más importantes, tanto como la de acceso al home banking o a servicios de salud, entre otros. Para que sea segura, se recomienda que al menos cuente con una longitud de 10-15 caracteres y que no contenga palabras o combinaciones que se puedan encontrar en un diccionario. La mezcla de caracteres de distinto tipo, como mayúsculas, minúsculas, números y símbolos, ayuda a que sea aún más fuerte.
Adicionalmente a disponer de una contraseña, resulta de interés activar mecanismos de seguridad adicionales, como la verificación en dos pasos (presente en Gmail por ejemplo) o el alta de dispositivos, como el número de celular, que puedan ayudar a garantizar que sólo accede a la cuenta quien es su legítimo propietario. En este sentido, muchas entidades financieras se basan en tarjetas de coordenadas para que un cliente pueda acceder y operar en sus servicios electrónicos.

No todo siempre es lo que parece

Delante de la pantalla de cualquier dispositivo (computadora, tablet, celular), no todo es siempre lo que parece. Esto no significa que haya que desconfiar de lo que vemos, sino que hay que tener precaución y ser conscientes de que hay gente que envía millones de correos maliciosos cada día, intentando engañar a quienes los reciben y así poder hacerse con el control de su cuenta de email o del acceso a su cuenta bancaria.
Lo primero que hay que saber es que todos estamos expuestos a recibir este tipo de correos, denominados phising, independientemente de lo extremas que sean las medidas de seguridad que tomemos o lo bueno que diga que es el antivirus. Lo segundo, es que todos estos correos tienen un denominador común, que es intentar capturar datos clave del usuario (contraseña de correo, de sistemas bancarios, de redes sociales, entre otros). Casi todos los “emails dañinos” suelen ser detectados por los filtros de las herramientas de correo (Gmail, Hotmail, Yahoo, etc.) pero, de vez en cuando, se cuela alguno en la bandeja de entrada o podemos pensar que el filtro ha detectado un falso positivo (un email bueno clasificado como malo) y es cuando acabamos abriendo un correo “dañino”.
¿Qué pasa entonces? Si no se hace click en ningún enlace o se reenvía a nadie más, lo más normal es que no pase nada. Como mucho, puede que sólo por abrir el correo se descargue alguna imagen en nuestra computadora, lo que puede hacer que “los malos” sepan que nuestra dirección de correo es válida y sigan intentando enviar más correos de este tipo, a ver si nos pueden engañar.
Si se entra en algún enlace que provenga de uno de estos correos de phising, lo más habitual es que aparezca una página web que será un calco de una página legítima pero que, en realidad, es un espejismo con el que “los malos” quieren engañarnos y hacer que tecleemos los datos de alguno de los servicios que utilizamos. Esto es a veces tan real, que si se ponen dos páginas, una buena y otra de phising mala, en dos pantallas colocadas una al lado de la otra, no sabríamos diferenciarlas.
Por todo lo anterior, nunca se debe abrir un correo sospechoso y siempre es mejor asegurarse antes que hacer click con el ratón o el dedo. Si es un correo de un banco, jamás te pedirá una contraseña, una coordenada o un dato personal. Si es de cualquier otro servicio y te pide que entres en una web e indiques tu contraseña, de entrada, sospecha. Incluso aunque parezca que viene de un contacto conocido o cercano, siempre es mejor levantar el teléfono y preguntar, que hacer clik y arriesgar.

La ingeniería social existe

Hay malos de la película en esto de la informática que son muy hábiles obteniendo información de las personas. Uno de los métodos se llama ingeniería social, que consiste en investigar el entorno de una persona y tratar de engañarla para que le dé información. Un clásico ejemplo es el de llamar a una persona en nombre de una entidad financiera y pedirle que facilite información de sus claves de acceso para validar que está todo bien. La mayoría de la gente no se lo creería y pensaría que es un engaño, pero siempre hay una fracción de personas a las que nos puede encontrar con la guardia baja y que podemos caer en la trampa.
Esto mismo, hoy en día se ha llevado al terreno del email, por eso conviene controlar un poco la información que se comparte en lugares públicos de Internet (redes sociales, páginas web en general, foros, etc.), para evitar que el ataque cuente con mucha información de partida y pueda ser tan real, que no se detecte hasta que sea tarde.

Toffee. Controlar tu dispositivo con solo tocar la mesa.


En la Universidad Carnegie Mellon de Pittsburgh creen que la mesa sobre la que colocamos una notebook, tablet o incluso nuestro smartphone, puede ser una superficie válida para que, con solo unos toques sobre ella, podamos manejar el dispositivo.

Toffee, que es como han denominado a este sistema presentado en la pasada edición del encuentro Mobile HCI en Canadá, utiliza micrófonos colocados en el dispositivo que deseamos controlar.

Por medio de una aplicación, esos micrófonos recogen la información de la vibración que proviene de un golpe sobre la mesa, e identifica qué instrucción o acción hemos asociado a tocar esa parte de la mesa en concreto.

El sistema funciona de forma similar a un sónar, calculando de dónde proviene la vibración detectada. Chris Harrison, uno de los investigadores participantes en este trabajo, cree que no sería caro ni complejo que los fabricantes pudieran integrar este tipo de micrófonos en sus dispositivos y permitir un control diferente para determinadas aplicaciones o juegos.

miércoles, 1 de octubre de 2014

Windows 10... ¿Gran apuesta?


Y bueno, no se va a llamar Windows 9. El nombre que Microsoft ha elegido para su nuevo sistema operativo es Windows 10, según ha confirmado ayer la propia compañía en una presentación en la que ha ofrecido además nuevos detalles sobre cómo será éste. Se confirma lo que ya sabíamos y en lo que Satya Nadella había insistido con anterioridad: Windows 10 será el único Windows de Microsoft, independientemente del dispositivo.
"Una línea de productos. Una plataforma. Una tienda." Ése es el lema que Microsoft ha defendido para explicar un cambio importante en la visión de los sistemas operativos de la compañía y también en las aplicaciones que funcionarán sobre ellos, ya que los desarrolladores podrán programar apps universales que se puedan utilizar desde cualquier dispositivo.

La importancia del escritorio


Curiosamente, durante la presentación, en varias ocasiones los ejecutivos de Microsoft hicieron referencia a los usuarios de Windows 7 y cómo querían que Windows 10 los animara a dar el salto y actualizar su sistema operativo sin necesidad de pasar por un periodo de adaptación. Lo compararon con un auto: sabiendo conducir, puedes adaptarte a un auto mejor del que tienes sin hacer grandes cambios.
Respecto a esto, también aclararon que ofrece elementos con los que los usuarios de Windows 7 ya están familiarizados y a su vez algunos elementos de Windows 8. Un claro ejemplo de ello es el nuevo menú inicio, que es muy parecido al que ya se había filtrado. A la izquierda se mantienen los programas y otros elementos del sistema en formato lista, mientras que a la derecha aparece un pequeño mosaico de live tiles.

"Microsoft quiere que Windows 10 sirva a usuarios avanzados que quieren probar cosas nuevas y a los que necesitan estabilidad"

En sus propias palabras, quieren construir un sistema operativo "fresco" pero estable, que sirva tanto para los usuarios avanzados que se arriesgan a instalar sus beta como para las computadoras que funcionan en el área de Urgencias de un hospital.
Junto a la vuelta del Menú Inicio también han anunciado la llegada de los escritorios múltiples con tan sólo una única pantalla. A los usuarios de otros sistemas operativos esta funcionalidad ya les resultará familiar. Además, otro par de detalles: Control+V ya funcionará en la consola de comandos (¡por fin!) y la funcionalidad Ajustar permitirá hasta cuatro ventanas abiertas al mismo tiempo, mostrándote sugerencias para los espacios libres.


Sin olvidarse de las pantallas táctiles

Que quieran centrarse en el escritorio para que los usuarios de Windows 7 se atrevan al "salto" no quiere decir que se hayan olvidado de una de las grandes apuestas de Windows 8, como lo es la interfaz adaptada a las pantallas táctiles. De hecho se mantienen algunos elementos, como los Charms de Windows 8: esos accesos directos (buscar, compartir, etc.) que aparecen en la parte derecha de la pantalla.
A la izquierda, y al arrastrar, aparece la Vista de tareas que, además, está mejor optimizada para las pantallas táctiles (véase botones más grandes). En ella se podrá comprobar de un vistazo qué apps y archivos hay abiertos y es compatible con la nueva funcionalidad de múltiples escritorios.

¿Qué ocurre con los equipos convertibles?

Ya hemos visto cómo Windows 10 se adaptará a los equipos de escritorio y también a los equipos táctiles, pero ¿qué ocurre con los equipos convertibles? Con una aproximación a la que han llamado Continuum, la idea es que si no hay un teclado o si presionas sobre la pantalla, se active una interfaz muy similar a Modern UI. En cambio, si está conectado un teclado, automáticamente aparecerá la versión de Windows 10 de escritorio.

"Windows se mostrará de un modo u otro en función de si un equipo convertible tiene el teclado conectado o no"

Se podrá ir cambiando entre estos dos modos y será el propio sistema operativo el que se adapte en función de las variables que acabamos de comentar. Si, por ejemplo, retiras el teclado de un equipo convertible cuando está en el modo escritorio, te aparece un mensaje que te pregunta si deseas cambiar al modo táctil. Lo mismo si estás en el modo táctil y conectas un teclado.

Un sistema "colaborativo"


Según Microsoft, Windows 10 será el un sistema operativo "colaborativo" dado que se le irá dando forma entre todos los que quieran participar. A tal efecto hoy mismo lanzarán el Windows Insider Program y los usuarios que se apunten podrán descargar una technical preview que funcionará en portátiles y ordenadores de sobremesa. El resto de dispositivos tendrán que esperar.
Al parecer, y si bien no han dado muchos más detalles sobre cómo será este programa, tendrán encuestas y foros a disposición de los insiders, donde los propios ingenieros de Microsoft estarán bastante activos. De hecho, han reconocido que no saben muy bien cómo lo organizarán pero que "irán aprendiendo" en el camino.

Microsoft, a recuperar el terreno perdido con Windows 8
"No estamos hablando de una interfaz del usuario para dominarlos a todos, sino que estamos hablando de una familia de productos con una experiencia personalizada para cada dispositivo"
A lo largo de la presentación, en varias ocasiones se mencionó allí a los usuarios de Windows 7 y cómo, con este cambio, Microsoft esperaba que se animaran a actualizar. Lo cierto es que la aproximación de la compañía con Windows 10 es bastante distinta a la de Windows 8, y el principal cambio puede resumirse en la frase que hemos dejado justo encima.
Para los usuarios, la experiencia dependerá del dispositivo que utilicen aunque en el fondo será común, ya que las aplicaciones serán universales. Sobre papel lo cierto es que suena interesante, pero habrá que ver cómo lo implementan en la práctica. Interesante también lo de abrirse a la opinión de los usuarios con el nuevo programa Insider. Satya Nadella está cambiando las cosas en Microsoft, eso parece claro.

¿Fecha?


Desde luego la presentación de ayer ha sido bastante light en cuanto a contenido concreto, y es que Microsoft se ha centrado más bien en transmitir su idea y enfocarla a entornos corporativos (a fin de cuentas era una presentación destinada a empresas). Por eso no hay muchos otros detalles sobre software orientado a los consumidores (pensemos en IE o los contenidos multimedia).
Windows 10 todavía está lejos de estar terminado y se espera que llegue al mercado de los consumidores a mediados de 2015. En el evento Build, donde Microsoft se reúne tradicionalmente con los desarrolladores, presentarán este sistema operativo en detalle. Respecto a precio o al rumor de que la actualización sería gratis, como se decía hace unos días, no se han pronunciado.

martes, 30 de septiembre de 2014

Atajos de teclado para usar en Gmail


Puede que prefieras usar un cliente de terceros (Outlook, Thunderbird, etc.), pero no son pocos los que eligen utilizar la web oficial de Gmail (yo por ejemplo) para gestionar sus correos por su enorme flexibilidad. Uno de sus secretos son los innumerables atajos de teclados que nos ahorran muchos clicks, y nos permiten gestionar el correo con el teclado.
El problema es que quizás estos atajos de teclado son demasiados, y muchos piensan que es muy tedioso al ver la larga lista que hay que aprenderse. 
Pero no hace falta estudiarlos todos: aquí un listado con los comandos más básicos que permiten un uso de la bandeja de entrada.
Nada más abrir Gmail, podemos navegar por los correos y el menú con las flechas de dirección. Podemos abrir un mensaje sólo pulsando ENTER.
Podemos seleccionar y deseleccionar los correos con la tecla X.
Una vez seleccionados, podemos marcarlos como leídos usando SHIFT + I o bien archivarlos pulsando E.
Si estamos dentro de una conversación de mensajes, podemos ir hacia la siguiente o anterior conversación con las teclas J o K.
Si desde una conversación queremos volver a la bandeja de entrada, podemos hacerlo pulsando primero G y después I.
Listo: aprendiéndonos estas teclas podremos gestionar Gmail con todo lo más esencial sin ni siquiera tocar el mouse. 
Si luego de esto quieren aprender mas opciones lo solicitan en un comentario y publico mas accesos directos a través del teclado. Que lo disfruten!!

viernes, 19 de septiembre de 2014

¿Qué datos guarda Google sobre nosotros, para qué y cómo puedo evitar que lo haga?


Sí, Google es una de las empresas de Internet que más datos tiene sobre nosotros. Entre tu celular, tus búsquedas de Google o YouTube, o incluso las páginas con anuncios de Google en las que entras, acaban haciéndose una idea muy clara de tu identidad online.
Pero curiosamente, Google también es de las empresas que más control te da sobre esos datos, enseñándote qué tiene guardado sobre ti y dándote la opción para detener esa "minería de datos" e incluso borrar los ya almacenados en algún caso.

Tus datos, para personalizar tu experiencia

Si entramos en nuestro historial de cuenta, Google nos da cuatro apartados en los que recoge nuestros datos: búsquedas de Google, de YouTube, vídeos vistos en YouTube y los sitios donde has estado (obtenidos desde tu dispositivo Android si tuvieras).
En todos los casos, esos datos se guardan para ofrecerte una experiencia más personalizada. Por ejemplo, mi historial de búsquedas permite a Google mostrarme resultados sobre programación y no sobre serpientes cuando busco "Python". Lo mismo ocurre con las búsquedas y vídeos vistos de YouTube, aunque estos también se usan para mostrarte recomendaciones personalizadas.
Por último, los lugares en los que has estado permiten a Google mostrarte información más personalizada en mapas. Por ejemplo, con esos datos Google Now te puede enseñar cuánto tiempo vas a tardar hasta tu casa (aunque no le hayas dicho a Google donde vives).
También usaría tu historial para mostrarte anuncios relacionados en los sitios de Google. En teoría, eso es para lo único que usa tus datos Google, sin usarlos para mostrarte publicidad personalizada en otros sitios que tengan anuncios de AdSense (esos usan tu historial de navegación en un navegador concreto).

Cómo parar la recolección de datos


Por suerte, parar la recolección de nuestros datos es sencillo: en el historial de cuenta que les comentaba antes, simplemente pulsamos el botón "Detener" de los apartados que queramos.
Además, en los respectivos enlaces "Administrar historial" podremos consultar y borrar los datos que queramos, desde sólo unos pocas entradas a todo el historial entero. Es posible hacerlo con apenas dos clics tanto en YouTube como en la búsqueda de Google y la historia de localizaciones.
Por otra parte, también podemos bloquear y borrar ciertos aspectos de los anuncios de Google en el panel de control. Desde ahí podemos modificar nuestros datos e intereses que Google ha inferido a partir del historial de navegación, o incluso inhabilitar los anuncios basados en tus intereses.
Desde ese mismo panel podemos bloquear la cookie de DoubleClick, la red de anuncios de Google con un complemento para Firefox, IE o Chrome; y también la de Google Analytics para evitar que las páginas que lo usen para estadísticas registren nuestra visita.

En definitiva, si nos preocupa que Google tenga muchos datos nuestros pero no queremos dejar de usar sus servicios, solo hay que mirar en los paneles de control de nuestra cuenta: hay muchas cosas que Google nos permite gestionar. No son todos los datos que tiene sobre nosotros, por supuesto, y hay cosas que no podemos eliminar, pero es bastante más que muchas otras empresas y una muestra de que la privacidad de sus usuarios les importa.

miércoles, 27 de agosto de 2014

Windows XP SP4, la comunidad no mata lo que Microsoft quiso.


Aunque, oficialmente, Windows XP dejaba de recibir nuevas actualizaciones por parte de Microsoft el pasado mes de abril, lo cierto es que la comunidad de usuarios es tan potente que ya se han presentado varias soluciones para seguir dándole soporte. Aunque sea de manera no oficial y con riesgos. De hecho, ya tenemos disponible un Service Pack 4. La comunidad se ha esforzado en crear un paquete de actualizaciones que incluye todos los parches que se han publicado desde el conocido Service Pack 1.
Entremos en detalle. Este nuevo paquete, el cual ya se encuentra disponible, contiene todos los parches que existen para Windows XP, en sus dos versiones. E incluso se han integrado las actualizaciones que había en los Service Pack 2 y 3. De esta forma, tendremos a nuestra disposición un pack de actualizaciones bastante interesante que servirá para que podamos poner al día nuestra comptuadora en pocos pasos.
Tenemos que reconocer que el sistema operativo ya llevaba tiempo necesitando un nuevo Service Pack. Aunque ha tenido que ser la comunidad la encargada de ponerse manos a la obra y construir un paquete gracias al cual podremos implementar todos los parches en un único pack.

A tener en cuenta

Antes de descargar e instalar el paquete, recomendamos tener en cuenta varios aspectos. En primer lugar, el Service Pack no es oficial, lo que significa que el usuario que lo ha creado no tendrá ninguna responsabilidad, en el caso de que haya algún problema. Además, la versión que está disponible no es final. Podríamos definirla como una Release Candidate (aunque esté calificada como una beta) bastante avanzada.
El no oficial Service Pack incluye las siguientes características:
  • Sólo es compatible con máquinas x86. Nada de 64 bits.
  • Es necesario que el sistema operativo ya tenga instalado el Service Pack 1.
  • El paquete actualiza la mayoría de componentes, incluyendo MCE y los elementos de Tablet PC.
  • Se incluyen actualizaciones de seguridad y nuevas características.
  • También se incluyen los .NET Frameworks correspondientes a la versiones 4.0, 3.5, 1.1 y 1.0, además de POSReady.
  • Todas las actualizaciones cubren hasta el mes de mayo de 2014.

En el post que el autor ha escrito también existen algunos enlaces gracias a los cuales se pueden descargar las actualizaciones correspondientes a los meses de mayo, junio, julio y agosto de 2014, de manera individual. Aunque, si somos sinceros, les recomendamos esperar hasta que se implementen en el paquete, ya que su estado es aún más inestable que el mismo.

Cuidado con su instalación: no es oficial

El hecho de que el paquete no sea oficial implica un riesgo que, en determinados entornos (como el empresarial) puede aumentar, por lo que recomendamos probarlo varias veces en equipos que no estén en producción antes de implementarlos en otros lugares. Se podría probarlos en equipos virtuales con el fin de comprobar si funciona correctamente. Si no, habrá que esperar a que el Service Pack esté más perfeccionado.
Al tratarse de un paquete que no es oficial, tampoco tendrá soporte por parte de sus creadores. Esto significa que si hay algún problema, no podremos recurrir a las vías normales con el fin de solucionarlo, por lo que deberíamos buscarnos la vida por nuestra cuenta.
Aparte de eso, este Service Pack 4 se trata de un paquete muy recurrido que, aunque ha tenido que ser creado por la comunidad de usuarios, nos vendrá muy bien cuando queramos instalar todas las actualizaciones a la vez. Y está claro que, según su desarrollo vaya avanzando, se irán implementando más características.
Si se tiene la posibilidad de instalar el paquete en una computadora, recuerden hacer una copia de seguridad antes de proceder. El archivo ya se encuentra disponible, con un tamaño de 827 MB. Quizá se convierta en un imprescindible para llevar con nosotros siempre que tengamos que formatear un equipo.

Google te alerta cuando alguien busca tu nombre en su página

Google lanzó una herramienta para que los usuarios puedan ser alertados de las búsquedas que se hacen en Internet con sus datos

Recientemente Google lanzó la herramienta de seguridad “Yo en la web”, la cual permite que los usuarios estén enterados cuando se hace una búsqueda e Internet con su nombre.
“Yo en la web” envía notificaciones por correo electrónico con los resultados de las búsquedas de noticias o portales en la red.

Configurarlo es muy sencillo, primero, tienes que ingresar a tu cuenta personal de Gmail, una vez hecho esto, desde la dirección google.com/settings/datatools aparecerá una pantalla como esta, en la cual tendrás que dar clic en la opción que dice ‘Opciones de visualización’.

Luego se abrirá una nueva pantalla con tres opciones: Búscate, Mantente informado con Alertas de Google y Revisa tu perfil de Google+.
El primero es una búsqueda rápida de lo que ven los usuarios cuando utilizan tu nombre. En la segunda opción es la activación de las alertas con los resultados de las búsquedas que se enviarán por correo electrónico.

El sistema preguntará si deseas comenzar a configurar las alertas, para hacerlo deberás presionar el botón 'Crear Alertas'.


Después, al presionar ‘Administrar Alertas de Google’, se desplegará un menú donde se puede añadir una lista de palabras, datos o información que se relacione contigo y sobre lo cual deseas recibir alertas. La frecuencia tiene tres opciones: Cuando se produzca, una vez al día o una vez a la semana.

Una vez hecho esto, las alertas se guardan en automático y recibirás un correo electrónico con los resultados de búsquedas hechos en la web.

lunes, 14 de julio de 2014

Facebook en 2014: más vivo que nunca


No hace mucho se presagiaba la desaparición de Facebook y se hablaba sobre cómo los jóvenes se iban a otras redes sociales. Hoy, Facebook no parece que vaya a desaparecer, es más, según una encuesta realizada por Forrester Research, parece ser que los jóvenes utilizan Facebook más que hace un año.

Las marcas son conscientes de que Facebook no se va a ninguna parte y son en parte responsables de que los jóvenes continúen en esta red social. ¿Qué tipo de estrategias utilizan?

Facebook, lejos de desaparecer

Hace un tiempo se comentaba cómo, en un estudio de Princeton, se presagiaba la pérdida del 80% de usuarios en Facebook para el año 2017, algo que a Mark Zuckerberg no le preocupaba en absoluto. Sin embargo, según datos de Global Web Index, había perdido un 3% de los usuarios. Por otra parte, los datos que ha dado Facebook sobre el primer trimestre de 2014 hablan de crecimiento. Así, con 802 millones de usuarios diarios activos, han crecido un 21% respecto al primer trimestre de 2013. ¿Qué ha hecho Facebook para evitar su desaparición y continuar creciendo?


Facebook se ha reinventado y ha dirigido su estrategia hacia la telefonía móvil y se han adaptado a lo que quieren los usuarios. Han comprado Instagram y Whatsapp, y no sólo eso, sino que han renovado su aplicación Facebook Messenger hasta convertirla en el servicio con mayor crecimiento. Utilizada por 200 millones de usuarios mensualmente, según los datos de Facebook, como vemos en la imagen anterior, se coloca en tercer lugar, después de Whatsapp y WeChat. El crecimiento en esta aplicación es mayor desde que la han desligado de su aplicación oficial de Facebook.

Las cifras del primer trimestre de 2014 de Facebook, demuestran un crecimiento en beneficios respecto al primer trimestre de 2013 del 72%, no sólo eso, sino que sus beneficios por publicidad también son un 82% mayores. Esto va en relación con los cambios que han hecho en su estrategia hacia las aplicaciones móviles, de hecho, de ahí viene el 50% de sus beneficios.

Los jóvenes se quedan en Facebook

También habíamos comentado alguna vez sobre cómo uno de los comederos de cabeza de Facebook era el hecho de que los usuarios jóvenes se iban a otras redes sociales y utilizaban menos esta red social. Sin embargo, una encuesta realizada por Forrester Research revela más bien lo contrario. De hecho, la mitad de los usuarios encuestados, con edades comprendidas entre 12 y 17 años, afirman utilizar más Facebook que hace un año.

Las marcas deben hacer participar a los jóvenes

Tanto Facebook, como muchas marcas, deben atraer a este público joven hacia esta red social, no sólo eso, sino que deben conseguir que se conviertan en usuarios activos. ¿Cómo lo consiguen? El público adolescente no es un público fácil, y como nos cuentan en un artículo de marketingdirecto.com, lo más importante para ellos es compartir experiencias. Así, las marcas deben ofrecer buenas experiencias a estos jóvenes usuarios y lo ideal es que lo compartan en Facebook. Un ejemplo es la unión de Coca-Cola y Facebook en Israel, en la que, como podemos ver en el vídeo a continuación, en un campamento de marketing colocaron Microchips RFID a los adolescentes, de forma que todo lo que hacían estaba vinculado a su perfil de Facebook.


Como vemos, Facebook no va a desaparecer en un futuro próximo, puesto que de momento parece que sabe adaptarse y renovarse a la vez que sus usuarios. Con un poco de imaginación además, las marcas pueden llegar a los jóvenes también a través de Facebook, puesto que parece que vuelven a interesarse por esta red social. Habrá que ver cómo evoluciona durante los próximos años.