Creative Commons 3.0 RSS CSS 2.1 XHTML 1.0
Login  
Registro
"Harto de ser lo que se espera, harto de hilar para sentirme inteligente..." 
Escrito por Yosi_ el lunes, 26 de noviembre de 2007

Después de bastante tiempo queriendo hacerlo y tras haberlo mencionado en otro post anteriormente, creo que hoy me toca hablar de un tema que a diario levanta muchas ampollas. No se como resumir el asunto en pocas palabras, porque en parte trata de ignorancia, en parte de elitismo paleto (conceptos que por otra parte suelen ir unidos) y también de puro y repulsivo narcisismo intelectual.



Es popularmente conocido que por lo general, una vez alcanzado cierto nivel de conocimientos acerca de una materia concreta, la presunción de un individuo acerca de su dominio de dicha materia es inversamente proporcional a la sabiduría que realmente atesora. Esto no es más que una forma de decir enrevesadamente lo que popularmente se expresa como “la ignorancia es la madre del atrevimiento”. No cabe duda de que es así, todos tenemos un conocido que por seguir con asiduidad una serie de médicos y pasarse el día dando vueltas a los portales web para hipocodríacos se cree con capacidad para dar un diágnostico totalmente fiable y afirmar que los profesionales se equivocan. También hay quien tras unas cuantas horas de observación a pie de obra, se siente sobrado de conocimientos como para dar lecciones a un arquitecto veterano. Y por supuesto no falta quien tras haber hecho un par de instalaciones de Windows y haber crackeado unos cuantos juegos, se hace llamar infórmatico y se coloca en una tienda a reparar ordenadores (esto es, formatear y reinstalar).



Escrito por Yosi_ el jueves, 23 de agosto de 2007

Hay ocasiones en las que se hace absolutamente inexplicable el éxito que puede tener en internet algo que a primera vista puede parecer ideado para alejar al potencial público en lugar de atraerlo en la medida de lo posible. Es el caso de Myspace, una comunidad extremadamente popular que trata de ser una mezcla de blog, fotolog, página personal y discográfica multinacional, agrupando los inconvenientes de todos ellos y apenas mostrando un atisbo de lo que puede llegar a ser cada uno de ellos por sí solo.




Empezando por el aspecto, es evidente que el diseño resulta recargado y confuso a más no poder, en la mayoría de los casos con colores y fondos en lucha abierta por ganar protagonismo, con un contenido disperso, ubicado de forma arbitraria, y ante todo saturando la percepción de cualquiera que busque información concreta de cualquier clase. Es el perfecto ejemplo de cómo mostrarlo todo y al mismo tiempo conseguir que el potencial público no vea absolutamente nada. Es posible que esto sea en parte responsabilidad de los usuarios, pero a juzgar por los resultados debe ser francamente difícil lograr una disposición que de sensación de limpieza y organización. Al menos yo todavía no he visto ninguna muestra de ello.



Por otra parte, siguiendo con el mismo tema, los autores del sitio, buscando la simplicidad a la hora de diseñarlo u olvidando que hoy por hoy casi todas las webs contienen un cómodo menú que te permite desplazarte de forma sencilla por cualquier área de las mismas, decidieron retomar la horrorosa costumbre de las webs amateur 1.0 de antaño, cuyo contenido solía aparecer en una sola página obligándote a navegar utilizando una barra de desplazamiento enorme y desproporcionada en la que cualquier pequeño movimiento implicaba perder por completo la referencia de lo que se estaba leyendo. Pero en este caso con el agravante de que lo que se debe cargar no es una enorme lista de texto e imágenes estáticas, sino una serie de módulos de Flash con música, vídeos y fotos, que hacen que el navegador se ralentice, avance a tirones y en muchos casos opte por el suicidio, ya sea congelando la pantalla o bien cerrándose en un acto de generosidad que sin duda protege nuestras retinas de tanta bazofia.



Es realmente complicado hacer las cosas peor, parece la antítesis de las normas que debe seguir cualquier diseñador para hacer una web usable, sencilla y bien organizada. Y sin embargo la comunidad de myspace sigue creciendo día tras día, a un ritmo muy superior a lo razonable. ¿Pero por qué?



Escrito por Yosi_ el martes, 3 de julio de 2007

Siendo obvio a estas alturas que casi cualquiera que se haya puesto ante un ordenador ha utilizado el buscador de Google en una u otra ocasión, puede parecer ridículo tratar de hacer un manual sobre su utilización, más que nada porque es una de las herramientas más simples e intuitivas (posiblemente de ahi su enorme éxito) que uno se puede encontrar en la red. Está claro que, obviando a quienes aún se dirigen a Google como si fuera una persona, la inmensa mayoría sabe introducir las palabras clave, eliminando preposiciones y demás elementos vacíos de contenido semántico, para lograr una búsqueda de la mayor eficiencia posible.

Sin embargo hay ciertos parámetros que sin ser imprescindibles se pueden añadir a una busqueda para obtener resultados más satisfactorios:

  • Operadores lógicos. El uso de 'AND' restringe el hecho de que todas las palabras deban aparecer en la búsqueda. El parámetro OR es excluyente, implica que los conceptos separados por el mismo no pueden aparecer simultáneamente en ningún resultado, sólo uno u otro. En el caso de '-' implica que lo que vaya a continuación no debe aparecer en el resultado de la búsqueda.



  • El comando 'site:'. Es muy útil en el caso de que se quiera localizar algo dentro de una página web que no disponga de buscador interno. Ya que restringe las busquedas al contexto de la ruta especificada. Por ejemplo introduciendo en google 'site:http://blog.eldelweb.com linux' se realizaría una busqueda del término 'linux' exclusivamente en esta comunidad de blogs.


  • Comando 'intitle:'. Se utiliza para realizar la búsqueda de la palabra que se escriba a continuación sólo dentro del título de la web. Para introducir más de una palabra se utiliza 'allintitle:'.


  • Comando 'inurl:'. Es similar al caso anterior, salvo que busca únicamente en la dirección url. Análogamente se puede emplear 'allinurl:'.



  • Comando 'link:'. Se emplea seguido de una dirección url para saber cuantas páginas tienen un enlace dirigido hacia ella. Sin embargo he comprobado que no siempre funciona de forma correcta, en muchas ocasiones omite parte de los resultados que debiera mostrar.


  • Comando 'define:'. Muy util para buscar definiciones de cualquier palabra, incluso de nombres propios, marcas o acrónimos en varias fuentes que vienen indicadas junto al resultado.


  • Comando 'related:'. Devuelve un resultado de páginas que a juicio de google estén relacionadas con la url suministrada en la busqueda.


  • Comando 'info:'. Facilita toda la información sobre una url, proporciona links a las busquedas de varios comandos ya indicados en este post


  • Comando 'cache:' Muestra las páginas almacenadas en el cache de google.



Como ya dije al comienzo, todas estas funciones no son en absoluto necesarias, pero si que ayudan a realizar busquedas realmente eficientes, de forma que podamos disponer de una herramienta más potente si cabe, para localizar más rápidamente y de forma exacta el resultado buscado y evitar el tener que navegar por varias páginas de contenido inútil.

Escrito por Yosi_ el viernes, 29 de junio de 2007

Es bastante común en los tiempos que corren que los puertos que sirven como conexión entre una red local e internet den problemas que un usuario novato en principio no sabe solucionar. Tanto en juegos en red, como en programas de descarga p2p como emule o a la hora de crear un servidor web, ftp, etc... es necesario que ciertos puertos estén abiertos y dirigidos hacia el pc que necesita utilizarlos, y sin embargo es casi seguro que esto no sea así por defecto. Sin ánimo de sentar cátedra en la materia ni de aportar unos conocimientos de los cuales carezco, voy a tratar de dar una explicación a nivel coloquial acerca del tema.



Para empezar conviene aclarar que un puerto no es mas que una vía por la cual una aplicación recibe o envía datos a algún lugar externo al servidor local. Cada IP en internet tiene asignados más de 65000 puertos de los cuales unos cuantos tienen una finalidad predefinida ( el 21 para FTP, el 80 para HTTP, el 23 para Telnet, etc...) mientras que otros pueden ser utilizados por cualquier aplicación con total libertad. Para cada una de esas direcciones numéricas existen dos tipos de puertos, TCP y UDP. La diferencia entre ambos es que el TCP dedica mas recursos a la seguridad o comprobación de errores entre otras cosas, mientras que el UDP prescinde de ello obteniendo a cambio una mayor velocidad de transferencia.



Por lo general las redes formadas por un solo pc conectado directamente a internet no crean problemas, ya que cada puerto solamente puede ser direccionado a un solo destinatario, y sólo él mismo puede realizar alguna transmisión. En el caso de una red local mas compleja en la que haya varios ordenadores conectados a un router que a su vez este conectado a internet, la cosa se complica, y es necesario mapear los puertos en la IP local que vayan a ser utilizados, para que los datos puedan ser correctamente dirigidos hacia su destino. Para realizar esta operación es necesario conocer el puerto que se va a utilizar y la IP que corresponde a nuestro equipo dentro de la red local. Esto se puede averiguar fácilmente ejecutando “command” y escribiendo “ipconfig” en caso de Windows XP, o “ifconfig” en la consola de GNU/Linux.




Una vez conocido este dato será necesario indicárselo al router mediante el método que corresponda dependiendo del modelo. Algunos disponen de un programa dedicado para ello, pero lo mas común es acceder a la aplicación web escribiendo en el navegador la dirección IP de la puerta de enlace (se obtiene de la misma forma que la IP local antes indicada), e introduciendo un password que si no se ha modificado será el que el fabricante establece por defecto y que se podrá encontrar en las instrucciones del aparato. El interfaz de cada router en concreto varía, así que no es posible dar un método general para realizar la operación, si bien en adslzone.net se pueden encontrar tutoriales para los modelos de routers mas frecuentes en el mercado.

Escrito por Yosi_ el lunes, 21 de mayo de 2007

Una vez más, como siempre ha ocurrido tras la salida al mercado de un producto de Microsoft (y en realidad de cualquiera) llega la noticia de que Windows Vista ha sido crackeado hasta los tuétanos, al parecer incluso con mayor eficacia que sus predecesores. En principio el hecho podría considerarse como algo negativo para la compañía y por tanto motivo de alegría para sus detractores, ya que constituye una muestra de debilidad y pone en ridículo una vez más a los responsables de que eso no ocurra. Más aún cuando llevan un tiempo dedicado a gritar a los cuatro vientos que estaban mejor preparados que nunca.



De todas formas la doble lectura que tiene el asunto es muy preocupante. Basta echar una ojeada al panorama actual para darse cuenta de que la competencia en el mundo del software nunca ha existido en su verdadera dimensión. Es obvio que Microsoft jamás hubiera llegado a ser lo que es, y sobre todo no estaría en la posición que hoy está frente a las alternativas de no ser porque un tanto por ciento elevadísimo de los usuarios domésticos de pc en su vida ha pagado ni un solo euro por un sistema operativo Windows.



Sin embargo en ciertos sectores teóricamente opuestos a la filosofía del software privativo en general y a la compañía de Redmond en particular, parece causar cierta ironía que una vez mas se haya perdido la oportunidad de poner a cada uno en su lugar, de que Vista no siga el camino marcado siendo el sistema operativo por inercia. Ríen un fracaso aparente que en el fondo va a significar la continuidad del dominio en el ámbito doméstico de los discípulos de Gates con todo lo que ello implica. Está claro que no hay perspectiva, que hace mucho tiempo que se esta avanzando sin mirar al frente, mas pendientes de lo que hacen los demás que de lo que en realidad importa. Y no solo eso, sino que además se alardea de ello y se hace el ridículo cantando victoria mientras la gente de Microsoft bate palmas sabiendo que otra chapuza ha triunfado, cambiando dignidad por cuota de mercado (voluntaria o involuntariamente, el caso es que funciona) y en definitiva ganando la partida en un momento clave en el que quizá por primera vez se le podría haber plantado cara en igualdad de condiciones.




Sin duda esta es una noticia triste y desesperanzadora para los que abogamos por las alternativas, así que no entiendo de donde viene el rumor de fiesta que llega con ella. El tiempo lo acallará, otra oportunidad a la basura.