viernes, 30 de octubre de 2015

COMO PREGUNTARLE A INTENET?




"Si yo tuviera una hora para resolver un problema y mi vida dependiera de
la solución, yo gastaría los primeros 55 minutos para determinar
la pregunta apropiada , por que una vez, supiera la pregunta correcta, tardaría en resolver el
problema en menos de cinco minutos".

ALBERT EINSTEIN



En este post describo la experiencia de buscar información de mi interés utilizando las herramientas de búsqueda avanzada de Google Académico :

Ej: Mecanismos de seguridad informática

 

Seguidamente trato de traducirla a distintos tipos de palabras clave (de campo temático, de problema específico y de referencia autoral) 
 
  • de campo temático: mecanismos informática aprendizaje.
  • de problema específico: seguridad.
  • y buscar solo paginas en español.

Los resultados iniciales fueron:






 
Posteriormente realicé más intentos de búsqueda en el Google Académico intentando con la búsqueda en títulos, reiterando la búsqueda en sucesivas oportunidades con diferentes cambios, hasta obtener un buen resultado.
 
Al final, y depues de varias modificaciones en mi búsqueda, la combinación que me dio los mejores resultados fue la siguiente: 
 
 



 



 
 
 
 
 
 "la pregunta es la más creativa de las conductas humanas"
 Alex Osborn
 
 
 
 
 
 

martes, 27 de octubre de 2015

WEB SUPERFICIAL Y WEB PROFUNDA ACADEMICA

La web superficial, la web profunda e incluso la web oscura son conceptos sobre internet, que hacen referencia básicamente a la forma de como se accede a los contenidos web, mediante la posibilidad de acceso a los mismos por parte de los motores de búsqueda.

https://www.thinglink.com/scene/667967430215073794

Por cada millón de páginas visibles hay otros 500 o 550 millones ocultas, contiene alrededor de unos 100.000 sitios y el 90% suele ofertar su información pública y gratuitamente.

La información pública y gratuita del Web invisible es actualmente de 400 a 550 veces mayor que el Web visible.

De ahí nace la importancia que entendamos como se estructura la web

La Web Superficial comprende todos aquellos sitios cuya información puede ser indexada por los robots de los buscadores convencionales.

Sus principales características son:

  • Su información no está contenida en bases de datos

  • Es de libre acceso

  • No se requiere la realización de un proceso de registro para acceder a la información.

Mayoritariamente está formada por páginas Web estáticas, es decir páginas o archivos
con una URL fija y accesibles desde otro enlace.

La Web Invisible es el término utilizado para describir toda la información disponible en Internet que no se recupera interrogando a los buscadores convencionales. Generalmente es información almacenada y accesible mediante bases de datos.
Parte de la información es "invisible" a los robots de los buscadores convencionales.

Se pueden identificar cuatro contenidos invisibles en la Web:

La Web Opaca está compuesta por archivos que, si bien podrían estar incluidos en los
índices de los buscadores, no lo están por alguno de los siguientes motivos:

  •  Extensión de la indización: a veces, por economía, no todas las páginas de un sitio sonindizadas en los buscadores.
  • Frecuencia de la indización: los buscadores no poseen la capacidad de indizar todas las páginas existentes; a diario se agregan y modifican muchas y la indización no se realiza al ritmo que permita incluirlas a todas.
  • Número máximo de resultados visibles: aunque los motores de búsqueda arrojan aveces un gran número de resultados, generalmente limitan el número de documentos que se muestran (entre 200 y 1000).
  • URL desconectadas: las generaciones más recientes de buscadores, presentan los documentos por relevancia basada en el número de veces que aparecen referenciados en otros. Si un documento no tiene un link a él, desde otro documento, será imposible que la página sea encontrada, pues no se encuentra indizada.

La Web Privada consiste en las páginas Web que podrían estar indizadas en los
buscadores pero son excluidas deliberadamente por alguno de estos motivos:


  • Las páginas están protegidas por contraseñas.
  • Contienen un archivo “robots.txt” para evitar ser indizadas.
  • Contienen un campo “noindex” para evitar que el buscador pueda indizar la parte correspondiente al cuerpo de la página.


Este segmento de la Web contiene, en general, documentos excluidos deliberadamente
por su falta de utilidad. Ya que son los dueños de la información que contienen, los que
deciden que no se encuentre disponible, por lo que difícilmente se podrán encontrar
mecanismos legítimos para franquear esa barrera.

La Web Propietaria incluye aquellas páginas en las que es necesario registrarse para tener
acceso al contenido, ya sea de forma gratuita o arancelada.

La Web realmente invisible se compone de páginas que no pueden ser indizadas por
limitaciones técnicas de los buscadores, programas ejecutables y archivos comprimidos,
páginas generadas dinámicamente, es decir, que se generan a partir de datos que
 introduce el usuario, información almacenada en bases de datos relacionales, que no
 puede ser extraída a menos que se realice una petición específica.

En este nivel se la internet invisible o Deep Web, generalmente se ingresa a travez del programa TOR (The Onion Router), el cual inicio en el 2002 como un proyecto de la Marina de los Estados Unidos y actualmente subsiste como TOR Project.
A diferencia de los navegadores de internet convencionales, TOR le permite a los usuarios navegar por la Web de forma anónima.

Existen muchos mitos acerca de la internet profunda. La internet profunda no es una región prohibida o mística de internet, y la tecnología relacionada con ella no es malévola. Ya que en ella también se alberga lo que ahora se conoce como AIW (Academic Invisible Web: ‘internet académica invisible’ por sus siglas en inglés) y se refiere a todas las bases de datos que contienen avances tecnológicos, publicaciones científicas, y material académico en general.



https://www.youtube.com/watch?v=PWRnj8yS2yQ

https://es.wikipedia.org/wiki/Internet_profunda

https://www.torproject.org/

viernes, 23 de octubre de 2015

La búsqueda de información en la Web

Sin lugar a dudas la Web se ha convertido en uno de las fuentes de información mas grandes y variadas, y posiblemente la mayoría de los seres humanos ya nos hemos acostumbrado a obtener buena parte de la información que necesitamos de dicha fuente.

Sin embargo las claves del arte de buscar no consisten en conectarse a un buscador o en recorrer miles de paginas, sino en aprender a detallar los pedidos con la precisión necesaria para que el mecanismo de búsqueda brinde pocas opciones, formular la pregunta adecuada es el requisito fundamental para obtener la repuesta que se necesita. 

Nos hemos mal acostumbrado a depender de Google o inclusive ponemos solamente atención en los primero resultados que obtenemos en los motores de búsqueda, olvidándonos que  la Web es mucho más que tres o cuatro pagina de un buscador, dentro de la facilidad que nos brinda la internet, nos hemos vuelto perezosos.

Sin lugar a dudas considero que la importancia de estos ejercicios y del curso en general la comenzaremos a apreciar en la medida  en que nos volvamos mas exigentes con la calidad de información que busquemos y la veracidad de sus fuentes.

domingo, 11 de octubre de 2015

Herramientas de búqueda en la Web

Un motor de búsqueda, también conocido como buscador, es un sistema informático que busca archivos almacenados en servidores web gracias a su «spider» (también llamado araña web). 

Como operan de forma automática, los motores de búsqueda contienen generalmente más información que los directorios. Sin embargo, estos últimos también han de construirse a partir de búsquedas (no automatizadas) o bien a partir de avisos dados por los creadores de páginas (lo cual puede ser muy limitante). Los buenos directorios combinan ambos sistemas. Hoy en día Internet se ha convertido en una herramienta rápida y eficiente para la búsqueda de información, para ello han surgido los buscadores que son un motor de búsqueda que nos facilita encontrar información rápida de cualquier tema de interés, en cualquier área de las ciencias, y de cualquier parte del mundo.


Se pueden clasificar en dos tipos:
  • Índices temáticos: Son sistemas de búsqueda por temas o categorías jerarquizados (aunque también suelen incluir sistemas de búsqueda por palabras clave). Se trata de bases de datos de direcciones Web elaboradas "manualmente", es decir, hay personas que se encargan de asignar cada página web a una categoría o tema determinado.
  • Motores de búsqueda: Son sistemas de búsqueda por palabras clave. Son bases de datos que incorporan automáticamente páginas web mediante "robots" de búsqueda en la red 
 
                                                                                                                                                                                                                                                                                                                            

sábado, 3 de octubre de 2015

LA INFOXICACIÓN


El termino conocido como Infoxicación (también conocida como Sobrecarga informativa o Infobesidad) hace referencia al exceso de información con la que se pueda contar a la hora de tomar una decisión o para mantenerse informado.



En el libro Future Shock (1970) el escritor Alvin Toffler introduce el termino de “sobrecarga informativa ” (Infomation Overload) , planteando los problemas que representa el contar con una gran cantidad de información por analizar, las contradicciones que puedan surgir entre dicha información y la falta de métodos para procesar y clasificar dicha información. La suma de estos problemas dan como resultado la Infoxicación, termino que acuñado por primera vez en 1996 por Alfons Cornella.




Recogemos más información de la necesaria, recibimos una gran cantidad de información que no hemos solicitado ni nos es útil, buscamos más información de la necesaria para tratar de comprobar que la que se tiene es la correcta, necesitamos demostrar nuestra justificación de decisiones. Recogemos información por si pudiese ser útil en un futuro, también hacemos lo mismo con imágenes y textos. Nos gusta utilizar la información como moneda de cambio para no quedarnos atrás respecto a los que nos rodean.


Según Alfons Cornella, “El problema y su solución comparten el mismo origen: la red. Internet nos satura de información pero al mismo tiempo nos proporciona las herramientas para no morir “infoxicados”. El punto crítico está en comunicar más eficientemente.” 


Sin lugar a duda el mantenerse enfocado en un tema especifico, aprender a comunicar lo que es realmente necesario e importante y conocer cuales son nuestros limites respecto a la información que podemos procesar, sumando a esto buenas practicas y herramientas a la hora de filtrar la información requerida , nos puede ayudar a sobrevivir en un mundo cada día más sobrecargado de información completamente inútil.



http://alfonscornella.com/thought/infoxicacion/ 
https://es.wikipedia.org/wiki/Sobrecarga_informativa 

miércoles, 30 de septiembre de 2015

Presentación

Mis expectativas sobre el curso son las de poder mejorar la búsqueda y clasificación del la información obtenida a travez de la web con el fin de poder ser más eficaz y enfocarme de manera mas efectiva en encontrar la información que necesite según el momento.