Su finalidad más habitual es la de servidor proxy, que consiste en interceptar las conexiones de red que un cliente hace a un servidor de destino, por varios motivos posibles como seguridad, rendimiento, anonimato, etc. Esta función de servidor proxy puede ser realizada por un programa o dispositivo.
Ventajas
En general (no sólo en informática), los proxies hacen posible:- Control: sólo el intermediario hace el trabajo real, por tanto se pueden limitar y restringir los derechos de los usuarios, y dar permisos sólo al proxy.
- Ahorro. Sólo uno de los usuarios (el proxy) ha de estar preparado para hacer el trabajo real. Con estar preparado queremos decir que es el único que necesita los recursos necesarios para hacer esa funcionalidad. Ejemplos de recursos necesarios para hacer la función pueden ser la capacidad y lógica de cómputo o la dirección de red externa (IP).
- Velocidad. Si varios clientes van a pedir el mismo recurso, el proxy puede hacer caché: guardar la respuesta de una petición para darla directamente cuando otro usuario la pida. Así no tiene que volver a contactar con el destino, y acaba más rápido.
- Filtrado. El proxy puede negarse a responder algunas peticiones si detecta que están prohibidas.
- Modificación. Como intermediario que es, un proxy puede falsificar información, o modificarla siguiendo un algoritmo.
- Anonimato. Si todos lo usuarios se identifican como uno sólo, es difícil que el recurso accedido pueda diferenciarlos. Pero esto puede ser malo, por ejemplo cuando hay que hacer necesariamente la identificación.
Desventajas
En general (no sólo en informática), el uso de un intermediario puede provocar:- Abuso. Al estar dispuesto a recibir peticiones de muchos usuarios y responderlas, es posible que haga algún trabajo que no toque. Por tanto, ha de controlar quién tiene acceso y quién no a sus servicios, cosa que normalmente es muy difícil.
- Carga. Un proxy ha de hacer el trabajo de muchos usuarios.
- Intromisión. Es un paso más entre origen y destino, y algunos usuarios pueden no querer pasar por el proxy. Y menos si hace de caché y guarda copias de los datos.
- Incoherencia. Si hace de caché, es posible que se equivoque y dé una respuesta antigua cuando hay una más reciente en el recurso de destino. En realidad este problema no existe con los servidores proxy actuales, ya que se conectan con el servidor remoto para comprobar que la versión que tiene en cache sigue siendo la misma que la existente en el servidor remoto.
- Irregularidad. El hecho de que el proxy represente a más de un usuario da problemas en muchos escenarios, en concreto los que presuponen una comunicación directa entre 1 emisor y 1 receptor (como TCP/IP).
averiguar qué páginas o documentos contienen información pertinente para él. Este problema se ha resuelto de
dos formas: utilizando la búsqueda indexada o un motor de búsqueda.
Los buscadores indexados o directorios, utilizan los datos relativos al título y descripción de una página
web para incluirla en una base de datos indexada que, además, será verificada y actualizada por personas
humanas. Estos directorios temáticos tienen la ventaja de que las búsquedas están fuertemente dirigidas hacia
páginas que tratan del tema en el que estamos interesados. Entre sus inconvenientes hay que destacar que
requieren más trabajo humano para su mantenimiento.
Los motores de búsqueda, robots de búsqueda o spiders son sistemas automáticos que buscan y
analizan regularmente, cada cierto tiempo, en todas las páginas de la Red, acumulando en sus bases de datos
información sobre su contenido. Cuando queremos localizar páginas con información sobre un tema, tecleamos
un cierto número de palabras clave. El robot buscará en sus bases de datos y nos entregará una lista de páginas
y documentos que contienen la palabra o palabras indicadas.
buscador más utilizado. Google fué el trabajo de doctorado
de dos estudiantes de Informática de la Universidad de
Stanford, Larry Page y Sergei Bin, que debió su éxito inicial al
uso de algoritmos de búsqueda que clasifican las páginas, con
un índice llamado PageRank, en función de su relevancia en la
Red.
Actualmente, Google es un soporte publicitario
formidable, una máquina de hacer dinero que ya no entrega resultados ajustados sólo a criterios de relevancia
sino también a sus intereses comerciales. Tampoco entrega resultados independientes, tras haber aceptado
aplicar filtros y mecanismos de censura en países como China, en los que los ciudadanos no tienen libertad de
acceso a la Red, pero constituyen un mercado demasiado goloso.
Otro buscador poderoso es Yahoo Search, un buscador que utiliza un motor de búsqueda propio muy
potente junto con un servicio de directorio.
Hay más buscadores interesantes: Altavista, que fué uno de los pioneros, sigue siendo un excelente
buscador; Alltheweb; AskJeeves, que ahora se llama simplemente Ask e incluye una interesante barra de
herramientas para hacer búsquedas especializadas.
También hay metabuscadores, es decir, motores de búsqueda que lanzan una petición a varios
buscadores simultáneamente y presentan los resultados ordenados. Un metabuscador interesante es
Dogpile, un robot que busca en Google, Yahoo, MSN y Ask simultáneamente. Otra apuesta interesante es
la de Kartoo, un metabuscador que presenta los resultados gráficamente, en función de la relevancia de las
páginas encontradas.
Finalmente, también se están desarrollando soluciones de código abierto en el terreno de los buscadores.
El más relevante es Nutch, un buscador de software libre que puede instalarse sobre cualquier distribución
GNU/Linux, que no está atado a una licencia propietaria.
Una página web es el nombre de un documento o información electrónica adaptada para la World Wide Web y que puede ser accedida mediante un navegador para mostrarse en un monitor de computadora o dispositivo móvil. Esta información se encuentra generalmente en formato HTML o XHTML, y puede proporcionar navegación a otras páginas web mediante enlaces de hipertexto. Las páginas web frecuentemente incluyen otros recursos como hojas de estilo en cascada, guiones (scripts) e imágenes digitales, entre otros.
Las páginas web pueden estar almacenadas en un equipo local o un servidor web remoto. El servidor web puede restringir el acceso únicamente para redes privadas, p. ej., en una intranet corporativa, o puede publicar las páginas en la World Wide Web. El acceso a las páginas web es realizado mediante su transferencia desde servidores utilizando el protocolo de transferencia de hipertexto (HTTP).
TCP/IP Protocolo de Control de Transmisión (TCP) y Protocolo de Internet (IP),
FTP(File Transfer Protocol) para transferencia de archivos,
HTML HTML, siglas de HyperText Markup Language («lenguaje de marcado de hipertexto»),
No hay comentarios:
Publicar un comentario