Página 1 dos resultados de 610 itens digitais encontrados em 0.007 segundos

A web semântica no contexto educativo: um sistema para a recuperação de objectos de aprendizagem baseado nas tecnologias para a web semântica, para o e-learning e para os agentes

Gonçalves, Vitor
Fonte: Instituto Politécnico de Bragança Publicador: Instituto Politécnico de Bragança
Tipo: Tese de Doutorado
Português
Relevância na Pesquisa
46.58%
A Web pode ser vista como uma mediateca de documentos à escala mundial. Constitui actualmente o maior repositório de informação, disponibilizando conteúdos multimédia, contudo a sua localização não é fácil, devido essencialmente ao facto da sua semântica ou significado apenas poder ser capturada dentro do contexto e na perspectiva dos humanos. Nos últimos anos, a comunidade científica internacional tem vindo a desenvolver esforços significativos no sentido de melhorar a localização, recuperação e reutilização de objectos de informação, inacessíveis e armazenados em servidores dispersos na Web profunda ou invisível. Os metadados e as ontologias, as metalinguagens e as ferramentas de anotação e de criação de ontologias e mapas de tópicos, os agentes inteligentes e sistemas de agentes móveis, entre outros avanços tecnológicos das Ciências da Computação e da Inteligência Artificial no âmbito da Gestão da Informação e do Conhecimento e dos Sistemas Distribuídos para a Web, constituem elementos essenciais para o desenvolvimento de soluções que a pouco e pouco contribuirão para alterar a realidade da Web actual. A iniciativa que mais se tem destacado é a Web Semântica, cujo principal objectivo é a integração...

"Avaliação de desempenho com algoritmos de escalonamento em clusters de servidores Web" ; Performance Evaluation of scheduling algorithms in Web clusters

Sabo, Caio Peres
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 13/06/2006 Português
Relevância na Pesquisa
56.55%
O surgimento de novos serviços e aplicações baseados na Web tem provocado um aumento desenfreado na quantidade de usuários da World Wide Web que, por sua vez, se torna cada vez mais popular no mundo dos negócios. Sites de e-commerce, que demandam grande tráfego de requisições, têm adotado sistemas de servidores Web distribuídos, como a arquitetura Web Cluster. Isso se deve ao fato de enfrentarem frequentemente situações de sobrecarga, durante as quais podem deixar de atender requisições de transação (com grande probabilidade de gerar renda) por conta do aumento na demanda de requisições de navegação (geram renda apenas de forma indireta). A utilização ineficiente de recursos pode comprometer o desempenho do sistema e é nesse contexto que este trabalho se insere. Neste trabalho foi desenvolvido um modelo de Servidor Web para E-Commerce (SWE-C),validado por meio de um modelo de simulação e uma carga sintética gerada a partir de um modelo desenvolvido com os principais tipos de requisições que caracterizam um site de e-commerce. Foram realizadas simulações no sistema com diversas combinações de algoritmos de escalonamento e disciplinas de atendimentos para filas, dentre as quais de destaca uma nova disciplina que utiliza um mecanismo de prioridades orientado ao consumo de CPU proposto neste trabalho. O objetivo é aumentar o throughput de requisições de transação e melhorar os tempos de resposta em situações de sobrecarga. Uma avaliação de desempenho foi realizado e constatou-se que o mecanismo de prioridades proposto é adequado às necessidades de um site de e-commerce.; The appearance of new services and applications based on the web has causing a wild increase in the amount of users of the World Wide Web that becomes more popular in the business world. E-commerce sites that demand great request traffic has adopted a distributed web servers system...

Caracterização de carga de trabalho para testes de modelos de servidores web; Workload characterization to test web server models

Silva, Luis Henrique Castilho da
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 11/08/2006 Português
Relevância na Pesquisa
46.66%
A World Wide Web é um meio de comunicação em constante crescimento, agregando diversos componentes e serviços em um ritmo acelerado. Os novos tipos de sites, tais como, o comércio eletrônico (e-commerce), notí?cia/informação (Web-publishing), vídeo sob demanda exigem ainda mais recursos do servidor. Nesse contexto, visando adequar a avaliação de desempenho aos novos ambientes da Web, o presente trabalho apresenta um estudo caracterizando diversos traces de servidores Web Apache, permitindo coletar dados importantes que definem a forma como os usuários e servidores interagem. Com esses dados, quatro tipos de categorias de sites foram analisados: Padrão (composto da média de todos os traces analisados), Acadêmico, Notícia/Informação e Tradicional. Nessa análise avaliam-se quatro aspectos: o intervalo de chegada, o código de resposta, o tipo objeto e o tamanho do objeto e ao final, modelos matemáticos são propostos para representar essas características. Além disso, este trabalho também desenvolveu um gerador de cargas de trabalho sintéticas, o W4Gen(World Wide Web Workload Generator). Com uma interface gráfica amigável, ele permite aos seus usuários gerar novas cargas com base nos modelos matemáticos. Além disso...

Políticas de escalonamento de tempo-real para garantia de QoS absoluta em array de servidores web heterogêneos; Real-time scheduling policies for QoS absolute garantee on heterogenous array web-servers

Peixoto, Maycon Leone Maciel
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 02/04/2008 Português
Relevância na Pesquisa
56.64%
Em relação aos significativos resultados em Qualidade de Serviço (QoS) para servidores Web, existem ainda muitos problemas não resolvidos. Enquanto as abordagens atuais se limitam a prover QoS relativa através de diferenciação de serviço, este projeto apresenta e compara três modelos que tem por objetivo prover QoS absoluta para um array de servidores Web heterogêneos por meio de uma arquitetura de escalonamento ortogonal: A Multiple Queue (MQ), a Single Queue (SQ) e a Dynamic Single Queue (DSQ). A MQ consiste em receber a requisição HTTP e enviá-la para o servidor escolhido do array de servidores através do balanceamento de carga. A SQ e a DSQ possuem uma única fila gerenciada de forma centralizada. Enquanto a SQ envia a requisição somente quando o servidor esta livre, a DSQ seleciona o servidor com mais curto tempo de término mediante o uso de filas virtuais. Os modelos foram simulados considerando diferentes parâmetros e configurações para o ambiente. A avaliação de desempenho da arquitetura ortogonal demonstra que a mesma provê um bom desempenho na provisão de QoS absoluta com relação as mudanças instantâneas das cargas de trabalho no ambiente Web. Esta pesquisa estende os resultados da politica de escalonamento chamada EBS...

Políticas para servidores web baseados em sessões visando qualidade e diferenciação de serviços; Policies to web servers based on sessions aiming quality and differentiation of services

Barbato, Alessandra Kelli
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 25/04/2008 Português
Relevância na Pesquisa
56.62%
Este trabalho propõe políticas para servidores Web baseados em sessões, visando ao oferecimento de garantias de qualidade de serviço (Quality of Service - QoS) a seus usuários. Para o fornecimento de QoS, dois tipos de políticas são consideradas: as responsáveis pela diferenciação de serviços e as responsáveis pelo controle de admissão. Alguns algoritmos de escalonamento foram desenvolvidos com o objetivo de oferecer melhores serviços para as sessões prioritárias: o algoritmo de escalonamento baseado em sessão (SBSA) e o algoritmo de escalonamento baseado em sessão com diferenciação de serviços (SBSA-DS). Quanto ao controle de admissão, foram consideradas duas novas políticas, as quais utilizam diferentes parâmetros para a tomada de decisão e têm como objetivo garantir a finalização do maior número de sessões prioritárias. A partir dos resultados obtidos nos experimentos realizados por meio de simulação, constatou-se que o emprego dos algoritmos e das políticas desenvolvidos melhora o atendimento das sessões para as quais deve ser oferecido um serviço preferencial. Portanto, em servidores Web preocupados com a garantia de QoS para seus usuários, os quais interagem com o sistema por meio de sessões...

Modelo de servidor web com quatro módulos de atendimento de requisições (SWMAR); Web server model with four request attending modules (SWMAR)

Guiesi Junior, Geraldo
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 30/05/2008 Português
Relevância na Pesquisa
46.54%
Esta dissertação de mestrado apresenta a implementação e validação de um modelo de servidor web que divide o funcionamento de o servidor web em quatro módulos onde cada um desses módulos é responsável por uma etapa que a requisição percorre ao longo de seu processamento. Esses módulos são: atendimento da requisição (módulo 1), transferência do arquivo para a memória principal (módulo 2), processamento de requisições dinâmicas (módulo 3) e envio do arquivo ao cliente (módulo 4). Esses quatro módulos são interligados e são alimentados primeiramente por uma carga inicial gerada pelo gerador de cargas W4Gen e passa obrigatoriamente, nessa ordem, pelo módulo 1, módulo 2 e módulo 4. O módulo 3 só é utilizado quando se trata de uma requisição dinâmica. Ao ser atendido por um dos módulos, é atribuído um tempo de execução (leia-se tempo que a requisição toma para ser processada por esse módulo). Esses tempos foram baseados em trabalhos que fizeram benchmarks em servidores web reais. Os resultados alcançados com o desenvolvimento deste trabalho visam principalmente integrar-se aos trabalhos de simulação envolvendo servidores web do grupo de Sistemas Distribuídos e Programação Concorrente (LaSDPC) e com isso alcançar resultados próximos a resultados aplicados em servidores web reais; This work presents the implementation and validation of a web server model that divides the web server functions into four modules and each one of these is responsible for an execution step...

Políticas de atendimento para servidores Web com serviços diferenciados baseadas nas características das requsições; Atttendance politics for Web servers with differentiated services based on the features of Web requests

Traldi, Ottone Alexandre
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 12/12/2008 Português
Relevância na Pesquisa
66.73%
Este trabalho propõe mecanismos de diferenciação de serviços para servidores Web, visando a melhorar o desempenho desses sistemas quando são consideradas as características das requisições Web nas políticas de atendimento. Optou-se por adotar o contexto do comércio eletrônico para a realização das pesquisas, uma vez que esse ambiente é um dos mais impactados negativamente quando há um comportamento inadequado do servidor em situações de sobrecarga. Para isso, foi realizada uma investigação das características das requisições Web típicas do e-commerce, para que tais características pudessem ser usadas como diretrizes para os mecanismos e melhorar o desempenho dos servidores. Em seguida, foram propostos um modelo de carga de trabalho e um modelo de simulação para a realização dos experimentos. Com isso, foi possível avaliar os resultados obtidos com a inserção dos diversos mecanismos no Servidor Web com Diferenciação de Serviços (SWDS), um modelo de servidor cuja arquitetura o torna capaz de fornecer serviços diferenciados a seus usuários e aplicações. Foram propostos novos mecanismos de escalonamento de requisições bem como novos mecanismos de controle de admissão. Diversas simulações foram realizadas e os resultados obtidos mostram que a exploração das características das requisições Web...

Desenvolvimento de um gerador de carga de trabalho baseado em sessões para servidores web; Development of a generator workload session based for web servers

Almeida, Dayse Silveira de
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 13/04/2011 Português
Relevância na Pesquisa
56.74%
Esta dissertação de mestrado apresenta o projeto, implementação e teste de um gerador de carga de trabalho para servidores Web que permite a caracterização de sessões e que representa uma carga real. O gerador desenvolvido gera carga visando à alimentar programas que simulam o comportamento de servidores Web. Para a definição dos parâmetros utilizados no gerador de carga sintética desenvolvido, diversos estudos sobre a carga em servidores Web encontrados na literatura, logs de servidores Web reais e benchmarks para servidores Web, foram utilizados. Vários algoritmos de controle de admissão e de escalonamento de requisições descritos na literatura foram implementados para teste e validação do gerador desenvolvido. Visando a utilização de sessões, é proposto nesta dissertação um algoritmo de controle de admissão, RED-SB (Random Early Detection - Session Based) que se baseia em um algoritmo (RED) que não considera sessão. Esses algoritmos foram executados utilizando-se um modelo de simulação de servidor Web com suporte a diferenciação de serviços, chamado SWDS (Servidor Web com Diferenciação de Serviços); This MSc dissertation presents the design, implementation and tests of a workload generator for Web servers that allows the characterization of sessions and represents a real workload. The generator developed generates a workload to be used as an input to programs that simulate the behavior of Web servers. For the definition of the parameters used in the synthetic workload generator developed...

Novas técnicas de distribuição de carga para servidores Web geograficamente distribuídos; New techniques for load distribution for geographically distributed Web servers

Alan Massaru Nakai
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 14/09/2012 Português
Relevância na Pesquisa
66.82%
A distribuição de carga é um problema intrínseco a sistemas distribuídos. Esta tese aborda este problema no contexto de servidores web geograficamente distribuídos. A replicação de servidores web em datacenters distribuídos geograficamente provê tolerância a falhas e a possibilidade de fornecer melhores tempos de resposta aos clientes. Uma questão chave em cenários como este é a eficiência da solução de distribuição de carga empregada para dividir a carga do sistema entre as réplicas do servidor. A distribuição de carga permite que os provedores façam melhor uso dos seus recursos, amenizando a necessidade de provisão extra e ajudando a tolerar picos de carga até que o sistema seja ajustado. O objetivo deste trabalho foi estudar e propor novas soluções de distribuição de carga para servidores web geograficamente distribuídos. Para isso, foram implementadas duas ferramentas para apoiar a análise e o desenvolvimento de novas soluções, uma plataforma de testes construída sobre a implementação real de um serviço web e um software de simulação baseado em um modelo realístico de geração de carga para web. As principais contribuições desta tese são as propostas de quatro novas soluções de distribuição de carga que abrangem três diferentes tipos: soluções baseadas em DNS...

Modeling, characterization, and optimization of web server power in data centers = : Modelagem, caracterização e otimização de potência em centro de dados; Modelagem, caracterização e otimização de potência em centro de dados

Leonardo de Paula Rosa Piga
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 08/11/2013 Português
Relevância na Pesquisa
56.65%
Para acompanhar uma demanda crescente pelos recursos computacionais, empresas de TI precisaram construir instalações que comportam centenas de milhares de computadores chamadas centro de dados. Este ambiente é altamente dependente de energia elétrica, um recurso que é cada vez mais caro e escasso. Neste contexto, esta tese apresenta uma abordagem para otimizar potência e desempenho em centro de dados Web. Para isto, apresentamos uma infraestrutura para medir a potência dissipada por computadores de prateleiras, desenvolvemos modelos empíricos que estimam a potência de servidores Web e, por fim, implementamos uma de nossas heurísticas de otimização de potência global em um aglomerado de nós de processamento chamado AMD SeaMicro SM15k. A infraestrutura de medição de potência é composta por: uma placa personalizada, que é capaz de medir potência e é instalada em computadores de prateleira; um conversor de dados analógico/digital que amostra os valores de potência; e um software controlador. Mostramos uma nova metodologia para o desenvolvimento de modelos de potência para servidores Web que diminuem a quantidade de parâmetros dos modelos e reduzem as relações não lineares entre medidas de desempenho e potência do sistema. Avaliamos a nossa metodologia em dois servidores Web...

Um framework de programação baseado em AJAX para tratamento de servidores web não confiáveis

Barretto, Anderson Lima Muniz
Fonte: Universidade de Lisboa Publicador: Universidade de Lisboa
Tipo: Dissertação de Mestrado
Publicado em //2013 Português
Relevância na Pesquisa
46.57%
Tese de mestrado em Segurança Informática, apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2013; As aplicações na Web estão cada vez mais sendo utilizadas por organizações e empresas com o objetivo de vender bens e serviços ou prestar informações de interesse público para a sociedade. Nos últimos anos, o surgimento de novas tecnologias para a programação dessas aplicações proporcionou um significativo incremento em suas funcionalidades e possibilidades, permitindo uma interação maior com seus utilizadores bem como uma experiencia de uso mais agradável. Entretanto, a segurança no uso dessas aplicações ´e baseada na confiança que um utilizador deve ter nos servidores web que hospedam a aplicação, considerando que os mesmos não estão alterando o conteúdo dos dados da aplicação, enviando conteúdo malicioso com o objetivo de instalar malware em seu computador pessoal, roubar-lhe informações pessoais ou quaisquer outras pretensões maliciosas. Adicionalmente, os utilizadores da aplicação web não têm a garantia de que um servidor web não possa utilizar suas credenciais de autenticação para obter e/ou alterar dados armazenados em uma base de dados da qual o mesmo faz uso. O presente trabalho tem por objetivo desenvolver e avaliar um framework de programação de aplicações web que permita a interação com um conjunto de servidores web não confiáveis garantindo uma interação segura com uma base de dados. Para tal...

Anomaly detection of web-based attacks

Nascimento, Gustavo Miguel Barroso Assis do
Fonte: Universidade de Lisboa Publicador: Universidade de Lisboa
Tipo: Dissertação de Mestrado
Publicado em //2010 Português
Relevância na Pesquisa
46.65%
Tese de mestrado em Segurança Informática, apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2010; Para prevenir ataques com sucesso, é crucial que exista um sistema de detecção que seja preciso e completo. Os sistemas de detecção de intrusão (IDS) baseados em assinaturas são uma das abordagens mais conhecidas para o efeito, mas não são adequados para detectar ataques web ou ataques previamente desconhecidos. O objectivo deste projecto passa pelo estudo e desenho de um sistema de detecção de intrusão baseado em anomalias capaz de detectar esses tipos de ataques. Os IDS baseados em anomalias constroem um modelo de comportamento normal através de dados de treino, e em seguida utilizam-no para detectar novos ataques. Na maioria dos casos, este modelo é representativo de mais exemplos de comportamento normal do que os presentes nos dados de treino, característica esta a que chamamos generalização e que é fundamental para aumentar a precisão na detecção de anomalias. A precisão da detecção e, portanto, a utilidade destes sistemas, é consideravelmente influenciada pela fase de construção do modelo (muitas vezes chamada fase de treino), que depende da existência de um conjunto de dados sem ataques que se assemelhe ao comportamento normal da aplicação protegida. A construção de modelos correctos é particularmente importante...

Software.ncrna.org: web servers for analyses of RNA sequences

Asai, Kiyoshi; Kiryu, Hisanori; Hamada, Michiaki; Tabei, Yasuo; Sato, Kengo; Matsui, Hiroshi; Sakakibara, Yasubumi; Terai, Goro; Mituyama, Toutai
Fonte: Oxford University Press Publicador: Oxford University Press
Tipo: Artigo de Revista Científica
Português
Relevância na Pesquisa
46.6%
We present web servers for analysis of non-coding RNA sequences on the basis of their secondary structures. Software tools for structural multiple sequence alignments, structural pairwise sequence alignments and structural motif findings are available from the integrated web server and the individual stand-alone web servers. The servers are located at http://software.ncrna.org, along with the information for the evaluation and downloading. This website is freely available to all users and there is no login requirement.

The PETfold and PETcofold web servers for intra- and intermolecular structures of multiple RNA sequences

Seemann, Stefan E.; Menzel, Peter; Backofen, Rolf; Gorodkin, Jan
Fonte: Oxford University Press Publicador: Oxford University Press
Tipo: Artigo de Revista Científica
Português
Relevância na Pesquisa
46.68%
The function of non-coding RNA genes largely depends on their secondary structure and the interaction with other molecules. Thus, an accurate prediction of secondary structure and RNA–RNA interaction is essential for the understanding of biological roles and pathways associated with a specific RNA gene. We present web servers to analyze multiple RNA sequences for common RNA structure and for RNA interaction sites. The web servers are based on the recent PET (Probabilistic Evolutionary and Thermodynamic) models PETfold and PETcofold, but add user friendly features ranging from a graphical layer to interactive usage of the predictors. Additionally, the web servers provide direct access to annotated RNA alignments, such as the Rfam 10.0 database and multiple alignments of 16 vertebrate genomes with human. The web servers are freely available at: http://rth.dk/resources/petfold/

PI2PE: A Suite of Web Servers for Predictions Ranging From Protein Structure to Binding Kinetics

Qin, Sanbo; Zhou, Huan-Xiang
Fonte: PubMed Publicador: PubMed
Tipo: Artigo de Revista Científica
Português
Relevância na Pesquisa
46.6%
PI2PE (http://pipe.sc.fsu.edu) is a suite of four web servers for predicting a variety of folding- and binding-related properties of proteins. These include the solvent accessibility of amino acids upon protein folding, the amino acids forming the interfaces of protein-protein and protein-nucleic acid complexes, and the binding rate constants of these complexes. Three of the servers debuted in 2007, and have garnered ~2,500 unique users and finished over 30,000 jobs. The functionalities of these servers are now enhanced, and a new sever, for predicting the binding rate constants, is added. Together, these web servers form a pipeline from protein sequence to tertiary structure, then to quaternary structure, and finally to binding kinetics.

A Highly Available Cluster of Web Servers with Increased Storage Capacity

García Sánchez, José Daniel; Carretero Pérez, Jesús; García Carballeira, Félix; Singh, David E.; Fernández Muñoz, Javier
Fonte: Universidad de Castilla-La Mancha Publicador: Universidad de Castilla-La Mancha
Tipo: Conferência ou Objeto de Conferência Formato: application/pdf
Publicado em /09/2006 Português
Relevância na Pesquisa
56.45%
Web servers scalability has been traditionally solved by improving software elements or increasing hardware resources of the server machine. Another approach has been the usage of distributed architectures. In such architectures, usually, file al- location strategy has been either full replication or full distribution. In previous works we have showed that partial replication offers a good balance between storage capacity and reliability. It offers much higher storage capacity while reliability may be kept at an equivalent level of that from fully replicated solutions. In this paper we present the architectural details of Web cluster solutions adapted to partial replication. We also show that partial replication does not imply a penalty in performance over classical fully replicated architectures. For evaluation purposes we have used a simulation model under the OMNeT++ framework and we use mean service time as a performance comparison metric.; Ponencias de las Decimoséptimas Jornadas de Paralelismo de la Universidad de Castilla-La Mancha celebradas el 18,19 y 20 de septiembre de 2006 en Albacete

Performance analysis of TLS Web servers

Coarfa, Cristian
Fonte: Universidade Rice Publicador: Universidade Rice
Tipo: Thesis; Text Formato: 56 p.; application/pdf
Português
Relevância na Pesquisa
46.72%
TLS is the protocol of choice for securing today's e-commerce and online transactions, but adding TLS to a web server imposes a significant overhead relative to an insecure web server on the same platform. We perform a comprehensive study of the performance costs of TLS. Our methodology is to profile TLS web servers with trace-driven workloads, replace individual components inside TLS with no-ops and measure the observed increase in server throughput. We estimate the relative costs of each TLS processing stage, identifying the areas for which future optimizations would be worthwhile. Our results show that while the RSA operations represent the largest performance cost in TLS web servers, they do not solely account for TLS overhead. RSA accelerators are effective for e-commerce site workloads since they experience low TLS session reuse. Accelerators appear to be less effective for sites at which all requests are handled by a TLS server, because they have a higher session reuse rate. In this case investing in a faster CPU might provide a greater boost in performance. Our experiments show that having a second CPU is at least as useful as an RSA accelerator. As CPUs become more powerful, the relative cost of the cryptographic components of TLS is decreasing; faster CPUs will eventually bridge the performance gap between TLS-secured and insecure web servers. Our results suggest that long-term research efforts should consequently focus on designing more efficient web servers.

Framework to Solve Load Balancing Problem in Heterogeneous Web Servers

Sharma, Ms. Deepti; Saxena, Ms. Archana B.
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 07/03/2011 Português
Relevância na Pesquisa
46.68%
For popular websites most important concern is to handle incoming load dynamically among web servers, so that they can respond to their client without any wait or failure. Different websites use different strategies to distribute load among web servers but most of the schemes concentrate on only one factor that is number of requests, but none of the schemes consider the point that different type of requests will require different level of processing efforts to answer, status record of all the web servers that are associated with one domain name and mechanism to handle a situation when one of the servers is not working. Therefore, there is a fundamental need to develop strategy for dynamic load allocation on web side. In this paper, an effort has been made to introduce a cluster based frame work to solve load distribution problem. This framework aims to distribute load among clusters on the basis of their operational capabilities. Moreover, the experimental results are shown with the help of example, algorithm and analysis of the algorithm.

A Combined LIFO-Priority Scheme for Overload Control of E-commerce Web Servers

Singhmar, Naresh; Mathur, Vipul; Apte, Varsha; Manjunath, D.
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 17/11/2006 Português
Relevância na Pesquisa
46.56%
E-commerce Web-servers often face overload conditions during which revenue-generating requests may be dropped or abandoned due to an increase in the browsing requests. In this paper we present a simple, yet effective, mechanism for overload control of E-commerce Web-servers. We develop an E-commerce workload model that separates the browsing requests from revenue-generating transaction requests. During overload, we apply LIFO discipline in the browsing queues and use a dynamic priority model to service them. The transaction queues are given absolute priority over the browsing queues. This is called the LIFO-Pri scheduling discipline. Experimental results show that LIFO-Pri dramatically improves the overall Web-server throughput while also increasing the completion rate of revenue-generating requests. The Web-server was able to operate at nearly 60% of its maximum capacity even when offered load was 1.5 times its capacity. Further, when compared to a single queue FIFO system, there was a seven-fold increase in the number of completed revenue-generating requests during overload.; Comment: 10 pages, 8 figures, presented at the International Infrastructure Survivability Workshop (affiliated with the 25th IEEE International Real-Time Systems Symposium)...

Event driven dynamic web pages

Yi, Kan
Fonte: Rochester Instituto de Tecnologia Publicador: Rochester Instituto de Tecnologia
Tipo: Masters Project Formato: 1196444 bytes; application/pdf
Português
Relevância na Pesquisa
46.54%
Web technologies are among the most rapid developing areas. They continue to evolve from HTML, DHTML, JavaScript to CGI, ASP, JSP, Servlet. However the life of web developers is still not so easy as traditional GUI programmer. The web developers should very clear about communications between browsers and web servers, which puts a great burden on the web developers. In the project, an Event Driven Model is extended to web servers based on Servlet technology. With this Event Driven Model, the web developers are totally transparent to the communication details. The development of web pages becomes similar as GUI programming, describing the content of web pages and binding event handler functions to Html objects. The Event Driven Model is implemented by applying Document Object Model (DOM) and constructing HTML tree Objects on server side to server get and post requests from browsers. There are two approaches in this project. One is pure Java approach, which describes HTML contents and event handler functions in the same Java file. The other one separates the HTML contents in a XML file, while only event handler functions are defined in Java files. The whole project includes a forward servlet, coordinating between the web server and event driven web pages...