Página 1 dos resultados de 144 itens digitais encontrados em 0.037 segundos

e-Termos: Um ambiente colaborativo web de gestão terminológica; e-Termos: a web collaborative environment of terminology management

Oliveira, Leandro Henrique Mendonça de
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 22/09/2009 Português
Relevância na Pesquisa
78.82476%
Em uma de suas definções, a Terminologia representa o conjunto de princípios e métodos adotados no processo de gestão e criação de produtos terminológicos, tais como glossários e dicionários de termos. A sistematização desses métodos envolve a aplicação de ferramentas computacionais específicas e compatíveis com as tarefas terminológicas, contribuindo para o desenvolvimento desses produtos e a difusão de conhecimento especializado. Entretanto, principalmente no Brasil, a combinação da Terminologia e Informática é incipiente, e dentre as atividades do trabalho terminológico é comum a utilização de várias ferramentas não especializados para esse fim. Isso torna o trabalho dos terminólogos muito moroso, pois esse trabalho geralmente é feito por uma equipe multidisciplinar que deve ter acesso, a todo o momento, à versão mais atual das várias etapas da geração de um produto terminológico. Além disso, deixa o gerenciamento dos dados mais complicado, pois não existe um padrão de entrada e saída definido para os programas. Apoiado nos pressupostos da Teoria Comunicativa da Terminologia (TCT), este trabalho apresenta a proposta de desenvolvimento e avaliação do e- Termos, um Ambiente ColaborativoWeb composto por seis módulos de trabalho bem definidos...

Auxílio à leitura de textos em português facilitado: questões de acessibilidade; Reading assistance for texts in facilitated portuguese: accessibility issues

Watanabe, Willian Massami
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 05/08/2010 Português
Relevância na Pesquisa
78.66489%
A grande capacidade de disponibilização de informações que a Web possibilita se traduz em múltiplas possibilidades e oportunidades para seus usuários. Essas pessoas são capazes de acessar conteúdos provenientes de todas as partes do planeta, independentemente de onde elas estejam. Mas essas possibilidades não são estendidas a todos, sendo necessário mais que o acesso a um computador e a Internet para que sejam realizadas. Indivíduos que apresentem necessidades especiais (deficiência visual, cognitiva, dificuldade de locomoção, entre outras) são privados do acesso a sites e aplicações web que façam mal emprego de tecnologias web ou possuam o conteúdo sem os devidos cuidados para com a acessibilidade. Um dos grupos que é privado do acesso a esse ambiente é o de pessoas com dificuldade de leitura (analfabetos funcionais). A ampla utilização de recursos textuais nas aplicações pode tornar difícil ou mesmo impedir as interações desses indivíduos com os sistemas computacionais. Nesse contexto, este trabalho tem por finalidade o desenvolvimento de tecnologias assistivas que atuem como facilitadoras de leitura e compreensão de sites e aplicações web a esses indivíduos (analfabetos funcionais). Essas tecnologias assistivas utilizam recursos de processamento de língua natural visando maximizar a compreensão do conteúdo pelos usuários. Dentre as técnicas utilizadas são destacadas: simplificação sintática...

Elaboração textual via definição de entidades mencionadas e de perguntas relacionadas aos verbos em textos simplificados do português; Text elaboration through named entities definition and questions related to verbs in simplified portuguese texts

Amancio, Marcelo Adriano
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 15/06/2011 Português
Relevância na Pesquisa
78.800415%
Esta pesquisa aborda o tema da Elaboração Textual para um público alvo que tem letramento nos níveis básicos e rudimentar, de acordo com a classificação do Indicador Nacional de Alfabetismo Funcional (INAF, 2009). A Elaboração Textual é definida como um conjunto de técnicas que acrescentam material redundante em textos, sendo tradicionalmente usadas a adição de definições, sinônimos, antônimos, ou qualquer informação externa com o objetivo de auxiliar na compreensão do texto. O objetivo deste projeto de mestrado foi a proposta de dois métodos originais de elaboração textual: (1) via definição das entidades mencionadas que aparecem em um texto e (2) via definições de perguntas elaboradas direcionadas aos verbos das orações de um texto. Para a primeira tarefa, usou-se um sistema de reconhecimento de entidades mencionadas da literatura, o Rembrandt, e definições curtas da enciclopédia Wikipédia, sendo este método incorporado no sistema Web FACILITA EDUCATIVO, uma das ferramentas desenvolvidas no projeto PorSimples. O método foi avaliado de forma preliminar com um pequeno grupo de leitores com baixo nível de letramento e a avaliação foi positiva, indicando que este auxílio facilitou a leitura dos usuários da avaliação. O método de geração de perguntas elaboradas aos verbos de uma oração é uma tarefa nova que foi definida...

Análise bidirecional da língua na simplificação sintática em textos do português voltada à acessibilidade digital; Biderectional language analysis in syntactic simplification of portuguese texts focused on digital accessibility

Candido Junior, Arnaldo
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 28/03/2013 Português
Relevância na Pesquisa
78.60315%
O Processamento de Línguas Naturais é uma área interdisciplinar cujas pesquisas podem ser divididas em duas grandes linhas: análise e síntese da língua. Esta pesquisa de doutorado traz contribuições para ambas. Para a análise da língua, um modelo integrativo capaz de unir diferentes níveis linguísticos é apresentado e avaliado em relação aos níveis morfológico, (incluindo subníveis léxico e morfossintático), sintático e semântico. Enquanto análises tradicionais são feitas dos níveis mais baixos da língua para os mais altos, em uma estratégia em cascata, na qual erros dos níveis mais baixos são propagados para os níveis mais altos, o modelo de análise proposto é capaz de unificar a análise de diferentes níveis a partir de uma abordagem bidirecional. O modelo é baseado em uma grande rede neural, treinada em córpus, cujos padrões de treinamento são extraídos de tokens presentes nas orações. Um tipo de recorrência denominado coativação é aplicado no modelo para permitir que a análise de um padrão modifique e seja modificada pela análise de outros padrões em um mesmo contexto. O modelo de análise permite investigações para as quais não foi originalmente planejado, além de apresentar resultados considerados satisfatórios em lematização e análise morfossintática...

Processamento de língua natural e níveis de proficiência do português : um estudo de produções textuais do exame Celpe-Bras

Evers, Aline
Fonte: Universidade Federal do Rio Grande do Sul Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Dissertação Formato: application/pdf
Português
Relevância na Pesquisa
79.573833%
Este trabalho trata dos temas da proficiência em português como língua adicional e da detecção de padrões lexicais e coesivos a partir de um enfoque computacional, situando o tema em meio à descrição de textos produzidos no contexto do exame de proficiência Celpe- Bras de 2006-1. Fazendo uso de pressupostos teórico-metodológicos da Linguística de Corpus, da Linguística Textual e do Processamento de Língua Natural, investigou-se a hipótese de que seria possível classificar, de modo automático, textos submetidos ao exame conforme níveis de proficiência pré-estabelecidos. Por meio do processamento de 177 textos previamente avaliados por corretores humanos em seis níveis (Iniciante, Básico, Intermediário, Intermediário Superior, Avançado e Avançado Superior), usou-se o Aprendizado de Máquina (AM) supervisionado para cotejar padrões lexicais e coesivos capazes de distinguir os níveis sob estudo. Para o cotejo dos padrões, a ferramenta Coh-Metrix-Port – que calcula parâmetros de coesão, coerência e inteligibilidade textual – foi utilizada. Cada um dos textos foi processado na ferramenta; para o AM, os resultados da ferramenta Coh-Metrix-Port foram usados como atributos, os níveis de proficiência como classes e os textos como instâncias. As etapas de processamento do corpus foram: 1) digitação do corpus; 2) processamento individual dos textos na ferramenta Coh-Metrix-Port; 3) análise usando AM – Algoritmo J48 – e os seis níveis de proficiência; 4) nova análise usando AM e duas novas classes: textos sem certificação (Iniciante e Básico) e com certificação (Intermediário...

Redes neurais e logica formal em processamento de linguagem natural

João Luis Garcia Rosa
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 22/09/1993 Português
Relevância na Pesquisa
88.68369%
Esta dissertação de mestrado é sobre Processamento de Linguagem Natural (PLN). O PLN consiste de uma série de tarefas que a máquina deve executar para analisar um texto. Na literatura existem vários trabalhos em diversas abordagens. Este trabalho faz uma combinação de abordagens baseadas em lógica e de abordagens conexionistas. O trabalho proposto tem três partes. A primeira parte faz a análise sintática de frases da língua portuguesa. É baseada em lógica. A segunda parte faz a análise semântica, ou a verificação do significado das palavras numa frase. Isto é feito através de redes neurais artificiais, que "aprendem" a representação binária das palavras (suas microcaracterísticas semânticas). Esta abordagem é chamada de conexionismo. Sua grande vantagem é a habilidade de generalização, ou seja, a rede é capaz de reconhecer uma palavra, mesmo que esta não tenha sido mostrada a ela. A terceira, e última, parte deste trabalho trata da utilização de redes recorrentes para análise de frases. Este tipo de rede serve para "ligar" as palavras em uma frase, pois a rede recorrente tem memória. Ela é capaz de "lembrar" da última palavra vista numa seqüência. É útil para ligar as palavras em uma sentença...

Utilização de um sistema multiagentes para resolução de referencias em lingua natural

Leonardo Shiguemi Dinnouti
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 05/04/1999 Português
Relevância na Pesquisa
109.20175%
Esta tese contribui para a Área de Inteligência Artificial trazendo uma abordagem alternativa para o processamento de Língua Natural utilizando Sistemas Multiagentes. O fenômeno lingüístico a ser analisado é a referência, e em particular a referência definida. O fenômeno é amplamente conhecido como anáfora definida e vem sendo trabalhado por diversos pesquisadores na área de lingüística computacional. Nesta tese o problema é divido e tratado de forma distribuída, através de um sistema multiagentes projetado especificamente para este caso. Um protocolo de comunicação é proposto e alguns testes são feitos com agentes em funcionamento. A implementação do sistema utiliza bibliotecas de livre distribuição, como o SWI-Prolog e o PVM (Parallel Virtual Machine), tornando o sistema passível de ser distribuído livremente. Este trabalho contribui com mais um tipo de abordagem para o Processamento de Língua Natural e abre perspectivas para novos tipos de tratamentos utilizando Sistemas Multiagentes; This thesis contributes to the field of Artificial Intelligence by providing an alternative approach to Natural Language Processing using a Multi-Agent System. The linguistic phenomenon which is analyzed is reference, in particular...

PLIM : processamento de lingua natural utilizando o paradigma multi-agentes

Ivan Santa Maria Filho
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 30/06/2000 Português
Relevância na Pesquisa
108.9527%
O processamento automático da língua natural é um problema multidisciplinar que envolve aspectos computacionais e lingüísticos, dentre outros. Neste trabalho analisamos algumas das teorias lingüísticas centradas na sintaxe que já foram utilizadas com sucesso em sistemas computacionais. A análise destas teorias e dos sistemas que as implementam considera a adequação lingüística e a complexidade computacional associada. Também são analisados os paradigmas de programação utilizados na implementação destes sistemas, identificando suas limitações. Apresentamos também um sistema distribuído baseado em multi-agentes que é capaz de se utilizar dos mecanismos lingüísticos tradicionais ao mesmo tempo em que supera parte das limitações dos sistemas que os implementam; Natural language processing is a multidisciplinar problem that covers, but is not limited to, Computer Science and Linguistics. This master thesis presents a survey on some of the syntactic-centered linguistic theories that have been successfuly used in computer systems. An analysis of the linguistic adequacy and the computational complexity of each formalism is also presented. An analysis of the programming paradigms which were used to implement these systems and their limitations is also shown. Finally a distributed system based on the multi-agent paradigm is presented. This system is able to mimic many of the traditional system features while overcoming some of their limitations

Aprendizagem de língua assistida por computador : uma abordagem baseada em HPSG

Costa, Flávio Maico Vaz da; Ralha, José Carlos Loureiro; Ralha, Célia Ghedini
Fonte: Comissão Especial de Informática na Educação da Sociedade Brasileira de Computação Publicador: Comissão Especial de Informática na Educação da Sociedade Brasileira de Computação
Tipo: Artigo de Revista Científica
Português
Relevância na Pesquisa
78.884736%
Este trabalho analisa fundamentos e métodos pertinentes para o planejamento e desenvolvimento de sistemas de Processamento de Linguagem Natural (PLN) com o objetivo de auxiliar a aprendizagem de línguas. O foco principal é a correção sintática baseada no formalismo HPSG conforme implementado no sistema LKB (Linguistic Knowledge Building). Foi implementado um analisador em linguagem Java que, juntamente com uma gramática da língua espanhola de médio porte, permite experimentar a técnica de correção através de regras de malformação. A partir dos resultados obtidos discute-se alguns aspectos práticos e a viabilidade do PLN aplicado à educação. _________________________________________________________________________________ ABSTRACT; This work analyses principles and methods relevant to the planning and development of Natural Language Processing (NLP) systems, whose goal is to assist in language learning. Syntax checking based on the HPSG formalism as implemented in the LKB (Linguistic Knowledge Building) system is the main focus. Java language was used to implement a parser that, together with a Spanish grammar of moderate coverage, allows us to experiment with mal-rule based checking. From the results obtained practical issues and the viability of NLP applied to education are discussed.

Análise e representação de construções adjectivais para processamento automático de texto : adjectivos intransitivos humanos

Carvalho, Paula Cristina Quaresma da Fonseca, 1975-
Fonte: Universidade de Lisboa Publicador: Universidade de Lisboa
Tipo: Tese de Doutorado
Publicado em //2007 Português
Relevância na Pesquisa
78.4847%
Tese de doutoramento em Linguística (Linguística Portuguesa), apresentada à Universidade de Lisboa através da Faculdade de Letras, 2008; Este estudo teve como objectivo determinar e formalizar as propriedades léxico-sintácticas dos adjectivos intransitivos, i.e., sem complementos, e que se constroem com sujeito humano, em português europeu contemporâneo. Uma das motivações subjacentes à escolha deste tema foi a aparente falta de economia descritiva resultante da dupla classificação de numerosas unidades lexicais como nomes e adjectivos. Efectivamente, muitos destes adjectivos têm sido classificados como nomes, por forma a dar conta dos casos em que aparecem em posições sintácticas tipicamente nominais. Esta ambiguidade encontra eco no fenómeno de criação lexical tradicionalmente designado como derivação imprópria (ou conversão). Nesta dissertação, defendemos que certos adjectivos humanos têm a propriedade de desempenhar superficialmente a função de núcleo de grupos nominais. Esta análise baseia-se na constatação de que, nessas construções sintácticas, os adjectivos exibem, geralmente, algumas propriedades que exibiriam se se encontrassem em contexto adnominal e de que é possível reconstituir o nome (humano) a que os mesmos se encontram associados. Entre as várias estruturas aqui analisadas...

Gramática e Processamento da Linguagem Natural: Fundamentos

Branco, António Horta; Costa, Francisco
Fonte: Department of Informatics, University of Lisbon Publicador: Department of Informatics, University of Lisbon
Tipo: Relatório
Publicado em /09/2008 Português
Relevância na Pesquisa
79.17852%
O presente documento tem o objectivo didáctico de apresentar uma breve introdução à área do processamento de linguagem natural que pode ser utilizada por estudantes ou investigadores interessados. Esta introdução é elaborada do ponto de vista do processamento linguístico profundo com base na gramática das línguas naturais. Adopta como enquadramento metodológico a Head-Driven Phrase Structure Grammar (HPSG). O presente documento serve também de introdução metodológica ao documento TR-2008-17, que descreve a concretização de um fragmento da gramática para a língua portuguesa de acordo com os princípios aqui apresentados. Embora possam ser usados autonomamente, estes dois documentos devem ser vistos como constituindo duas partes de um mesmo texto. O presente documento foi escrito em português por forma a tornar os seus temas disponíveis pela primeira vez para um público de falantes desta língua --- outros textos em língua inglesa já existem com objectivos aproximados. O documento TR-2008-17, por sua vez, foi escrito em inglês por forma a que os resultados aí apresentados possam ser utilizados por toda a comunidade científica

Uma abordagem semi-automática para identificação de estruturas ontológicas a partir de textos na língua portuguesa do Brasil

Baségio, Túlio Lima
Fonte: Pontifícia Universidade Católica do Rio Grande do Sul; Porto Alegre Publicador: Pontifícia Universidade Católica do Rio Grande do Sul; Porto Alegre
Tipo: Dissertação de Mestrado
Português
Relevância na Pesquisa
88.94198%
Para várias áreas de aplicação, a construção semi-automática ou automática de ontologias seria extremamente útil. Abordagens semi-automáticas para a extração de ontologias a partir de textos têm sido propostas na literatura, as quais sugerem a extração de conhecimento encontrado nos textos de um domínio, com o apoio de técnicas de processamento da língua natural. Este trabalho propõe uma abordagem para suportar algumas fases do processo de aquisição de estruturas ontológicas, mais especificamente as fases de extração de conceitos e relações taxonômicas, de modo a semi-automatizar os passos da construção de ontologias a partir de textos na língua portuguesa do Brasil. O resultado obtido serve como ponto de partida ao engenheiro de ontologia. Para avaliação da abordagem proposta, foi desenvolvido um protótipo que incorpora mecanismos de importação de corpus, identificação de termos relevantes, identificação de relações taxonômicas entre esses termos e geração da estrutura ontológica em OWL. Este protótipo foi utilizado num estudo de caso sobre o domínio do Turismo, possibilitando a avaliação com relação a diferentes aspectos do processo de aquisição de conceitos e relações.; Automatic or semi-automatic ontology building would be extremely useful for several application areas. Semi-automatic approaches for ontology extraction from texts have been proposed in the literature...

Recursos do processamento da língua natural aplicados na recuperação semântica de documentos de caso de uso

Silva Júnior, Custódio Gastão da
Fonte: Pontifícia Universidade Católica do Rio Grande do Sul; Porto Alegre Publicador: Pontifícia Universidade Católica do Rio Grande do Sul; Porto Alegre
Tipo: Dissertação de Mestrado
Português
Relevância na Pesquisa
129.03926%
A engenharia de requisitos trata fundamentalmente de como descobrir, analisar, documentar e verificar as funções e restrições que um software deve contemplar. Neste processo o projetista se concentra em entender as necessidades, metas e convicções dos interessados e em como transformá-las em artefatos de software. Isso é conhecido como ciclo de desenvolvimento e é realizado até que o software atenda todos os requisitos dos interessados. Este trabalho descreve como os recursos do processamento da língua natural foram utilizados na construção de uma solução para recuperação semântica de documentos de caso de uso e apresenta os resultados alcançados. Para a construção da solução, foi especificado um método que organiza os trabalhos de preparação e recuperação em duas fases. A primeira descreve a forma como o corpus deve ser preparado e como os termos utilizados na preparação podem ser utilizados na definição das palavras-chave do domínio. A segunda fase explica como a recuperação de documentos é realizada, e mostra como os relacionamentos descritos na ontologia são utilizados para melhorar os resultados da recuperação. Os resultados apresentados mostram que o método descrito neste trabalho é promissor...

O reconhecimento de entidades nomeadas por meio de conditional Random Fields para a língua portuguesa

Amaral, Daniela Oliveira Ferreira do
Fonte: Pontifícia Universidade Católica do Rio Grande do Sul; Porto Alegre Publicador: Pontifícia Universidade Católica do Rio Grande do Sul; Porto Alegre
Tipo: Dissertação de Mestrado
Português
Relevância na Pesquisa
79.07202%
Muitas tarefas de Processamento da Linguagem Natural envolvem a previsão de um grande número de variáveis, as quais dependem umas das outras. Métodos de predição estruturada são, essencialmente, uma combinação de classificação e de modelagem baseada em grafo. Eles unem a competência dos métodos de classificação com a capacidade desse tipo de modelagem de reproduzir, compactamente, dados multivariados. Os métodos de classificação realizam a predição usando um grande conjunto de features como entrada. Conditional Random Fields (CRF) é um método probabilístico de predição estruturada e tem sido amplamente aplicado em diversas áreas, tais como processamento da linguagem natural, incluindo o Reconhecimento de Entidades Nomeadas (REN), visão computacional e bioinformática. Sendo assim, neste trabalho é proposta a aplicação do CRF para o REN em textos da Língua Portuguesa e, sequencialmente, avaliar o seu desempenho com base no corpus do HAREM. Finalmente, testes comparativos da abordagem determinada versus a similar da literatura foram realizados, ilustrando a competitividade e eficácia do sistema proposto.; Many tasks in Natural Language Processing involves the provision of a large number of variables, which depend on each other. Structured prediction methods are essentially a combination of classification and modeling based on graphs. They combine the power of classification methods with the ability of this type of modeling to play compactly...

Resolução de correferências em língua portuguesa: pessoa, local e organização

Fonseca, Evandro Brasil
Fonte: Pontifícia Universidade Católica do Rio Grande do Sul; Porto Alegre Publicador: Pontifícia Universidade Católica do Rio Grande do Sul; Porto Alegre
Tipo: Dissertação de Mestrado
Português
Relevância na Pesquisa
79.26712%
Resolução de correferências é um processo que consiste em identificar as diversas formas que uma mesma entidade nomeada pode assumir em um determinado texto. Em outras palavras, esse processo consiste em identificar determinados termos e expressões que remetem a uma mesma entidade. A resolução automática de correferência textual está inserida num contexto muito importante na área de Processamento da Linguagem Natural (PLN), pois vários sistemas necessitam dessa tarefa, como, por exemplo, a extração de relação entre entidades nomeadas. O nível de processamento linguístico depende do conhecimento de mundo, e isso ainda é um desafio para a área. A necessidade crescente por ferramentas de PLN e a escassez de recursos livres para a língua portuguesa motivaram trabalhar com essa língua nesta dissertação de mestrado. O presente trabalho teve por objetivo desenvolver uma ferramenta open source para a resolução de correferências em língua portuguesa, tendo como foco as categorias de entidades nomeadas Pessoa, Local e Organização.Optou-se por essas três categorias por essas serem as mais relevantes para a maioria das tarefas de PLN, pelo fato de tratarem entidades mais específicas e de interesse comum. Além disso...

Estudo de dialogos orientados a tarefa usando a teoria de multiagentes

Norton Trevisan Roman
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 19/09/2001 Português
Relevância na Pesquisa
79.113833%
o processamento de diálogos em uma língua natural é um campo bastante vasto e não suficientemente explorado da Inteligência Artificial. Os inúmeros detalhes e particularidades existentes não só na própria língua, como também na estrutura de um diálogo em si impõem barreiras ao modelamento deste processamento. Dessa forma, para se modelar efetivamente um diálogo faz-se necessário o modelamento não só das regras gramaticais particulares da língua, mas também de fenômenos próprios de diálogos, como elipses, o uso de pronomes e a coerência entre as idéias expressas por cada fala presente. Nessa dissertação é desenvolvido um sistema multiagentes que implementa o modelo para tratamento de diálogos originalmente desenvolvido por Grosz e Sidner. O objetivo deste sistema é testar a interação entre as estruturas que, de acordo com estas pesquisadoras, compõem a estrutura de um discurso, fazendo-o sob a luz do paradigma de multiagentes; Natural language dialogue processing is a very extensive and yet not enough explored field in Artifitial Intelligence. The inumerous details and particularities, not only within the language itself, but also within the dialogue structure, present several obstacles to modeling the processo. Therefore...

Extração automatica de palavras-chave na lingua portuguesa aplicada a dissertações e teses da area das engenharias

Maria Abadia Lacerda Dias
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 28/10/2004 Português
Relevância na Pesquisa
78.473594%
O objetivo desta dissertação é adaptar um algoritmo de extração automática de palavraschave para a língua portuguesa. Palavras-chave fornecem uma descrição adequada do conteúdo de um documento. Tal descrição facilita aos futuros leitores decidirem se o documento é ou não relevante para os mesmos. As palavras-chave têm também outras aplicações, já que estas resumem documentos de forma sucinta. Portanto podem ser usadas como uma medida eficiente de similaridade entre documentos, tornando possível organizá-los em grupos ao se medir a sobreposição entre as palavras-chave que estão associadas. Esta adaptação consiste na utilização de um algoritmo de radicalização de palavras na língua portuguesa, o qual foi aperfeiçoado neste estudo, e uma lista de stopwords da língua portuguesa, apresentada neste trabalho; The goal of this dissertation is to adapt an automatic extraction algorithm of keywords for the Portuguese language. Keywords give an adequate description of a document's contents. Such description helps future readers to decide whether the document is relevant or not for them. The keywords have also other applications, because they summarize documents in a brief way. Therefore, they can be used as an efficient measure of similarity between documents...

Extração de relações hiponímicas em corpora de língua portuguesa

Machado, Pablo Neves
Fonte: Pontifícia Universidade Católica do Rio Grande do Sul; Porto Alegre Publicador: Pontifícia Universidade Católica do Rio Grande do Sul; Porto Alegre
Tipo: Dissertação de Mestrado
Português
Relevância na Pesquisa
79.090713%
O Processamento da Linguagem Natural (PLN) é uma área da Ciência da Computação destacada por sua relevância para o desenvolvimento de aplicações em processamento de grandes quantidades de documentos textuais ou orais. Neste trabalho focamos nos textos em língua portuguesa, deles extraindo relações hiponímicas entre entidades, usando uma abordagem baseada em regras adaptadas dos trabalhos de Hearst para o inglês, Freitas e Quental e Taba e Caseli para o português, aqui complementadas. Para validar a proposta foi desenvolvido um protótipo que extrai relações hiponímicas de corpora em língua portuguesa. O protótipo foi executado sobre corpus de textos e os resultados obtidos foram analisados tanto por fonte de referência como por grupos de regras. O processo avaliativo seguiu o proposto por Freitas e Quental com avaliação humana, e as medidas obtidas são comparadas com as relatadas nas principais fontes de referência. A dissertação ainda estuda em detalhe os erros mais frequentes identificados.; Natural Language Processing (NLP) is a Computer Science area featured by its relevance to the development of applications that process large amounts of text or speech. In this paper we focus on texts in Portuguese, extracting from them hyponymic relations between entities...

Topic Modeling for Keyword Extraction: using Natural Language Processing methods for keyword extraction in Portal Min@s

Candido Junior, Arnaldo; Universidade Tecnológica Federal do Paraná; Magalhães, Célia; Universidade Federal de Minas Gerais; Caseli, Helena; Universidade Federal de São Carlos; Zangirolami, Régis; Universidade Federal de São Carlos
Fonte: Faculdade de Letras da Universidade Federal de Minas Gerais Publicador: Faculdade de Letras da Universidade Federal de Minas Gerais
Tipo: info:eu-repo/semantics/article; info:eu-repo/semantics/publishedVersion; ; Pesquisa Empírica; Formato: application/pdf
Publicado em 22/12/2015 Português
Relevância na Pesquisa
78.51184%
 Este artigo tem o objetivo da avaliar a aplicação de dois métodos automáticos eficientes na extração de palavras-chave, usados pelas comunidades da Linguística de Corpus e do Processamento da Língua Natural para gerar palavras-chave de textos literários: o WordSmith Tools e o Latent Dirichlet Allocation (LDA). As duas ferramentas escolhidas para este trabalho têm suas especificidades e técnicas diferentes de extração, o que nos levou a uma análise orientada para a sua performance. Objetivamos entender, então, como cada método funciona e avaliar sua aplicação em textos literários. Para esse fim, usamos análise humana, com conhecimento do campo dos textos usados. O método LDA foi usado para extrair palavras-chave por meio de sua integração com o Portal Min@s: Corpora de Fala e Escrita, um sistema geral de processamento de corpora, concebido para diferentes pesquisas de Linguística de Corpus. Os resultados do experimento confirmam a eficácia do WordSmith Tools e do LDA na extração de palavras-chave de um corpus literário, além de apontar que é necessária a análise humana das listas em um estágio anterior aos experimentos para complementar a lista gerada automaticamente, cruzando os resultados do WordSmith Tools e do LDA. Também indicam que a intuição linguística do analista humano sobre as listas geradas separadamente pelos dois métodos usados neste estudo foi mais favorável ao uso da lista de palavras-chave do WordSmith Tools.

Processamento computacional de anáfora e correferência

Vieira, Renata; Gonçalves, Patrícia Nunes; Souza, José Guilherme C. de
Fonte: Faculdade de Letras da Universidade Federal de Minas Gerais Publicador: Faculdade de Letras da Universidade Federal de Minas Gerais
Tipo: info:eu-repo/semantics/article; info:eu-repo/semantics/publishedVersion; ; Avaliado pelos pares Formato: application/pdf
Publicado em 30/06/2008 Português
Relevância na Pesquisa
78.52452%
A estrutura referencial é fundamental para a interpretação do discurso. Abordagens computacionais de interpretação da informação contida em bases textuais encontram nos processos anafóricos e correferenciais um grande desafio. Em trabalhos recentes da área, encontramos o emprego de técnicas sofisticadas para a descoberta de relações anafóricas. Tal pesquisa requer bases textuais em que relações correferenciais estejam identificadas de maneira acessível aos sistemas. A construção dessas bases se faz necessária para viabilizar a realização de pesquisas com a língua portuguesa. Estudos do problema mostram que a freqüência de retomada de um antecedente, baseada em conhecimento (semântico, lexical ou de mundo), é geralmente reduzida em relação ao total de tipos de usos. Apesar de menos freqüente, porém, esse tipo mais elaborado de retomada impõe sérias barreiras ao tratamento computacional do fenômeno. Os recursos disponíveis hoje, apesar de altamente sofisticados, são ainda insuficientes para tratar esse problema de forma satisfatória. No entanto, cada vez mais é reconhecida a importância do tratamento da correferência para outras tarefas de processamento de linguagem natural. Neste artigo analisamos especificamente o exemplo da sumarização automática.