Página 1 dos resultados de 27 itens digitais encontrados em 0.026 segundos

Criação de um ambiente para o processamento de córpus de Português Histórico; Creation of an environment for processing of Historical Porrtuguese Corpora

Candido Junior, Arnaldo
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 02/04/2008 Português
Relevância na Pesquisa
16.988936%
A utilização de córpus tem crescido progressivamente em áreas como Lingüística e Processamento de Língua Natural. Como resultado, temos a compilação de novos e grandes córpus e a criação de sistemas processadores de córpus e de padrões para codificação e intercâmbio de textos eletrônicos. Entretanto, a metodologia para compilação de córpus históricos difere das metodologias usadas em córpus contemporâneos. Outro problema é o fato de a maior parte dos processadores de córpus proverem poucos recursos para o tratamento de córpus históricos, apesar de tais córpus serem numerosos. Da mesma forma, os sistemas para criação de dicionários não atendem satisfatoriamente necessidades de dicionários históricos. A motivação desta pesquisa é o projeto do Dicionário Histórico do Português do Brasil (DHPB) que tem como base a construção de um córpus de Português do Brasil dos séculos XVI a XVIII (incluindo alguns textos do começo do século XIX). Neste trabalho são apresentados os desafios encontrados para o processamento do córpus do projeto do projeto DHPB e os requisitos para redação de verbetes do dicionário histórico. Um ambiente computacional para processamento de córpus, criação de glossários e redação de verbetes foi desenvolvido para o projeto DHPB sendo possível adaptá-lo para ser aplicado a outros projetos de criação de dicionários históricos; Corpora has been increasingly used within the areas of Linguistics and Natural Language Processing. As a result...

Parâmetros para a elaboração de dicionários bilíngues de apoio à codificação escrita em línguas estrangeiras

Duran, Magali Sanches
Fonte: Universidade Estadual Paulista (UNESP) Publicador: Universidade Estadual Paulista (UNESP)
Tipo: Tese de Doutorado Formato: 183 f. : il. color.
Português
Relevância na Pesquisa
38.604072%
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES); Pós-graduação em Estudos Linguísticos - IBILCE; O objetivo deste trabalho é apresentar parâmetros que possam ser utilizados para orientar melhorias e inovações lexicográficas, a fim de atender as dificuldades dos brasileiros na codificação escrita em línguas estrangeiras. Revisam-se criticamente várias pesquisas, em busca de subsídios que contribuam para diagnosticar as dificuldades de escrever em língua estrangeira, dentre elas os trabalhos produzidos por teóricos da Lexicografia, as pesquisas sobre o uso do dicionário e estudos sobre corpus de aprendizes. Realiza-se, também, uma pesquisa empírica sobre o uso dos dicionários na codificação a fim de complementar, com dados primários, as informações obtidas nas demais fontes. Uma vez conhecidas as necessidades dos usuários de dicionários, analisam-se as obras lexicográficas que expressam o propósito de auxiliar a produção em língua estrangeira. Nessa análise, verifica-se em que medida as necessidades identificadas são atendidas e como são atendidas. Chegase, assim, à conclusão de que algumas das dificuldades solucionáveis por meio da consulta ao dicionário já são satisfatoriamente atendidas pelas obras disponíveis...

Codificação de vídeo baseada em fractais e representações esparsas; Video coding based on fractals and sparse representations

Vitor de Lima
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 12/03/2012 Português
Relevância na Pesquisa
16.988936%
Vídeos são sequências de imagens estáticas representando cenas em movimento. Transmitir e armazenar essas imagens sem nenhum tipo de pré-processamento necessitaria de enormes larguras de banda nos canais de comunicação e uma quantidade massiva de espaço de armazenamento. A fim de reduzir o número de bits necessários para tais dados, foram criados métodos de compressão com perda. Esses métodos geralmente consistem em um codificador e um decodificador, tal que o codificador gera uma sequência de bits que representa uma aproximação razoável do vídeo através de um formato pré-especificado e o decodificador lê essa sequência, convertendo-a novamente em uma série de imagens. A transmissão de vídeos sob restrições extremas de largura de banda tem aplicações importantes como videoconferências e circuitos fechados de televisão. Neste trabalho são abordados dois métodos destinados a essa aplicação, decomposição usando representações esparsas e compressão fractal. A ampla maioria dos codificadores tem como mecanismo principal o uso de transformações inversíveis capazes de representar imagens espacialmente suaves com poucos coeficientes não-nulos. Representações esparsas são uma generalização dessa ideia...

Image and video representations based on visual = Representações de imagens e vídeos baseadas em dicionários visuais; Representações de imagens e vídeos baseadas em dicionários visuais

Otavio Augusto Bizetto Penatti
Fonte: Biblioteca Digital da Unicamp Publicador: Biblioteca Digital da Unicamp
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 29/11/2012 Português
Relevância na Pesquisa
16.988936%
Codificar de maneira eficaz as propriedades visuais de conteúdo multimídia é um desafio. Uma abordagem popular para tratar esse desafio consiste no modelo de dicionários visuais. Neste modelo, imagens são consideradas como um conjunto desordenado de características locais e são representadas por um saco de palavras visuais (bag of visual words). Nesta tese, trabalhamos em três problemas de pesquisa relacionados ao modelo de dicionários visuais. O primeiro deles é relacionado ao poder de generalização dos dicionários visuais, que se refere à capacidade de criar boas representações para imagens de uma dada coleção mesmo usando um dicionário criado sobre outra coleção ou usando um dicionário criado sobre pequenas amostras da coleção. Experimentos foram realizados em coleções fechadas de imagens e em um ambiente Web. Os resultados obtidos sugerem que o uso de amostras diversas em termos de aparência é suficiente para se gerar bons dicionários. O segundo problema de pesquisa é relacionado à importância da informação espacial das palavras visuais no espaço da imagem. Esta informação pode ser fundamental para diferenciar tipos de objetos e cenas. As técnicas mais comuns de pooling normalmente descartam a configuração espacial das palavras visuais na imagem. Propomos uma nova técnica de pooling...

Dicionários monolíngues da língua galega

Iriarte Sanromán, Álvaro
Fonte: Universidade da Coruña Publicador: Universidade da Coruña
Tipo: Artigo de Revista Científica
Publicado em //2005 Português
Relevância na Pesquisa
38.05754%
O objectivo deste trabalho será mostrar em que medida os principais dicionários monolíngues galegos de que actualmente dispomos no mercado fornecem informação (gramatical, combinatória, pragmática, etc.) suficiente para servirem como ferramentas para ajudar o utilizador a elaborar textos em galego (como língua materna, segunda ou estrangeira). Tentarei quantificar, de maneira aproximada, esta informação, para assim poder justificar respostas a perguntas do tipo: Qual é o melhor dicionário de galego? Que dicionário podemos utilizar para ajudar a aprender galego? Que dicionário nos pode ajudar a escrever em galego? etc.; The aim of this work is to show in what measure the current Galician unilingual dictionaries provide sufficient information (grammatical, combining, or pragmatic information) to serve as a tool to help users to elaborate texts in Galician (as mother tongue, second language or foreign language). I will attempt to quantify, in an approximate way, this information, for thus be able to justify answers to questions such as: Which is the best Galician dictionary? What dictionary can we use to learn Galician? What dictionary can help us to write in Galician? etc.; Secretaria I+D da Xunta de Galicia

Retreading dictionaries for the 21st Century

Simões, Alberto; Gómez Guinovart, Xavier
Fonte: OpenAccess Series in Informatics (OASIcs) Publicador: OpenAccess Series in Informatics (OASIcs)
Tipo: Artigo de Revista Científica
Publicado em //2013 Português
Relevância na Pesquisa
38.05754%
Even in the 21st century, paper dictionaries are still compiled and developed using standard word processors. Many publishing companies are, nowadays, working on converting their dictionaries into computer readable documents, so that they can be used to prepare new features, such as making them available online. Luckily, most of these publishers can pay review teams to fix and even enhance these dictionaries. Unfortunately, research institutions cannot hire that amount of workers. In this article we present the process of retreading a Galician dictionary that was first de- veloped and compiled using Microsoft Word. This dictionary was converted, through automatic rewriting, into a Text Encoding Initiative schema subset. This process will be detailed, and the problems found will be discussed. Given a recent normative that changed the Galician or- thography, the dictionary has undergone a semi-automatic modernization process. Finally, two applications for the obtained dictionaries will be shown.; This work was partially supported by Grant TIN2012-38584-C06-04, supported by the Ministry of Economy and Competitiveness of the Spanish Government on “Adquisición de escenarios de conocimiento a través de la lectura de textos: Desarrollo y aplicación de recursos para el procesamiento lingüístico del gallego (SKATeR-UVIGO)”; and by the Xunta de Galicia through the “Rede de Lexicografía (Relex)” (Grant CN 2012/290) and the “Rede de Tecnoloxías e análise dos datos lingüísticos” (Grant CN 2012/179).

Optimally sparse representation in general (nonorthogonal) dictionaries via ℓ1 minimization

Donoho, David L.; Elad, Michael
Fonte: National Academy of Sciences Publicador: National Academy of Sciences
Tipo: Artigo de Revista Científica
Português
Relevância na Pesquisa
26.988936%
Given a dictionary D = {dk} of vectors dk, we seek to represent a signal S as a linear combination S = ∑k γ(k)dk, with scalar coefficients γ(k). In particular, we aim for the sparsest representation possible. In general, this requires a combinatorial optimization process. Previous work considered the special case where D is an overcomplete system consisting of exactly two orthobases and has shown that, under a condition of mutual incoherence of the two bases, and assuming that S has a sufficiently sparse representation, this representation is unique and can be found by solving a convex optimization problem: specifically, minimizing the ℓ1 norm of the coefficients γ̱. In this article, we obtain parallel results in a more general setting, where the dictionary D can arise from two or several bases, frames, or even less structured systems. We sketch three applications: separating linear features from planar ones in 3D data, noncooperative multiuser encoding, and identification of over-complete independent component models.

Phraseographie Japanisch–Deutsch: Lexikographische Perspektiven bei der Entwicklung digitaler Nachschlagewerke; Japanese-German Phraseography: Lexicographic Perspectives in the Field of Electronic Dictionary Development

Vogel, Iris
Fonte: Universidade de Tubinga Publicador: Universidade de Tubinga
Tipo: Dissertação
Português
Relevância na Pesquisa
28.685022%
Die zunehmende Digitalisierung von Ressourcen eröffnet der Welt der Wissensmedien scheinbar unbegrenzte Möglichkeiten. Den gleichermaßen wachsenden Anforderungen an die Funktionalität, Verfügbarkeit, Umfang und Vernetztheit elektronischer Ressourcen gerecht zu werden ist die große Herausforderung, der sich die Lexikographie stellen muss. Die vorliegende Arbeit befasst sich mit der Frage, wie das digitale Medium für die Neukonzeption eines japanisch-deutschen phraseologischen Wörterbuchs eingesetzt werden kann. Ziel ist die prototypische Entwicklung und theoretische Beschreibung eines Systems, das die Natur des Phänomens möglichst adäquat in der digitalen lexikalischen Ressource abbildet und dabei die zentralen Anforderungen der einschlägigen Forschung erfüllt. Im Forschungsdiskurs der Bereiche Phraseologie und Computerlinguistik werden zahlreiche Desiderate an die Phraseographie gestellt. Phraseologische Wörterbücher sollen einen größeren Umfang bieten und gleichzeitig den Nutzer gezielter zur gesuchten Information führen. Ihre Entwicklung erfolgt korpusbasiert. Elektronische Nachschlagewerke sind mit diversen externen Wissensressourcen vernetzt und passen sich flexibel und intelligent an die Bedürfnisse individueller Nutzer an. Hinzu kommen Anforderungen zur Sicherung der Datenintegrität und Interoperabilität. Den Ausgangspunkt bietet eine Analyse der Charakteristika japanischer Idiome mit Hinblick auf ihre Kodierung im elektronischen Wörterbuch. Daraus geht hervor...

Dicionários monolíngues da Língua Galega

Iriarte Sanromán, Álvaro
Fonte: Universidade da Coruña Publicador: Universidade da Coruña
Tipo: Artigo de Revista Científica
Português
Relevância na Pesquisa
37.981702%
[Resumo] O objectivo deste trabalho será mostrar em que medida os principais dicionários monolíngues galegos de que actualmente dispomos no mercado fornecem informação (gramatical, combinatória, pragmática, etc.) suficiente para servirem como ferramentas para ajudar o utilizador a elaborar textos em galego (como língua materna, segunda ou estrangeira). Tentarei quantificar, de maneira aproximada, esta informação, para assim poder justificar respostas a perguntas do tipo: Qual é o melhor dicionário de galego? Que dicionário podemos utilizar para ajudar a aprender galego? Que dicionário nos pode ajudar a escrever em galego? etc.; [Abstract] The aim of this work is to show in what measure the current Galician unilingual dictionaries provide sufficient information (grammatical, combining, or pragmatic information) to serve as a tool to help users to elaborate texts in Galician (as mother tongue, second language or foreign language). I will attempt to quantify, in an approximate way, this information, for thus be able to justify answers to questions such as: Which is the best Galician dictionary? What dictionary can we use to learn Galician? What dictionary can help us to write in Galician? etc.

Learning Better Encoding for Approximate Nearest Neighbor Search with Dictionary Annealing

Liu, Shicong; Lu, Hongtao
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 06/07/2015 Português
Relevância na Pesquisa
28.246682%
We introduce a novel dictionary optimization method for high-dimensional vector quantization employed in approximate nearest neighbor (ANN) search. Vector quantization methods first seek a series of dictionaries, then approximate each vector by a sum of elements selected from these dictionaries. An optimal series of dictionaries should be mutually independent, and each dictionary should generate a balanced encoding for the target dataset. Existing methods did not explicitly consider this. To achieve these goals along with minimizing the quantization error (residue), we propose a novel dictionary optimization method called \emph{Dictionary Annealing} that alternatively "heats up" a single dictionary by generating an intermediate dataset with residual vectors, "cools down" the dictionary by fitting the intermediate dataset, then extracts the new residual vectors for the next iteration. Better codes can be learned by DA for the ANN search tasks. DA is easily implemented on GPU to utilize the latest computing technology, and can easily extended to an online dictionary learning scheme. We show by experiments that our optimized dictionaries substantially reduce the overall quantization error. Jointly used with residual vector quantization...

WaterFowl, a Compact, Self-indexed RDF Store with Inference-enabled Dictionaries

Curé, Olivier; Blin, Guillaume; Revuz, Dominique; Faye, David
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 20/01/2014 Português
Relevância na Pesquisa
26.988936%
In this paper, we present a novel approach -- called WaterFowl -- for the storage of RDF triples that addresses some key issues in the contexts of big data and the Semantic Web. The architecture of our prototype, largely based on the use of succinct data structures, enables the representation of triples in a self-indexed, compact manner without requiring decompression at query answering time. Moreover, it is adapted to efficiently support RDF and RDFS entailment regimes thanks to an optimized encoding of ontology concepts and properties that does not require a complete inference materialization or extensive query rewriting algorithms. This approach implies to make a distinction between the terminological and the assertional components of the knowledge base early in the process of data preparation, i.e., preprocessing the data before storing it in our structures. The paper describes the complete architecture of this system and presents some preliminary results obtained from evaluations conducted on our first prototype.; Comment: 12 pages, 3 figures

Representing human and machine dictionaries in Markup languages

Lemnitzer, Lothar; Romary, Laurent; Witt, Andreas
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Português
Relevância na Pesquisa
27.469807%
In this chapter we present the main issues in representing machine readable dictionaries in XML, and in particular according to the Text Encoding Dictionary (TEI) guidelines.

Neural Machine Translation of Rare Words with Subword Units

Sennrich, Rico; Haddow, Barry; Birch, Alexandra
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Português
Relevância na Pesquisa
17.253916%
Neural machine translation (NMT) models typically operate with a fixed vocabulary, so the translation of rare and unknown words is an open problem. Previous work addresses this problem through back-off dictionaries. In this paper, we introduce a simpler and more effective approach, making the NMT model capable of open-vocabulary translation by encoding rare and unknown words as sequences of subword units, based on the intuition that various word classes are translatable via smaller units than words, for instance names (via character copying or transliteration), compounds (via compositional translation), and cognates and loanwords (via phonological and morphological transformations). We discuss the suitability of different word segmentation techniques, including simple character $n$-gram models and a segmentation based on the \emph{byte pair encoding} compression algorithm, and empirically show that subword models improve over a back-off dictionary baseline for the WMT 15 translation tasks English-German and English-Russian by 1.1 and 1.3 BLEU, respectively.; Comment: new results with improved baseline; more references in related work; cuts to fit conference proceedings

Pattern Encoding on the Poincare Sphere

Pizurica, Aleksandra
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 01/10/2014 Português
Relevância na Pesquisa
28.016863%
This paper presents a convenient graphical tool for encoding visual patterns (such as image patches and image atoms) as point constellations in a space spanned by perceptual features and with a clear geometrical interpretation. General theory and a practical pattern encoding scheme are presented, inspired by encoding polarization states of a light wave on the Poincare sphere. This new pattern encoding scheme can be useful for many applications in image processing and computer vision. Here, three possible applications are illustrated, in clustering perceptually similar patterns, visualizing properties of learned dictionaries of image atoms and generating new dictionaries of image atoms from spherical codes.; Comment: 26 pages, 23 figures

Multiscale Geometric Methods for Data Sets II: Geometric Multi-Resolution Analysis

Allard, William K.; Chen, Guangliang; Maggioni, Mauro
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Português
Relevância na Pesquisa
18.246682%
Data sets are often modeled as point clouds in $R^D$, for $D$ large. It is often assumed that the data has some interesting low-dimensional structure, for example that of a $d$-dimensional manifold $M$, with $d$ much smaller than $D$. When $M$ is simply a linear subspace, one may exploit this assumption for encoding efficiently the data by projecting onto a dictionary of $d$ vectors in $R^D$ (for example found by SVD), at a cost $(n+D)d$ for $n$ data points. When $M$ is nonlinear, there are no "explicit" constructions of dictionaries that achieve a similar efficiency: typically one uses either random dictionaries, or dictionaries obtained by black-box optimization. In this paper we construct data-dependent multi-scale dictionaries that aim at efficient encoding and manipulating of the data. Their construction is fast, and so are the algorithms that map data points to dictionary coefficients and vice versa. In addition, data points are guaranteed to have a sparse representation in terms of the dictionary. We think of dictionaries as the analogue of wavelets, but for approximating point clouds rather than functions.; Comment: Re-formatted using AMS style

Succinct Indexable Dictionaries with Applications to Encoding $k$-ary Trees, Prefix Sums and Multisets

Raman, Rajeev; Raman, Venkatesh; Satti, Srinivasa Rao
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 04/05/2007 Português
Relevância na Pesquisa
27.469807%
We consider the {\it indexable dictionary} problem, which consists of storing a set $S \subseteq \{0,...,m-1\}$ for some integer $m$, while supporting the operations of $\Rank(x)$, which returns the number of elements in $S$ that are less than $x$ if $x \in S$, and -1 otherwise; and $\Select(i)$ which returns the $i$-th smallest element in $S$. We give a data structure that supports both operations in O(1) time on the RAM model and requires ${\cal B}(n,m) + o(n) + O(\lg \lg m)$ bits to store a set of size $n$, where ${\cal B}(n,m) = \ceil{\lg {m \choose n}}$ is the minimum number of bits required to store any $n$-element subset from a universe of size $m$. Previous dictionaries taking this space only supported (yes/no) membership queries in O(1) time. In the cell probe model we can remove the $O(\lg \lg m)$ additive term in the space bound, answering a question raised by Fich and Miltersen, and Pagh. We present extensions and applications of our indexable dictionary data structure, including: An information-theoretically optimal representation of a $k$-ary cardinal tree that supports standard operations in constant time, A representation of a multiset of size $n$ from $\{0,...,m-1\}$ in ${\cal B}(n,m+n) + o(n)$ bits that supports (appropriate generalizations of) $\Rank$ and $\Select$ operations in constant time...

A Study on Unsupervised Dictionary Learning and Feature Encoding for Action Classification

Peng, Xiaojiang; Peng, Qiang; Qiao, Yu; Chen, Junzhou; Afzal, Mehtab
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 02/09/2013 Português
Relevância na Pesquisa
28.342134%
Many efforts have been devoted to develop alternative methods to traditional vector quantization in image domain such as sparse coding and soft-assignment. These approaches can be split into a dictionary learning phase and a feature encoding phase which are often closely connected. In this paper, we investigate the effects of these phases by separating them for video-based action classification. We compare several dictionary learning methods and feature encoding schemes through extensive experiments on KTH and HMDB51 datasets. Experimental results indicate that sparse coding performs consistently better than the other encoding methods in large complex dataset (i.e., HMDB51), and it is robust to different dictionaries. For small simple dataset (i.e., KTH) with less variation, however, all the encoding strategies perform competitively. In addition, we note that the strength of sophisticated encoding approaches comes not from their corresponding dictionaries but the encoding mechanisms, and we can just use randomly selected exemplars as dictionaries for video-based action classification.

Visual Tracking via Nonnegative Regularization Multiple Locality Coding

Liu, Fanghui; Zhou, Tao; Gu, Irene Y. H.; Yang, Jie
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Português
Relevância na Pesquisa
17.469807%
This paper presents a novel object tracking method based on approximated Locality-constrained Linear Coding (LLC). Rather than using a non-negativity constraint on encoding coefficients to guarantee these elements nonnegative, in this paper, the non-negativity constraint is substituted for a conventional $\ell_2$ norm regularization term in approximated LLC to obtain the similar nonnegative effect. And we provide a detailed and adequate explanation in theoretical analysis to clarify the rationality of this replacement. Instead of specifying fixed K nearest neighbors to construct the local dictionary, a series of different dictionaries with pre-defined numbers of nearest neighbors are selected. Weights of these various dictionaries are also learned from approximated LLC in the similar framework. In order to alleviate tracking drifts, we propose a simple and efficient occlusion detection method. The occlusion detection criterion mainly depends on whether negative templates are selected to represent the severe occluded target. Both qualitative and quantitative evaluations on several challenging sequences show that the proposed tracking algorithm achieves favorable performance compared with other state-of-the-art methods.; Comment: 8 pages...

Page layout analysis and classification in complex scanned documents

Erkilinc, Mustafa
Fonte: Rochester Instituto de Tecnologia Publicador: Rochester Instituto de Tecnologia
Tipo: Tese de Doutorado
Português
Relevância na Pesquisa
27.253916%
Page layout analysis has been extensively studied since the 1980`s, particularly after computers began to be used for document storage or database units. For efficient document storage and retrieval from a database, a paper document would be transformed into its electronic version. Algorithms and methodologies are used for document image analysis in order to segment a scanned document into different regions such as text, image or line regions. To contribute a novel approach in the field of page layout analysis and classification, this algorithm is developed for both RGB space and grey-scale scanned documents without requiring any specific document types, and scanning techniques. In this thesis, a page classification algorithm is proposed which mainly applies wavelet transform, Markov random field (MRF) and Hough transform to segment text, photo and strong edge/ line regions in both color and gray-scale scanned documents. The algorithm is developed to handle both simple and complex page layout structures and contents (text only vs. book cover that includes text, lines and/or photos). The methodology consists of five modules. In the first module, called pre-processing, image enhancements techniques such as image scaling, filtering, color space conversion or gamma correction are applied in order to reduce computation time and enhance the scanned document. The techniques...

Melhor do que muitos pensam. Quatro dicionários bilíngües português – inglês de uso escolar.

Humblé, Philippe; Universidade Federal de Santa Catarina
Fonte: Universidade Federal de Santa Catarina Publicador: Universidade Federal de Santa Catarina
Tipo: info:eu-repo/semantics/article; info:eu-repo/semantics/publishedVersion; Formato: application/pdf
Publicado em 26/09/2008 Português
Relevância na Pesquisa
17.469807%
This article sets out to compare four popular bilingual Brazilian dictionaries: Longman Escolar (2002), Oxford Escolar (1999), Larousse Essencial (2005) and Michaelis Escolar (2001). Included in the comparison are: the number of entries, the type of microstructure and the use of examples, as well as an examination of the dictionaries’ adequacy in terms of encoding and decoding. The conclusion is that all four dictionaries are better than is commonly expected, even though some features do seem to reveal a lack of lexicographical policy in some of them.; Neste artigo comparam-se quatro dicionários bilíngües entre os mais populares no mercado brasileiro: o Longman Escolar (2002), o Oxford Escolar (1999), o Larousse Essencial (2005) e o Michaelis Escolar (2001). Avalia-se seu conteúdo ao nível de número de verbetes, tipo de verbetes, uso de exemplos e a adequação ao uso tanto no sentido da produção quanto da compreensão. Chega-se à conclusão que todos quatro são melhores do que muitas vezes se espera, embora algumas decisões não parecem revelar de uma política firmemente estabelecida em alguns deles.