Página 1 dos resultados de 2090 itens digitais encontrados em 0.028 segundos

‣ KS-SIFT: a keyframe extraction method based on local features

Barbieri, Tamires Tessarolli de Souza; Goularte, Rudinei
Fonte: Institute of Electrical and Electronics Engineers - IEEE; Taichung Publicador: Institute of Electrical and Electronics Engineers - IEEE; Taichung
Tipo: Conferência ou Objeto de Conferência
Português
Relevância na Pesquisa
37.308333%
In this work we propose a new keyframe extraction method based on SIFT local features. We extracted feature vectors from a carefully selected group of frames from a vídeo shot, analyzing those vectors to eliminate near duplicate keyframes, helping to keep a compact set. Moreover, as the keyframe extraction is based on local features, it keeps frames latent semantics and, therefore, helps to keep shot representativeness. We evaluated our method in the scene segmentation context, with videos from movies domain, developing a comparative study with three state of the art approaches based on local features. The results show that our method overcomes those approaches.; FAPESP (grant 2012/19025-0); CNPq

‣ Seleção e construção de features relevantes para o aprendizado de máquina.; Relevant feature selection and construction for machine learning.

Lee, Huei Diana
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 27/04/2000 Português
Relevância na Pesquisa
37.232778%
No Aprendizado de Máquina Supervisionado - AM - é apresentado ao algoritmo de indução um conjunto de instâncias de treinamento, no qual cada instância é um vetor de features rotulado com a classe. O algoritmo de indução tem como tarefa induzir um classificador que será utilizado para classificar novas instâncias. Algoritmos de indução convencionais baseam-se nos dados fornecidos pelo usuário para construir as descrições dos conceitos. Uma representação inadequada do espaço de busca ou da linguagem de descrição do conjunto de instâncias, bem como erros nos exemplos de treinamento, podem tornar os problemas de aprendizado difícies. Um dos problemas centrais em AM é a Seleção de um Subconjunto de Features - SSF - na qual o objetivo é tentar diminuir o número de features que serão fornecidas ao algoritmo de indução. São várias as razões para a realização de SSF. A primeira é que a maioria dos algoritmos de AM, computacionalmente viáveis, não trabalham bem na presença de muitas features, isto é a precisão dos classificadores gerados pode ser melhorada com a aplicação de SSF. Ainda, com um número menor de features, a compreensibilidade do conceito induzido pode ser melhorada. Uma terceira razão é o alto custo para coletar e processar grande quantidade de dados. Existem...

‣ Extração de características de imagens de faces humanas através de wavelets, PCA e IMPCA; Features extraction of human faces images through wavelets, PCA and IMPCA

Bianchi, Marcelo Franceschi de
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 10/04/2006 Português
Relevância na Pesquisa
67.430083%
Reconhecimento de padrões em imagens é uma área de grande interesse no mundo científico. Os chamados métodos de extração de características, possuem as habilidades de extrair características das imagens e também de reduzir a dimensionalidade dos dados gerando assim o chamado vetor de características. Considerando uma imagem de consulta, o foco de um sistema de reconhecimento de imagens de faces humanas é pesquisar em um banco de imagens, a imagem mais similar à imagem de consulta, de acordo com um critério dado. Este trabalho de pesquisa foi direcionado para a geração de vetores de características para um sistema de reconhecimento de imagens, considerando bancos de imagens de faces humanas, para propiciar tal tipo de consulta. Um vetor de características é uma representação numérica de uma imagem ou parte dela, descrevendo seus detalhes mais representativos. O vetor de características é um vetor n-dimensional contendo esses valores. Essa nova representação da imagem propicia vantagens ao processo de reconhecimento de imagens, pela redução da dimensionalidade dos dados. Uma abordagem alternativa para caracterizar imagens para um sistema de reconhecimento de imagens de faces humanas é a transformação do domínio. A principal vantagem de uma transformação é a sua efetiva caracterização das propriedades locais da imagem. As wavelets diferenciam-se das tradicionais técnicas de Fourier pela forma de localizar a informação no plano tempo-freqüência; basicamente...

‣ Mineração de imagens médicas utilizando características de forma; Medical image supported by shape features

Costa, Alceu Ferraz
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 10/04/2012 Português
Relevância na Pesquisa
37.247278%
Bases de imagens armazenadas em sistemas computacionais da área médica correspondem a uma valiosa fonte de conhecimento. Assim, a mineração de imagens pode ser aplicada para extrair conhecimento destas bases com o propósito de apoiar o diagnóstico auxiliado por computador (Computer Aided Diagnosis - CAD). Sistemas CAD apoiados por mineração de imagens tipicamente realizam a extração de características visuais relevantes das imagens. Essas características são organizadas na forma de vetores de características que representam as imagens e são utilizados como entrada para classificadores. Devido ao problema conhecido como lacuna semântica, que corresponde à diferença entre a percepção da imagem pelo especialista médico e suas características automaticamente extraídas, um aspecto desafiador do CAD é a obtenção de um conjunto de características que seja capaz de representar de maneira sucinta e eficiente o conteúdo visual de imagens médicas. Foi desenvolvido neste trabalho o extrator de características FFS (Fast Fractal Stack) que realiza a extração de características de forma, que é um atributo visual que aproxima a semântica esperada pelo ser humano. Adicionalmente, foi desenvolvido o algoritmo de classificação Concept...

‣ Extração de características combinadas com árvore de decisão para detecção e classificação dos distúrbios de qualidade da energia elétrica; Features extraction combined with decision tree for detection and classification of disorders of power quality

Borges, Fábbio Anderson Silva
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 11/07/2013 Português
Relevância na Pesquisa
57.100977%
Este trabalho apresenta uma metodologia de detecção e classificação de distúrbios relacionados à qualidade da energia elétrica. A detecção é feita utilizando-se somente uma regra para inferir na presença ou não do distúrbio em uma janela analisada. Para a classificação é proposto um método baseado em árvore de decisão. A árvore recebe como entrada as características do sinal extraídas tanto no domínio do tempo como no domínio da frequência, sendo a última obtida pela Transformada de Fourier. Destaca-se que toda a metodologia de extração de características foi idealizada como tentativa de se reduzir ao máximo o esforço computacional das tarefas de detecção e classificação de distúrbios. Em suma, verifica-se que os resultados obtidos são satisfatórios para a proposta desta pesquisa.; This work presents a methodology for detection and classification of disturbance related to the electric power quality. The detection is performed using only one rule to infer in the presence or not of the disturbance in a window analyzed. For the classification is proposed a method based on decision tree. The tree receives as input features of the extracted signal both in time domain and in the frequency domain, being the last obtained by Fourier transform. It is emphasized that all the features extraction methodology was idealized as an attempt to reduce to the maximum the computational effort for the tasks of detection and classification of disturbances. In short...

‣ Incluindo funções de distância e extratores de características para suporte a consultas por similaridade; Including distance functions and features extractors to support similarity queries

Bêdo, Marcos Vinícius Naves
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado Formato: application/pdf
Publicado em 20/09/2013 Português
Relevância na Pesquisa
46.76946%
Sistemas Gerenciadores de Bases de Dados Relacionais (SGBDR) são capazes de lidar com um alto volume de dados. As consultas nestes sistemas são realizados a partir da relação de ordem total, domínio sob o qual estão definidos dados simples como números ou strings, por exemplo. No caso de dados complexos, como imagens médicas, áudio ou séries-temporais financeiras que não obedecem as propriedade da relação acima citada e necessária uma abordagem que seja capaz de realizar a recuperação por conteúdo destes dados em tempo hábil e com semântica adequada. Nesse sentido, a literatura nos apresenta, como paradigma consolidado, as consultas por similaridade. Esse paradigma e a base para o funcionamento de muitos aplicativos de auxílio a tomada de decisão pelo especialista como Recuperação de Imagens Médicas por Conteúdo (CBMIR) e Recuperação de Áudio por Conteúdo (CBAR) e inclui diversas sub-áreas de pesquisa tais como extratores de características, funções de distância e métodos de acesso métrico. O desenvolvimento de novos métodos extratores de características e novas funções de distância são de fundamental importância para a diminuição do gap semântico entre os aplicativos e usuários, enquanto os métodos de acesso métricos são os reponsáveis diretos pela rápida resposta dos sistemas. Integrar todas essas funcionalidades em um framework de suporte a consultas por similaridade dentro de um SGBDR permanece um grande desafio. Esse trabalho objetiva estender uma proposta inicial dos recursos disponíveis no SIREN...

‣ Extração automática de termos simples baseada em aprendizado de máquina; Automatic simple term extraction based on machine learning

Laguna, Merley da Silva Conrado
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 06/05/2014 Português
Relevância na Pesquisa
37.383582%
A Mineração de Textos (MT) visa descobrir conhecimento inovador nos textos não estruturados. A extração dos termos que representam os textos de um domínio é um dos passos mais importantes da MT, uma vez que os resultados de todo o processo da MT dependerão, em grande parte, da qualidade dos termos obtidos. Nesta tese, considera-se como termos as unidades lexicais realizadas para designar conceitos em um cenário tematicamente restrito. Para a extração dos termos, pode-se fazer uso de abordagens como: estatística, linguística ou híbrida. Normalmente, para a Mineração de Textos, são utilizados métodos estatísticos. A aplicação desses métodos é computacionalmente menos custosa que a dos métodos linguísticos, entretanto seus resultados são geralmente menos interpretáveis. Ambos métodos, muitas vezes, não são capazes de identificar diferenças entre termos e não-termos, por exemplo, os estatísticos podem não identificar termos raros ou que têm a mesma frequência de não-termos e os linguísticos podem não distinguir entre termos que seguem os mesmo padrões linguísticos dos não-termos. Uma solução para esse problema é utilizar métodos híbridos, de forma a combinar as estratégias dos métodos linguísticos e estatísticos...

‣ Feature extraction and visualization from higher-order CFD data; Extração de estruturas e visualização de soluções de DFC de alta ordem

Pagot, Christian Azambuja
Fonte: Universidade Federal do Rio Grande do Sul Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Tese de Doutorado Formato: application/pdf
Português
Relevância na Pesquisa
37.229912%
Métodos de simulação baseados em dinâmica de fluidos computacional (DFC) têm sido empregado em diversas areas de estudo, tais como aeroacústica, dinâmica dos gases, fluidos viscoelásticos, entre outros. Entretanto, a necessidade de maior acurácia e desempenho destes métodos têm dado origem a soluções representadas por conjuntos de dados cada vez mais complexos. Neste contexto, técnicas voltadas à extração de estruturas relevantes (features), e sua posterior visualização, têm um papel muito importante, tornando mais fácil e intuitiva a análise dos dados gerados por simulações. Os métodos de extração de estruturas detectam e isolam elementos significativos no contexto da análise dos dados. No caso da análise de fluidos, estas estruturas podem ser isosuperfícies de pressão, vórtices, linhas de separação, etc. A visualização, por outro lado, confere atributos visuais a estas estruturas, permitindo uma análise mais intuitiva através de sua inspeção visual. Tradicionalmente, métodos de DFC representam suas soluções como funções lineares definidas sobre elementos do domínio. Entretanto, a evolução desses métodos tem dado origem a soluções representadas analiticamente através de funções de alta ordem. Apesar destes métodos apresentarem características desejáveis do ponto de vista de eficiência e acurácia...

‣ A robust feature extraction for automatic speech recognition in noisy environments

Lima, C. S.; Almeida, Luís B.; Monteiro, João L.
Fonte: Universidade do Minho Publicador: Universidade do Minho
Tipo: Conferência ou Objeto de Conferência
Publicado em /08/2002 Português
Relevância na Pesquisa
47.1685%
This paper presents a method for extraction of speech robust features when the external noise is additive and has white noise characteristics. The process consists of a short time power normalisation which goal is to preserve as much as possible, the speech features against noise. The proposed normalisation will be optimal if the corrupted process has, as the noise process white noise characteristics. With optimal normalisation we can mean that the corrupting noise does not change at all the means of the observed vectors of the corrupted process. As most of the speech energy is contained in a relatively small frequency band being most of the band composed by noise or noise-like power, this normalisation process can still capture most of the noise distortions. For Signal to Noise Ratio greater than 5 dB the results show that for stationary white noise, the normalisation process where the noise characteristics are ignored at the test phase, outperforms the conventional Markov models composition where the noise is known. If the noise is known, a reasonable approximation of the inverted system can be easily obtained performing noise compensation still increasing the recogniser performance.

‣ Algorithms for information extraction and signal annotation on long-term biosignals using clustering techniques

Abreu, Rodolfo Telo Martins de
Fonte: Faculdade de Ciências e Tecnologia Publicador: Faculdade de Ciências e Tecnologia
Tipo: Dissertação de Mestrado
Publicado em //2012 Português
Relevância na Pesquisa
46.78177%
Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica; One of the biggest challenges when analysing data is to extract information from it, especially if we dealing with very large sized data, which brings a new set of barriers to be overcome. The extracted information can be used to aid physicians in their diagnosis since biosignals often carry vital information on the subjects. In this research work, we present a signal-independent algorithm with two main goals: perform events detection in biosignals and, with those events, extract information using a set of distance measures which will be used as input to a parallel version of the k-means clustering algorithm. The first goal is achieved by using two different approaches. Events can be found based on peaks detection through an adaptive threshold defined as the signal’s root mean square (RMS) or by morphological analysis through the computation of the signal’s meanwave. The final goal is achieved by dividing the distance measures into n parts and by performing k-means individually. In order to improve speed performance, parallel computing techniques were applied. For this study, a set of different types of signals was acquired and annotated by our algorithm. By visual inspection...

‣ Special features of SCF solid extraction of natural products: deoiling of wheat gluten and extraction of rose hip oil

Eggers,R.; Ambrogi,A.; Schnitzler,J. von
Fonte: Brazilian Society of Chemical Engineering Publicador: Brazilian Society of Chemical Engineering
Tipo: Artigo de Revista Científica Formato: text/html
Publicado em 01/09/2000 Português
Relevância na Pesquisa
37.421804%
Supercritical CO2 extraction has shown great potential in separating vegetable oils as well as removing undesirable oil residuals from natural products. The influence of process parameters, such as pressure, temperature, mass flow and particle size, on the mass transfer kinetics of different natural products has been studied by many authors. However, few publications have focused on specific features of the raw material (moisture, mechanical pretreatment, bed compressibility, etc.), which could play an important role, particularly in the scale-up of extraction processes. A review of the influence of both process parameters and specific features of the material on oilseed extraction is given in Eggers (1996). Mechanical pretreatment has been commonly used in order to facilitate mass transfer from the material into the supercritical fluid. However, small particle sizes, especially when combined with high moisture contents, may lead to inefficient extraction results. This paper focuses on the problems that appear during scale-up in processes on a lab to pilot or industrial plant scale related to the pretreatment of material, the control of initial water content and vessel shape. Two applications were studied: deoiling of wheat gluten with supercritical carbon dioxide to produce a totally oil-free (< 0.1 % oil) powder (wheat gluten) and the extraction of oil from rose hip seeds. Different ways of pretreating the feed material were successfully tested in order to develop an industrial-scale gluten deoiling process. The influence of shape and size of the fixed bed on the extraction results was also studied. In the case of rose hip seeds...

‣ Extraction of Lesion-Partitioned Features and Retrieval of Contrast-Enhanced Liver Images

Yu, Mei; Feng, Qianjin; Yang, Wei; Gao, Yang; Chen, Wufan
Fonte: Hindawi Publishing Corporation Publicador: Hindawi Publishing Corporation
Tipo: Artigo de Revista Científica
Português
Relevância na Pesquisa
37.304834%
The most critical step in grayscale medical image retrieval systems is feature extraction. Understanding the interrelatedness between the characteristics of lesion images and corresponding imaging features is crucial for image training, as well as for features extraction. A feature-extraction algorithm is developed based on different imaging properties of lesions and on the discrepancy in density between the lesions and their surrounding normal liver tissues in triple-phase contrast-enhanced computed tomographic (CT) scans. The algorithm includes mainly two processes: (1) distance transformation, which is used to divide the lesion into distinct regions and represents the spatial structure distribution and (2) representation using bag of visual words (BoW) based on regions. The evaluation of this system based on the proposed feature extraction algorithm shows excellent retrieval results for three types of liver lesions visible on triple-phase scans CT images. The results of the proposed feature extraction algorithm show that although single-phase scans achieve the average precision of 81.9%, 80.8%, and 70.2%, dual- and triple-phase scans achieve 86.3% and 88.0%.

‣ Multiple Adaptive Neuro-Fuzzy Inference System with Automatic Features Extraction Algorithm for Cervical Cancer Recognition

Subhi Al-batah, Mohammad; Mat Isa, Nor Ashidi; Klaib, Mohammad Fadel; Al-Betar, Mohammed Azmi
Fonte: Hindawi Publishing Corporation Publicador: Hindawi Publishing Corporation
Tipo: Artigo de Revista Científica
Português
Relevância na Pesquisa
46.99125%
To date, cancer of uterine cervix is still a leading cause of cancer-related deaths in women worldwide. The current methods (i.e., Pap smear and liquid-based cytology (LBC)) to screen for cervical cancer are time-consuming and dependent on the skill of the cytopathologist and thus are rather subjective. Therefore, this paper presents an intelligent computer vision system to assist pathologists in overcoming these problems and, consequently, produce more accurate results. The developed system consists of two stages. In the first stage, the automatic features extraction (AFE) algorithm is performed. In the second stage, a neuro-fuzzy model called multiple adaptive neuro-fuzzy inference system (MANFIS) is proposed for recognition process. The MANFIS contains a set of ANFIS models which are arranged in parallel combination to produce a model with multi-input-multioutput structure. The system is capable of classifying cervical cell image into three groups, namely, normal, low-grade squamous intraepithelial lesion (LSIL) and high-grade squamous intraepithelial lesion (HSIL). The experimental results prove the capability of the AFE algorithm to be as effective as the manual extraction by human experts, while the proposed MANFIS produces a good classification performance with 94.2% accuracy.

‣ Features Extraction of Flotation Froth Images and BP Neural Network Soft-Sensor Model of Concentrate Grade Optimized by Shuffled Cuckoo Searching Algorithm

Wang, Jie-sheng; Han, Shuang; Shen, Na-na; Li, Shu-xia
Fonte: Hindawi Publishing Corporation Publicador: Hindawi Publishing Corporation
Tipo: Artigo de Revista Científica
Português
Relevância na Pesquisa
47.015605%
For meeting the forecasting target of key technology indicators in the flotation process, a BP neural network soft-sensor model based on features extraction of flotation froth images and optimized by shuffled cuckoo search algorithm is proposed. Based on the digital image processing technique, the color features in HSI color space, the visual features based on the gray level cooccurrence matrix, and the shape characteristics based on the geometric theory of flotation froth images are extracted, respectively, as the input variables of the proposed soft-sensor model. Then the isometric mapping method is used to reduce the input dimension, the network size, and learning time of BP neural network. Finally, a shuffled cuckoo search algorithm is adopted to optimize the BP neural network soft-sensor model. Simulation results show that the model has better generalization results and prediction accuracy.

‣ Feature Extraction Without Edge Detection

Chaney, Ronald D.
Fonte: MIT - Massachusetts Institute of Technology Publicador: MIT - Massachusetts Institute of Technology
Formato: 159 p.; 1640697 bytes; 2318330 bytes; application/octet-stream; application/pdf
Português
Relevância na Pesquisa
37.258804%
Information representation is a critical issue in machine vision. The representation strategy in the primitive stages of a vision system has enormous implications for the performance in subsequent stages. Existing feature extraction paradigms, like edge detection, provide sparse and unreliable representations of the image information. In this thesis, we propose a novel feature extraction paradigm. The features consist of salient, simple parts of regions bounded by zero-crossings. The features are dense, stable, and robust. The primary advantage of the features is that they have abstract geometric attributes pertaining to their size and shape. To demonstrate the utility of the feature extraction paradigm, we apply it to passive navigation. We argue that the paradigm is applicable to other early vision problems.

‣ Urban Detection From Hyperspectral Images Using Dimension-Reduction Model and Fusion of Multiple Segmentations Based on Stuctural and Textural Features

He, Jin
Fonte: Université de Montréal Publicador: Université de Montréal
Tipo: Thèse ou Mémoire numérique / Electronic Thesis or Dissertation
Português
Relevância na Pesquisa
46.802495%
Ce mémoire de maîtrise présente une nouvelle approche non supervisée pour détecter et segmenter les régions urbaines dans les images hyperspectrales. La méthode proposée n ́ecessite trois étapes. Tout d’abord, afin de réduire le coût calculatoire de notre algorithme, une image couleur du contenu spectral est estimée. A cette fin, une étape de réduction de dimensionalité non-linéaire, basée sur deux critères complémentaires mais contradictoires de bonne visualisation; à savoir la précision et le contraste, est réalisée pour l’affichage couleur de chaque image hyperspectrale. Ensuite, pour discriminer les régions urbaines des régions non urbaines, la seconde étape consiste à extraire quelques caractéristiques discriminantes (et complémentaires) sur cette image hyperspectrale couleur. A cette fin, nous avons extrait une série de paramètres discriminants pour décrire les caractéristiques d’une zone urbaine, principalement composée d’objets manufacturés de formes simples g ́eométriques et régulières. Nous avons utilisé des caractéristiques texturales basées sur les niveaux de gris, la magnitude du gradient ou des paramètres issus de la matrice de co-occurrence combinés avec des caractéristiques structurelles basées sur l’orientation locale du gradient de l’image et la détection locale de segments de droites. Afin de réduire encore la complexité de calcul de notre approche et éviter le problème de la ”malédiction de la dimensionnalité” quand on décide de regrouper des données de dimensions élevées...

‣ New approach in features extraction for EEG signal detection

Guerrero-Mosquera, Carlos; Navia-Vázquez, Ángel
Fonte: IEEE Publicador: IEEE
Tipo: info:eu-repo/semantics/conferenceObject; info:eu-repo/semantics/article Formato: application/pdf
Publicado em /11/2009 Português
Relevância na Pesquisa
57.26259%
This paper describes a new approach in features extraction using time-frequency distributions (TFDs) for detecting epileptic seizures to identify abnormalities in electroencephalogram (EEG). Particularly, the method extracts features using the Smoothed Pseudo Wigner-Ville distribution combined with the McAulay-Quatieri sinusoidal model and identifies abnormal neural discharges. We propose a new feature based on the length of the track that, combined with energy and frequency features, allows to isolate a continuous energy trace from another oscillations when an epileptic seizure is beginning. We evaluate our approach using data consisting of 16 different seizures from 6 epileptic patients. The results show that our extraction method is a suitable approach for automatic seizure detection, and opens the possibility of formulating new criteria to detect and analyze abnormal EEGs.; This work has been funded by the Spain CICYT grant TEC2008-02473.; 4 pages, 3 figures.-- Contributed to: "Engineering the Future of Biomedicine", EMBC2009, 31st Annual International Conference of the IEEE Engineering in Medicine and Biology Society (Minneapolis, Minnesota, USA, Sep 2-6, 2009).

‣ Comparing Features Extraction Techniques Using J48 for Activity Recognition on Mobile Phones

Blázquez Gil, Gonzalo; Berlanga, Antonio; Molina, José M.
Fonte: Springer Publicador: Springer
Tipo: info:eu-repo/semantics/acceptedVersion; info:eu-repo/semantics/conferenceObject; info:eu-repo/semantics/bookPart
Publicado em //2012 Português
Relevância na Pesquisa
46.838354%
Nowadays, mobile phones are not only used for mere communication such as calling or sending text messages. Mobile phones are becoming the main computer device in people's lives. Besides, thanks to the embedded sensors (Accelerometer, digital compass, gyroscope, GPS,and so on) is possible to improve the user experience. Activity recognition aims to recognize actions and goals of individual from a series of observations of themselves, in this case is used an accelerometer.; This work was supported in part by Projects CICYT TIN2011-28620-C02-01, CICYT TEC2011-28626-C02-02, CAM CONTEXTS (S2009/TIC-1485) and DPS2008-07029-C02-02; Proceedings of: 10th Conference on Practical Applications of Agents and Multi-Agent Systems, 28-30 March, 2012.Workshop on Agents and Multi-agent systems for Enterprise Integration

‣ Extração de tópicos baseado em agrupamento de regras de associação; Topic extraction based on association rule clustering

Santos, Fabiano Fernandes dos
Fonte: Biblioteca Digitais de Teses e Dissertações da USP Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Tese de Doutorado Formato: application/pdf
Publicado em 29/05/2015 Português
Relevância na Pesquisa
37.258804%
Uma representação estruturada dos documentos em um formato apropriado para a obtenção automática de conhecimento, sem que haja perda de informações relevantes em relação ao formato originalmente não-estruturado, é um dos passos mais importantes da mineração de textos, pois a qualidade dos resultados obtidos com as abordagens automáticas para obtenção de conhecimento de textos estão fortemente relacionados à qualidade dos atributos utilizados para representar a coleção de documentos. O Modelo de Espaço de Vetores (MEV) é um modelo tradicional para obter uma representação estruturada dos documentos. Neste modelo, cada documento é representado por um vetor de pesos correspondentes aos atributos do texto. O modelo bag-of-words é a abordagem de MEV mais utilizada devido a sua simplicidade e aplicabilidade. Entretanto, o modelo bag-of-words não trata a dependência entre termos e possui alta dimensionalidade. Diversos modelos para representação dos documentos foram propostos na literatura visando capturar a informação de relação entre termos, destacando-se os modelos baseados em frases ou termos compostos, o Modelo de Espaço de Vetores Generalizado (MEVG) e suas extensões, modelos de tópicos não-probabilísticos...

‣ Graph-driven features extraction from microarray data

Vert, Jean-Philippe; Kanehisa, Minoru
Fonte: Universidade Cornell Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 17/06/2002 Português
Relevância na Pesquisa
47.015605%
Gene function prediction from microarray data is a first step toward better understanding the machinery of the cell from relatively cheap and easy-to-produce data. In this paper we investigate whether the knowledge of many metabolic pathways and their catalyzing enzymes accumulated over the years can help improve the performance of classifiers for this problem. The complex network of known biochemical reactions in the cell results in a representation where genes are nodes of a graph. Formulating the problem as a graph-driven features extraction problem, based on the simple idea that relevant features are likely to exhibit correlation with respect to the topology of the graph, we end up with an algorithm which involves encoding the network and the set of expression profiles into kernel functions, and performing a regularized form of canonical correlation analysis in the corresponding reproducible kernel Hilbert spaces. Function prediction experiments for the genes of the yeast S. Cerevisiae validate this approach by showing a consistent increase in performance when a state-of-the-art classifier uses the vector of features instead of the original expression profile to predict the functional class of a gene.; Comment: 31 pages, 2 figures