A melhor ferramenta para a sua pesquisa, trabalho e TCC!
Página 1 dos resultados de 2090 itens digitais encontrados em 0.028 segundos
- Institute of Electrical and Electronics Engineers - IEEE; Taichung
- Biblioteca Digitais de Teses e Dissertações da USP
- Universidade Federal do Rio Grande do Sul
- Universidade do Minho
- Faculdade de Ciências e Tecnologia
- Brazilian Society of Chemical Engineering
- Hindawi Publishing Corporation
- MIT - Massachusetts Institute of Technology
- Université de Montréal
- Springer
- Universidade Cornell
- Mais Publicadores...
‣ KS-SIFT: a keyframe extraction method based on local features
Fonte: Institute of Electrical and Electronics Engineers - IEEE; Taichung
Publicador: Institute of Electrical and Electronics Engineers - IEEE; Taichung
Tipo: Conferência ou Objeto de Conferência
Português
Relevância na Pesquisa
37.308333%
In this work we propose a new keyframe extraction method based on SIFT local features. We extracted feature vectors from a carefully selected group of frames from a vídeo shot, analyzing those vectors to eliminate near duplicate keyframes, helping to keep a compact set. Moreover, as the keyframe extraction is based on local features, it keeps frames latent semantics and, therefore, helps to keep shot representativeness. We evaluated our method in the scene segmentation context, with videos from movies domain, developing a comparative study with three state of the art approaches based on local features. The results show that our method overcomes those approaches.; FAPESP (grant 2012/19025-0); CNPq
Link permanente para citações:
‣ Seleção e construção de features relevantes para o aprendizado de máquina.; Relevant feature selection and construction for machine learning.
Fonte: Biblioteca Digitais de Teses e Dissertações da USP
Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado
Formato: application/pdf
Publicado em 27/04/2000
Português
Relevância na Pesquisa
37.232778%
#aprendizado de máquina#bases de dados médicos#construção de features#extração de conhecimentos#Feature Construction#Feature Selection#knowledge extraction#machine learning#medical databases#seleção de features
No Aprendizado de Máquina Supervisionado - AM - é apresentado ao algoritmo de indução um conjunto de instâncias de treinamento, no qual cada instância é um vetor de features rotulado com a classe. O algoritmo de indução tem como tarefa induzir um classificador que será utilizado para classificar novas instâncias. Algoritmos de indução convencionais baseam-se nos dados fornecidos pelo usuário para construir as descrições dos conceitos. Uma representação inadequada do espaço de busca ou da linguagem de descrição do conjunto de instâncias, bem como erros nos exemplos de treinamento, podem tornar os problemas de aprendizado difícies. Um dos problemas centrais em AM é a Seleção de um Subconjunto de Features - SSF - na qual o objetivo é tentar diminuir o número de features que serão fornecidas ao algoritmo de indução. São várias as razões para a realização de SSF. A primeira é que a maioria dos algoritmos de AM, computacionalmente viáveis, não trabalham bem na presença de muitas features, isto é a precisão dos classificadores gerados pode ser melhorada com a aplicação de SSF. Ainda, com um número menor de features, a compreensibilidade do conceito induzido pode ser melhorada. Uma terceira razão é o alto custo para coletar e processar grande quantidade de dados. Existem...
Link permanente para citações:
‣ Extração de características de imagens de faces humanas através de wavelets, PCA e IMPCA; Features extraction of human faces images through wavelets, PCA and IMPCA
Fonte: Biblioteca Digitais de Teses e Dissertações da USP
Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado
Formato: application/pdf
Publicado em 10/04/2006
Português
Relevância na Pesquisa
67.430083%
#extração de características#features extraction#human face recognition#IMPCA (Image Principal Component Analysis)#IMPCA (Image Principal Component Analysis)#PCA (Principal Component Analysis)#PCA (Principal Component Analysis)#reconhecimento de faces humanas#wavelets#wavelets
Reconhecimento de padrões em imagens é uma área de grande interesse no mundo científico. Os chamados métodos de extração de características, possuem as habilidades de extrair características das imagens e também de reduzir a dimensionalidade dos dados gerando assim o chamado vetor de características. Considerando uma imagem de consulta, o foco de um sistema de reconhecimento de imagens de faces humanas é pesquisar em um banco de imagens, a imagem mais similar à imagem de consulta, de acordo com um critério dado. Este trabalho de pesquisa foi direcionado para a geração de vetores de características para um sistema de reconhecimento de imagens, considerando bancos de imagens de faces humanas, para propiciar tal tipo de consulta. Um vetor de características é uma representação numérica de uma imagem ou parte dela, descrevendo seus detalhes mais representativos. O vetor de características é um vetor n-dimensional contendo esses valores. Essa nova representação da imagem propicia vantagens ao processo de reconhecimento de imagens, pela redução da dimensionalidade dos dados. Uma abordagem alternativa para caracterizar imagens para um sistema de reconhecimento de imagens de faces humanas é a transformação do domínio. A principal vantagem de uma transformação é a sua efetiva caracterização das propriedades locais da imagem. As wavelets diferenciam-se das tradicionais técnicas de Fourier pela forma de localizar a informação no plano tempo-freqüência; basicamente...
Link permanente para citações:
‣ Mineração de imagens médicas utilizando características de forma; Medical image supported by shape features
Fonte: Biblioteca Digitais de Teses e Dissertações da USP
Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado
Formato: application/pdf
Publicado em 10/04/2012
Português
Relevância na Pesquisa
37.247278%
#Classificação de imagens#Computed aided diagnosis (CAD)#Diagnóstico auxiliado por computador#Extração de características#Feature extraction#Image classification#Image mining#Imagens médicas#Medical imaging#Mineração de imagens
Bases de imagens armazenadas em sistemas computacionais da área médica correspondem a uma valiosa fonte de conhecimento. Assim, a mineração de imagens pode ser aplicada para extrair conhecimento destas bases com o propósito de apoiar o diagnóstico auxiliado por computador (Computer Aided Diagnosis - CAD). Sistemas CAD apoiados por mineração de imagens tipicamente realizam a extração de características visuais relevantes das imagens. Essas características são organizadas na forma de vetores de características que representam as imagens e são utilizados como entrada para classificadores. Devido ao problema conhecido como lacuna semântica, que corresponde à diferença entre a percepção da imagem pelo especialista médico e suas características automaticamente extraídas, um aspecto desafiador do CAD é a obtenção de um conjunto de características que seja capaz de representar de maneira sucinta e eficiente o conteúdo visual de imagens médicas. Foi desenvolvido neste trabalho o extrator de características FFS (Fast Fractal Stack) que realiza a extração de características de forma, que é um atributo visual que aproxima a semântica esperada pelo ser humano. Adicionalmente, foi desenvolvido o algoritmo de classificação Concept...
Link permanente para citações:
‣ Extração de características combinadas com árvore de decisão para detecção e classificação dos distúrbios de qualidade da energia elétrica; Features extraction combined with decision tree for detection and classification of disorders of power quality
Fonte: Biblioteca Digitais de Teses e Dissertações da USP
Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado
Formato: application/pdf
Publicado em 11/07/2013
Português
Relevância na Pesquisa
57.100977%
#Árvores de decisão#Decision trees#Extração de características#Feature extraction#Identificação de distúrbios#Identification of disturbances#Power quality#Qualidade de energia elétrica
Este trabalho apresenta uma metodologia de detecção e classificação de distúrbios relacionados à qualidade da energia elétrica. A detecção é feita utilizando-se somente uma regra para inferir na presença ou não do distúrbio em uma janela analisada. Para a classificação é proposto um método baseado em árvore de decisão. A árvore recebe como entrada as características do sinal extraídas tanto no domínio do tempo como no domínio da frequência, sendo a última obtida pela Transformada de Fourier. Destaca-se que toda a metodologia de extração de características foi idealizada como tentativa de se reduzir ao máximo o esforço computacional das tarefas de detecção e classificação de distúrbios. Em suma, verifica-se que os resultados obtidos são satisfatórios para a proposta desta pesquisa.; This work presents a methodology for detection and classification of disturbance related to the electric power quality. The detection is performed using only one rule to infer in the presence or not of the disturbance in a window analyzed. For the classification is proposed a method based on decision tree. The tree receives as input features of the extracted signal both in time domain and in the frequency domain, being the last obtained by Fourier transform. It is emphasized that all the features extraction methodology was idealized as an attempt to reduce to the maximum the computational effort for the tasks of detection and classification of disturbances. In short...
Link permanente para citações:
‣ Incluindo funções de distância e extratores de características para suporte a consultas por similaridade; Including distance functions and features extractors to support similarity queries
Fonte: Biblioteca Digitais de Teses e Dissertações da USP
Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Dissertação de Mestrado
Formato: application/pdf
Publicado em 20/09/2013
Português
Relevância na Pesquisa
46.76946%
#CBMIR#CBMIR#Consultas por similaridade#Distance functions#Extended SQL#Extratores de características#Features extractors#Funções de distância#Similarity queries#SQL estendido
Sistemas Gerenciadores de Bases de Dados Relacionais (SGBDR) são capazes de lidar com um alto volume de dados. As consultas nestes sistemas são realizados a partir da relação de ordem total, domínio sob o qual estão definidos dados simples como números ou strings, por exemplo. No caso de dados complexos, como imagens médicas, áudio ou séries-temporais financeiras que não obedecem as propriedade da relação acima citada e necessária uma abordagem que seja capaz de realizar a recuperação por conteúdo destes dados em tempo hábil e com semântica adequada. Nesse sentido, a literatura nos apresenta, como paradigma consolidado, as consultas por similaridade. Esse paradigma e a base para o funcionamento de muitos aplicativos de auxílio a tomada de decisão pelo especialista como Recuperação de Imagens Médicas por Conteúdo (CBMIR) e Recuperação de Áudio por Conteúdo (CBAR) e inclui diversas sub-áreas de pesquisa tais como extratores de características, funções de distância e métodos de acesso métrico. O desenvolvimento de novos métodos extratores de características e novas funções de distância são de fundamental importância para a diminuição do gap semântico entre os aplicativos e usuários, enquanto os métodos de acesso métricos são os reponsáveis diretos pela rápida resposta dos sistemas. Integrar todas essas funcionalidades em um framework de suporte a consultas por similaridade dentro de um SGBDR permanece um grande desafio. Esse trabalho objetiva estender uma proposta inicial dos recursos disponíveis no SIREN...
Link permanente para citações:
‣ Extração automática de termos simples baseada em aprendizado de máquina; Automatic simple term extraction based on machine learning
Fonte: Biblioteca Digitais de Teses e Dissertações da USP
Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Tese de Doutorado
Formato: application/pdf
Publicado em 06/05/2014
Português
Relevância na Pesquisa
37.383582%
#Aprendizado de máquina#Automatic term extraction#Conhecimento linguístico#estatístico e híbrido#Extração automática de termos#Linguistic#Machine learning#statistical#statistical and hybrid
A Mineração de Textos (MT) visa descobrir conhecimento inovador nos textos não estruturados. A extração dos termos que representam os textos de um domínio é um dos passos mais importantes da MT, uma vez que os resultados de todo o processo da MT dependerão, em grande parte, da qualidade dos termos obtidos. Nesta tese, considera-se como termos as unidades lexicais realizadas para designar conceitos em um cenário tematicamente restrito. Para a extração dos termos, pode-se fazer uso de abordagens como: estatística, linguística ou híbrida. Normalmente, para a Mineração de Textos, são utilizados métodos estatísticos. A aplicação desses métodos é computacionalmente menos custosa que a dos métodos linguísticos, entretanto seus resultados são geralmente menos interpretáveis. Ambos métodos, muitas vezes, não são capazes de identificar diferenças entre termos e não-termos, por exemplo, os estatísticos podem não identificar termos raros ou que têm a mesma frequência de não-termos e os linguísticos podem não distinguir entre termos que seguem os mesmo padrões linguísticos dos não-termos. Uma solução para esse problema é utilizar métodos híbridos, de forma a combinar as estratégias dos métodos linguísticos e estatísticos...
Link permanente para citações:
‣ Feature extraction and visualization from higher-order CFD data; Extração de estruturas e visualização de soluções de DFC de alta ordem
Fonte: Universidade Federal do Rio Grande do Sul
Publicador: Universidade Federal do Rio Grande do Sul
Tipo: Tese de Doutorado
Formato: application/pdf
Português
Relevância na Pesquisa
37.229912%
#Higher-order CFD data#Computação gráfica#Sombras : Computação gráfica#Feature extraction#Hardware : Computacao grafica#Parallel vectors operator#Isocontouring#Algoritmos#Visualização#Interval arithmetic
Métodos de simulação baseados em dinâmica de fluidos computacional (DFC) têm sido empregado em diversas areas de estudo, tais como aeroacústica, dinâmica dos gases, fluidos viscoelásticos, entre outros. Entretanto, a necessidade de maior acurácia e desempenho destes métodos têm dado origem a soluções representadas por conjuntos de dados cada vez mais complexos. Neste contexto, técnicas voltadas à extração de estruturas relevantes (features), e sua posterior visualização, têm um papel muito importante, tornando mais fácil e intuitiva a análise dos dados gerados por simulações. Os métodos de extração de estruturas detectam e isolam elementos significativos no contexto da análise dos dados. No caso da análise de fluidos, estas estruturas podem ser isosuperfícies de pressão, vórtices, linhas de separação, etc. A visualização, por outro lado, confere atributos visuais a estas estruturas, permitindo uma análise mais intuitiva através de sua inspeção visual. Tradicionalmente, métodos de DFC representam suas soluções como funções lineares definidas sobre elementos do domínio. Entretanto, a evolução desses métodos tem dado origem a soluções representadas analiticamente através de funções de alta ordem. Apesar destes métodos apresentarem características desejáveis do ponto de vista de eficiência e acurácia...
Link permanente para citações:
‣ A robust feature extraction for automatic speech recognition in noisy environments
Fonte: Universidade do Minho
Publicador: Universidade do Minho
Tipo: Conferência ou Objeto de Conferência
Publicado em /08/2002
Português
Relevância na Pesquisa
47.1685%
This paper presents a method for extraction of speech robust features when the external noise is additive and has white noise characteristics. The process consists of a short time power normalisation which goal is to preserve as much as possible, the speech features against noise. The proposed normalisation will be optimal if the corrupted process has, as the noise process white noise characteristics. With optimal normalisation we can mean that the corrupting noise does not change at all the means of the observed vectors of the corrupted process. As most of the speech energy is contained in a relatively small frequency band being most of the band composed by noise or noise-like power, this normalisation process can still capture most of the noise distortions.
For Signal to Noise Ratio greater than 5 dB the results show that for stationary white noise, the normalisation process where the noise characteristics are ignored at the test phase, outperforms the conventional Markov models composition where the noise is known. If the noise is known, a reasonable approximation of the inverted system can be easily obtained performing noise compensation still increasing the recogniser performance.
Link permanente para citações:
‣ Algorithms for information extraction and signal annotation on long-term biosignals using clustering techniques
Fonte: Faculdade de Ciências e Tecnologia
Publicador: Faculdade de Ciências e Tecnologia
Tipo: Dissertação de Mestrado
Publicado em //2012
Português
Relevância na Pesquisa
46.78177%
Dissertação para obtenção do Grau de Mestre em
Engenharia Biomédica; One of the biggest challenges when analysing data is to extract information from it,
especially if we dealing with very large sized data, which brings a new set of barriers to be overcome. The extracted information can be used to aid physicians in their diagnosis since biosignals often carry vital information on the subjects.
In this research work, we present a signal-independent algorithm with two main goals: perform events detection in biosignals and, with those events, extract information
using a set of distance measures which will be used as input to a parallel version of
the k-means clustering algorithm. The first goal is achieved by using two different approaches.
Events can be found based on peaks detection through an adaptive threshold defined as the signal’s root mean square (RMS) or by morphological analysis through the computation of the signal’s meanwave. The final goal is achieved by dividing the distance measures into n parts and by performing k-means individually. In order to improve speed performance, parallel computing techniques were applied.
For this study, a set of different types of signals was acquired and annotated by our
algorithm. By visual inspection...
Link permanente para citações:
‣ Special features of SCF solid extraction of natural products: deoiling of wheat gluten and extraction of rose hip oil
Fonte: Brazilian Society of Chemical Engineering
Publicador: Brazilian Society of Chemical Engineering
Tipo: Artigo de Revista Científica
Formato: text/html
Publicado em 01/09/2000
Português
Relevância na Pesquisa
37.421804%
Supercritical CO2 extraction has shown great potential in separating vegetable oils as well as removing undesirable oil residuals from natural products. The influence of process parameters, such as pressure, temperature, mass flow and particle size, on the mass transfer kinetics of different natural products has been studied by many authors. However, few publications have focused on specific features of the raw material (moisture, mechanical pretreatment, bed compressibility, etc.), which could play an important role, particularly in the scale-up of extraction processes. A review of the influence of both process parameters and specific features of the material on oilseed extraction is given in Eggers (1996). Mechanical pretreatment has been commonly used in order to facilitate mass transfer from the material into the supercritical fluid. However, small particle sizes, especially when combined with high moisture contents, may lead to inefficient extraction results. This paper focuses on the problems that appear during scale-up in processes on a lab to pilot or industrial plant scale related to the pretreatment of material, the control of initial water content and vessel shape. Two applications were studied: deoiling of wheat gluten with supercritical carbon dioxide to produce a totally oil-free (< 0.1 % oil) powder (wheat gluten) and the extraction of oil from rose hip seeds. Different ways of pretreating the feed material were successfully tested in order to develop an industrial-scale gluten deoiling process. The influence of shape and size of the fixed bed on the extraction results was also studied. In the case of rose hip seeds...
Link permanente para citações:
‣ Extraction of Lesion-Partitioned Features and Retrieval of Contrast-Enhanced Liver Images
Fonte: Hindawi Publishing Corporation
Publicador: Hindawi Publishing Corporation
Tipo: Artigo de Revista Científica
Português
Relevância na Pesquisa
37.304834%
The most critical step in grayscale medical image retrieval systems is feature extraction. Understanding the interrelatedness between the characteristics of lesion images and corresponding imaging features is crucial for image training, as well as for features extraction. A feature-extraction algorithm is developed based on different imaging properties of lesions and on the discrepancy in density between the lesions and their surrounding normal liver tissues in triple-phase contrast-enhanced computed tomographic (CT) scans. The algorithm includes mainly two processes: (1) distance transformation, which is used to divide the lesion into distinct regions and represents the spatial structure distribution and (2) representation using bag of visual words (BoW) based on regions. The evaluation of this system based on the proposed feature extraction algorithm shows excellent retrieval results for three types of liver lesions visible on triple-phase scans CT images. The results of the proposed feature extraction algorithm show that although single-phase scans achieve the average precision of 81.9%, 80.8%, and 70.2%, dual- and triple-phase scans achieve 86.3% and 88.0%.
Link permanente para citações:
‣ Multiple Adaptive Neuro-Fuzzy Inference System with Automatic Features Extraction Algorithm for Cervical Cancer Recognition
Fonte: Hindawi Publishing Corporation
Publicador: Hindawi Publishing Corporation
Tipo: Artigo de Revista Científica
Português
Relevância na Pesquisa
46.99125%
To date, cancer of uterine cervix is still a leading cause of cancer-related deaths in women worldwide. The current methods (i.e., Pap smear and liquid-based cytology (LBC)) to screen for cervical cancer are time-consuming and dependent on the skill of the cytopathologist and thus are rather subjective. Therefore, this paper presents an intelligent computer vision system to assist pathologists in overcoming these problems and, consequently, produce more accurate results. The developed system consists of two stages. In the first stage, the automatic features extraction (AFE) algorithm is performed. In the second stage, a neuro-fuzzy model called multiple adaptive neuro-fuzzy inference system (MANFIS) is proposed for recognition process. The MANFIS contains a set of ANFIS models which are arranged in parallel combination to produce a model with multi-input-multioutput structure. The system is capable of classifying cervical cell image into three groups, namely, normal, low-grade squamous intraepithelial lesion (LSIL) and high-grade squamous intraepithelial lesion (HSIL). The experimental results prove the capability of the AFE algorithm to be as effective as the manual extraction by human experts, while the proposed MANFIS produces a good classification performance with 94.2% accuracy.
Link permanente para citações:
‣ Features Extraction of Flotation Froth Images and BP Neural Network Soft-Sensor Model of Concentrate Grade Optimized by Shuffled Cuckoo Searching Algorithm
Fonte: Hindawi Publishing Corporation
Publicador: Hindawi Publishing Corporation
Tipo: Artigo de Revista Científica
Português
Relevância na Pesquisa
47.015605%
For meeting the forecasting target of key technology indicators in the flotation process, a BP neural network soft-sensor model based on features extraction of flotation froth images and optimized by shuffled cuckoo search algorithm is proposed. Based on the digital image processing technique, the color features in HSI color space, the visual features based on the gray level cooccurrence matrix, and the shape characteristics based on the geometric theory of flotation froth images are extracted, respectively, as the input variables of the proposed soft-sensor model. Then the isometric mapping method is used to reduce the input dimension, the network size, and learning time of BP neural network. Finally, a shuffled cuckoo search algorithm is adopted to optimize the BP neural network soft-sensor model. Simulation results show that the model has better generalization results and prediction accuracy.
Link permanente para citações:
‣ Feature Extraction Without Edge Detection
Fonte: MIT - Massachusetts Institute of Technology
Publicador: MIT - Massachusetts Institute of Technology
Formato: 159 p.; 1640697 bytes; 2318330 bytes; application/octet-stream; application/pdf
Português
Relevância na Pesquisa
37.258804%
Information representation is a critical issue in machine vision. The representation strategy in the primitive stages of a vision system has enormous implications for the performance in subsequent stages. Existing feature extraction paradigms, like edge detection, provide sparse and unreliable representations of the image information. In this thesis, we propose a novel feature extraction paradigm. The features consist of salient, simple parts of regions bounded by zero-crossings. The features are dense, stable, and robust. The primary advantage of the features is that they have abstract geometric attributes pertaining to their size and shape. To demonstrate the utility of the feature extraction paradigm, we apply it to passive navigation. We argue that the paradigm is applicable to other early vision problems.
Link permanente para citações:
‣ Urban Detection From Hyperspectral Images Using Dimension-Reduction Model and Fusion of Multiple Segmentations Based on Stuctural and Textural Features
Fonte: Université de Montréal
Publicador: Université de Montréal
Tipo: Thèse ou Mémoire numérique / Electronic Thesis or Dissertation
Português
Relevância na Pesquisa
46.802495%
#Images AVIRIS#Détection et segmentation de régions urbaines#Fusion de segmentations#Gradient#Matrice de co-occurrence#Image hyperspectrale#K-moyennes#Détection de segment de droite#Réduction de dimensionnalité non-linéaire#AVIRIS images#Fusion of label field
Ce mémoire de maîtrise présente une nouvelle approche non supervisée pour détecter et segmenter les régions urbaines dans les images hyperspectrales. La méthode proposée n ́ecessite trois étapes. Tout d’abord, afin de réduire le coût calculatoire de notre algorithme, une image couleur du contenu spectral est estimée. A cette fin, une étape de réduction de dimensionalité non-linéaire, basée sur deux critères complémentaires mais contradictoires de bonne visualisation; à savoir la précision et le contraste, est réalisée pour l’affichage couleur de chaque image hyperspectrale. Ensuite, pour discriminer les régions urbaines des régions non urbaines, la seconde étape consiste à extraire quelques caractéristiques discriminantes (et complémentaires) sur cette image hyperspectrale couleur. A cette fin, nous avons extrait une série de paramètres discriminants pour décrire les caractéristiques d’une zone urbaine, principalement composée d’objets manufacturés de formes simples g ́eométriques et régulières. Nous avons utilisé des caractéristiques texturales basées sur les niveaux de gris, la magnitude du gradient ou des paramètres issus de la matrice de co-occurrence combinés avec des caractéristiques structurelles basées sur l’orientation locale du gradient de l’image et la détection locale de segments de droites. Afin de réduire encore la complexité de calcul de notre approche et éviter le problème de la ”malédiction de la dimensionnalité” quand on décide de regrouper des données de dimensions élevées...
Link permanente para citações:
‣ New approach in features extraction for EEG signal detection
Fonte: IEEE
Publicador: IEEE
Tipo: info:eu-repo/semantics/conferenceObject; info:eu-repo/semantics/article
Formato: application/pdf
Publicado em /11/2009
Português
Relevância na Pesquisa
57.26259%
#EEG signal detection#McAulay-Quatieri sinusoidal model#Abnormal neural discharges#Electroencephalogram#Epileptic seizures#Feature extraction#Smoothed pseudo Wigner-Ville distribution#Time-frequency distributions#Telecomunicaciones
This paper describes a new approach in features extraction using time-frequency distributions (TFDs) for detecting epileptic seizures to identify abnormalities in electroencephalogram (EEG). Particularly, the method extracts features using the Smoothed Pseudo Wigner-Ville distribution combined with the McAulay-Quatieri sinusoidal model and identifies abnormal neural discharges. We propose a new feature based on the length of the track that, combined with energy and frequency features, allows to isolate a continuous energy trace from another oscillations when an epileptic seizure is beginning. We evaluate our approach using data consisting of 16 different seizures from 6 epileptic patients. The results show that our extraction method is a suitable approach for automatic seizure detection, and opens the possibility of formulating new criteria to detect and analyze abnormal EEGs.; This work has been funded by the Spain CICYT grant TEC2008-02473.; 4 pages, 3 figures.-- Contributed to: "Engineering the Future of Biomedicine", EMBC2009, 31st Annual International Conference of the IEEE Engineering in Medicine and Biology Society (Minneapolis, Minnesota, USA, Sep 2-6, 2009).
Link permanente para citações:
‣ Comparing Features Extraction Techniques Using J48 for Activity Recognition on Mobile Phones
Fonte: Springer
Publicador: Springer
Tipo: info:eu-repo/semantics/acceptedVersion; info:eu-repo/semantics/conferenceObject; info:eu-repo/semantics/bookPart
Publicado em //2012
Português
Relevância na Pesquisa
46.838354%
#Mobile Device#Activity Recognition#Ambient Assisted Living (AAL)#Features extraction#J48#Informática
Nowadays, mobile phones are not only used for mere communication such as calling or sending text messages. Mobile phones are becoming the main computer device in people's lives. Besides, thanks to the embedded sensors (Accelerometer, digital compass, gyroscope, GPS,and so on) is possible to improve the user experience. Activity recognition aims to recognize actions and goals of individual from a series of observations of themselves, in this case is used an accelerometer.; This work was supported in part by Projects CICYT TIN2011-28620-C02-01, CICYT TEC2011-28626-C02-02, CAM CONTEXTS (S2009/TIC-1485) and DPS2008-07029-C02-02; Proceedings of: 10th Conference on Practical Applications of Agents and Multi-Agent Systems, 28-30 March, 2012.Workshop on Agents and Multi-agent systems for Enterprise Integration
Link permanente para citações:
‣ Extração de tópicos baseado em agrupamento de regras de associação; Topic extraction based on association rule clustering
Fonte: Biblioteca Digitais de Teses e Dissertações da USP
Publicador: Biblioteca Digitais de Teses e Dissertações da USP
Tipo: Tese de Doutorado
Formato: application/pdf
Publicado em 29/05/2015
Português
Relevância na Pesquisa
37.258804%
#Agrupamento de regras de associação#Association rule clustering#Dimensionality reduction#Extração de tópicos#Mineração de textos#Redução de dimensionalidade#Topic extraction
Uma representação estruturada dos documentos em um formato apropriado para a obtenção automática de conhecimento, sem que haja perda de informações relevantes em relação ao formato originalmente não-estruturado, é um dos passos mais importantes da mineração de textos, pois a qualidade dos resultados obtidos com as abordagens automáticas para obtenção de conhecimento de textos estão fortemente relacionados à qualidade dos atributos utilizados para representar a coleção de documentos. O Modelo de Espaço de Vetores (MEV) é um modelo tradicional para obter uma representação estruturada dos documentos. Neste modelo, cada documento é representado por um vetor de pesos correspondentes aos atributos do texto. O modelo bag-of-words é a abordagem de MEV mais utilizada devido a sua simplicidade e aplicabilidade. Entretanto, o modelo bag-of-words não trata a dependência entre termos e possui alta dimensionalidade. Diversos modelos para representação dos documentos foram propostos na literatura visando capturar a informação de relação entre termos, destacando-se os modelos baseados em frases ou termos compostos, o Modelo de Espaço de Vetores Generalizado (MEVG) e suas extensões, modelos de tópicos não-probabilísticos...
Link permanente para citações:
‣ Graph-driven features extraction from microarray data
Fonte: Universidade Cornell
Publicador: Universidade Cornell
Tipo: Artigo de Revista Científica
Publicado em 17/06/2002
Português
Relevância na Pesquisa
47.015605%
#Physics - Biological Physics#Physics - Data Analysis, Statistics and Probability#Quantitative Biology - Molecular Networks
Gene function prediction from microarray data is a first step toward better
understanding the machinery of the cell from relatively cheap and
easy-to-produce data. In this paper we investigate whether the knowledge of
many metabolic pathways and their catalyzing enzymes accumulated over the years
can help improve the performance of classifiers for this problem.
The complex network of known biochemical reactions in the cell results in a
representation where genes are nodes of a graph. Formulating the problem as a
graph-driven features extraction problem, based on the simple idea that
relevant features are likely to exhibit correlation with respect to the
topology of the graph, we end up with an algorithm which involves encoding the
network and the set of expression profiles into kernel functions, and
performing a regularized form of canonical correlation analysis in the
corresponding reproducible kernel Hilbert spaces.
Function prediction experiments for the genes of the yeast S. Cerevisiae
validate this approach by showing a consistent increase in performance when a
state-of-the-art classifier uses the vector of features instead of the original
expression profile to predict the functional class of a gene.; Comment: 31 pages, 2 figures
Link permanente para citações: