this study was financied in part by the coordenação de
TRANSCRIPT
This study was financied in part by the Coordenação de Aperfeiçoamento dePessoal de Nível Superior - Brasil (CAPES) – Finance Code 001
Sistema de geração automática de ficha catalográfica da UFSM. Dados fornecidos pelo autor(a). Sob supervisão da Direção da Divisão de Processos Técnicos da Biblioteca Central. Bibliotecária responsável Paula Schoenfeldt Patta CRB 10/1728.
Declaro, VANESSA CASSENOTE, para os devidos fins e sob as penas da lei,que a pesquisa constante neste trabalho de conclusão de curso(Dissertação) foi por mim elaborada e que as informações necessáriasobjeto de consulta em literatura e outras fontes estão devidamentereferenciadas. Declaro, ainda, que este trabalho ou parte dele não foiapresentado anteriormente para obtenção de qualquer outro grauacadêmico, estando ciente de que a inveracidade da presente declaraçãopoderá resultar na anulação da titulação pela Universidade, entre outrasconsequências legais.
Cassenote, Vanessa Uma metodologia para detecção de sonolência em temporeal com EEG vestível com duas derivações / VanessaCassenote.- 2020. 62 p.; 30 cm
Orientador: Cesar Ramos Rodrigues Coorientador: Cesar Augusto Prior Dissertação (mestrado) - Universidade Federal de SantaMaria, Centro de Tecnologia, Programa de Pós-Graduação emCiência da Computação , RS, 2020
1. EEG Vestível 2. Processamento de Sinais 3.Aprendizado de Máquina I. Ramos Rodrigues, Cesar II.Prior, Cesar Augusto III. Título.
AGRADECIMENTOS
Agradeço a todos que fizeram parte da minha vida em algum momento durante
esses dois anos e que com certeza contribuíram para o meu crescimento de uma forma
ou de outra. Em especial ao professor Cesar Ramos Rodrigues pela orientação neste
trabalho, pela paciência e por me corrigir quando necessário e, ao professor Cesar Augusto
Prior pela coorientação, apoio e incentivo desde a graduação. Agradeço também aos
professores Ana Trindade Winck e Daniel Welfer por aceitarem fazer parte da banca de
avaliação deste trabalho e contribuir para o aperfeiçoamento do mesmo.
Agradeço ainda, aos meus colegas da sala 286, especialmente ao Cesar Abascal
e ao Victor O. Costa, pelas discussões e parceria. Agradeço também, ao Rafael Follmann
Faccenda e ao Vinícius Lopes por todas as conversas, risadas e parceria nas sextas e
sábados enriquecedores do PEG e, a Maira Bolfe e o Fabrício M. Bottega pelos bolos,
companheirismo e amizade durante todos os anos que moramos juntos.
Por fim, agradeço as pessoas que mais me motivaram e me apoiaram para que
eu conseguisse chegar até a finalização deste trabalho, meus pais: Marilene Felipetto
Cassenote e Otacilio Manuel Cassenote e, o meu namorado Sandro Sartori Meneghetti.
Agradeço ainda, a Capes pelo apoio financeiro.
RESUMO
UMA METODOLOGIA PARA DETECÇÃO DE SONOLÊNCIA EM TEMPOREAL COM EEG VESTÍVEL COM DUAS DERIVAÇÕES
AUTOR: Vanessa CassenoteORIENTADOR: Cesar Ramos RodriguesCOORIENTADOR: Cesar Augusto Prior
A vida moderna exige, muitas vezes, que o sujeito modifique seu ciclo circadiano devido a
sua profissão. Esta mudança implica em baixa no desempenho, mau humor e, principal-
mente, redução da capacidade de atenção e sonolência em horários inoportunos. Segundo
a OMS, cerca de 1.35 milhões de pessoas morrem por ano em acidentes no trânsito. As-
sim, neste trabalho foi proposta uma metodologia para detecção de sonolência em tempo
real, com o objetivo de ajudar a minimizar o problema citado. A metodologia proposta extrai
Alfa, Teta, Beta e Gama através da transformada Wavelet de Haar e compara performan-
ces dos classificadores: MLP, KNN, LDA, RF, SVM e um Threshold. Todas as análises
realizadas utilizaram sinais de um banco de dados público. Para que se possa avaliar a
metodologia em um ambiente mais realista, parte dos sinais foram separados e através
de um experimento, foram adquiridos por um EEG vestível. A partir disso, analisou-se o
sinal adquirido e as performances dos classificadores para estes sinais. Além disso, foram
avaliadas também as performances dos classificadores para todas as amostras (sem a
leitura pelo EEG) e diferentes tamanhos de épocas, sendo uma época de 10 s com janela
deslizante de 3 s a melhor, onde obteve-se sensibilidade de 95% com uma SVM.
Palavras-chave: EEG Vestível, Processamento de Sinais, Aprendizado de Máquina
ABSTRACT
A METHODOLOGY FOR DROWSINESS DETECTION IN REAL-TIMEWITH WEARABLE EEG WITH TWO DERIVATIONS
AUTHOR: Vanessa CassenoteADVISOR: Cesar Ramos RodriguesCO-ADVISOR: Cesar Augusto Prior
Modern life often requires the subject to modify his circadian cycle due to his profession.
This change implies low performance, bad mood and, mainly, reduced attention and, drow-
siness at unsuitable times. According to the WHO, about 1.35 million people die each year
in traffic accidents. Thus, this work proposes a methodology for detecting drowsiness in
real time, with the aim of helping to minimize the problem mentioned. The proposed metho-
dology extracts Alpha, Theta, Beta and Gamma through the Haar Wavelet transform and
compares performances of the classifiers: MLP, KNN, LDA, RF, SVM and a Threshold. All
analyzes performed used signals from a public database. In order to be able to evaluate
the methodology in a more realistic environment, part of the signals were separated and
through an experiment, they were acquired by a wearable EEG. From there, the acquired
signal and the classifier performances for these signals were analyzed. In addition, the
performances of the classifiers for all samples (without EEG aquisition) and different epoch
sizes were also evaluated, being a 10 s epoch with a sliding window of 3 s the best, where
a sensitivity of 95% was obtained with an SVM.
Keywords: Wearable EEG, Signal Processing, Machine Learning
LISTA DE FIGURAS
Figura 2.1 – Sistema 10-20 de posicionamento de eletrodos pela Federação Interna-cional de Neurofisiologia Clínica. (A), (B) e (C) ilustram três mudançasdistintas no EEG associadas à redução da vigília e a caixa rosa ilustra asalterações observadas pelos picos nas membranas neuronais, quandoadquiridas por eletrodos intra-célula, em direção à superfície do escalpo. 14
Figura 2.2 – Parte do sinal da segunda noite de gravação do sujeito 00, com anotaçõesde hipnogramas (W - acordado, 1 - primeiro estágio de sono, 2 - segundoestágio de sono, 3 - terceiro estágio de sono, 4 - quarto estágio de sono). 17
Figura 2.3 – EEG Vestível. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18Figura 2.4 – Tipos de funções Wavelet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20Figura 2.5 – DWT de Haar para um sinal em 4 níveis de decomposição. A são os
vetores de médias ou aproximação e D os vetores de detalhes. . . . . . . . . 22Figura 2.6 – Fluxo geral de um problema de classificação. . . . . . . . . . . . . . . . . . . . . . . . . . . . 24Figura 2.7 – Redes Neurais - feed-forward multi-layer perceptron (MLP). . . . . . . . . . . . . . 25Figura 2.8 – Maximização da margem com as Máquinas de Vetores de Suporte (SVM). 26Figura 2.9 – Mudança de dimensão das Máquinas de Vetores de Suporte (SVM). . . . . 27Figura 2.10 – Classificador k-Vizinhos mais Próximos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28Figura 2.11 – Classificador florestas aleatórias. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29Figura 2.12 – Exemplo de um problema com duas classes, considerando um pro-
blema desbalanceado. Amostras oriundas do Physionet, sendo a classeP amostras anotadas como "S1" e "S2" e a classe N como "W". Sãocalculadas a Sensibilidade (Sen), Especificidade (Esp) e Acurácia (Acc). 30
Figura 4.1 – Fluxograma com a separação dos dados utilizados e as análises realizas. 37Figura 4.2 – Fluxograma geral de processamento com EEG vestível. . . . . . . . . . . . . . . . . 39Figura 4.3 – Fluxograma geral de processamento para comparação com sinais adqui-
ridos pelo EEG vestível. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39Figura 5.1 – A figura mostra os resultados de sensibilidade, especificidade e acurácia
para os sinais do grupo de teste e validação para cada classificador. Osresultados com o sufixo "_EEG" correspondem ao experimento TPEEG. . 42
Figura 5.2 – A figura mostra parte do sinal do primeiro dia de gravação do sujeito 5. Oprimeiro gráfico compara a FFT do sinal original e, este após ser lido peloEEG vestível. O segundo gráfico mostra o sinal no domínio do tempo. Eo último gráfico mostra uma aproximação do anterior. . . . . . . . . . . . . . . . . . . . 44
Figura 5.3 – A figura mostra os ritmos cerebrais Teta, Alfa, Beta e Gama, para parte dosinal do primeiro dia de gravação do sujeito 5. A primeira linha de gráficosmostra cada ritmo para o sinal original do banco de dados e a segunda, omesmo sinal após aquisição pelo EEG vestível . . . . . . . . . . . . . . . . . . . . . . . . . 44
Figura 5.4 – As figuras mostram os resultados de sensibilidade, especificidade e acu-rácia para cada um dos classificadores, com todas as amostras dos gru-pos de teste e validação. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
LISTA DE TABELAS
Tabela 2.1 – Filtros não-normalização e normalizados para a DWT de Haar. . . . . . . . . . 22Tabela 2.2 – Principais características dos estudos revisados. . . . . . . . . . . . . . . . . . . . . . . . 32Tabela 4.1 – Especificações de software usados em Python 2.7 e biblioteca sklearn
0.20.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40Tabela 5.1 – Tempo médio de processamento para cada época de 30 segundos. . . . . 45Tabela 5.2 – Tempo médio de processamento para cada época de 10 s com janela
deslizante de 5s. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45Tabela 5.3 – A tabela mostra os resultados de acurácia, sensibilidade e especifici-
dade para uma época de 10 segundos com uma janela deslizante de 5segundos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
Tabela 5.4 – São apresentadas as principais características dos trabalhos relaciona-dos e, os resultados encontrados para RF, SVM e o Threshold, utilizandouma época de 10 s com janela deslizante de 5 s. . . . . . . . . . . . . . . . . . . . . . . . . 49
Tabela A.1 – Resultados de acurácia, sensibilidade e especificidade para todos osclassificadores e todos dados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
Tabela B.1 – A tabela mostra os resultados de acurácia, sensibilidade e especificidadepara cinco tamanhos de épocas diferentes, utilizando o RF. . . . . . . . . . . . . . . 60
Tabela B.2 – A tabela mostra os resultados de acurácia, sensibilidade e especificidadepara cinco tamanhos de épocas diferentes, utilizando a SVM. . . . . . . . . . . . 61
Tabela B.3 – A tabela mostra os resultados de acurácia, sensibilidade e especificidadepara cinco tamanhos de épocas diferentes, utilizando o Threshold. . . . . . . 62
LISTA DE QUADROS
Quadro 2.1 – Os 5 principais ritmos cerebrais e as faixas de frequência corresponden-tes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
Quadro 2.2 – Matriz de confusão para duas variáveis (positivo (P) e negativo (N)). . . . 30Quadro 5.1 – Número de épocas de 30 s para os grupos de teste e validação. . . . . . . . 45
LISTA DE ABREVIATURAS E SIGLAS
EEG Eletroencefalograma/eletroencefalografia
PSG Polissonógrafo/polissonografia
R&K Rechtschaffen e Kales
REM Movimento rápido dos olhos
NREM Movimento não-rápido dos olhos
S1 Estágio de sono 1
S2 Estágio de sono 2
S3 Estágio de sono 3
S4 Estágio de sono 4
W Estágio acordado
DWT Transformada wavelet discreta
PSD Espectro de frequência
MLP Multi-layer perceptron
KNN K-vizinhos mais próximos
LDA Linear discriminant analysis
RF Florestas aleatórias
SVM Máquinas de vetores de suporte
OMS Organização mundial da saúde
SUMÁRIO
1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 FUNDAMENTAÇÃO TEÓRICA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.1 SINAIS DE EEG .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.2 BASE DE DADOS SLEEP EDF [EXPANDED] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162.3 EEG VESTÍVEL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172.4 PRÉ-PROCESSAMENTO .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182.5 TRANSFORMADA WAVELET DISCRETA (DWT) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192.5.1 Transformada wavelet de HAAR discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202.6 EXTRAÇÃO DE ATRIBUTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222.7 CLASSIFICAÇÃO .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232.7.1 Redes Neurais Artificiais (ANN) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242.7.2 Máquinas de Vetores de Suporte (SVM). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262.7.3 k-Vizinhos mais Próximos (kNN) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262.7.4 LDA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282.7.5 Florestas Aleatórias (RF) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282.7.6 Threshold . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292.7.7 Métricas de Avaliação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303 REVISÃO DE LITERATURA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.1 ESTUDOS UTILIZANDO BASES DE DADOS PÚBLICAS . . . . . . . . . . . . . . . . . . . . . . . . . 333.2 ESTUDOS QUE INCLUEM A AQUISIÇÃO DE DADOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343.3 TRABALHOS RELACIONADOS E PROPOSTA DO TRABALHO .. . . . . . . . . . . . . . . . . 364 MATERIAIS E MÉTODOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374.1 EXPERIMENTO PARA AQUISIÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384.2 ESPECIFICAÇÕES DE HARDWARE E SOFTWARE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405 RESULTADOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415.1 PERFORMANCE EM TEMPO REAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415.2 ANÁLISE DO SINAL DO EEG VESTÍVEL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435.3 PERFORMANCE PARA TODAS AS AMOSTRAS E TAMANHOS DE ÉPOCAS . . 435.4 DISCUSSÃO .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 476 CONCLUSÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 506.1 TRABALHOS FUTUROS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
REFERÊNCIAS BIBLIOGRÁFICAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51APÊNDICE A – RESULTADOS PARA TODAS AS AMOSTRAS . . . . . . . . . . . . . . . . 57APÊNDICE B – RESULTADOS PARA DIFERENTES TAMANHOS DE ÉPOCAS 60
1 INTRODUÇÃO
O estudo moderno do sono vem sendo realizado desde 1930, sendo a principal ra-
zão da sua evolução, a invenção do eletroencefalograma (EEG), equipamento o qual faz
a leitura de sinais elétricos do cérebro. A partir deste equipamento pode-se fazer o diag-
nóstico de diversas doenças neurológicas como: epilepsia, apneia, narcolepsia, insônia
e muitas outras (ŠUŠMÁKOVÁ, 2004). A análise do sinal de EEG para diagnóstico de
condições neurológicas é uma tarefa que consome tempo e exige profissionais treinados
(ACHARYA et al., 2012). Devido a isso, estão sendo realizados diversos estudos buscando
automatizar a detecção de padrões nestes sinais, com o objetivo de auxiliar o profissional
da saúde. Bajaj e Pachori (2013), Zhu, Li e Wen (2014), Rodríguez-Sotelo et al. (2014),
Hassan, Bashar e Bhuiyan (2015), Diykh e Li (2016) desenvolveram metodologias para
detecção dos estágios do sono, o que auxilia na caracterização de diversos distúrbios do
sono.
Os estágios de sono e o estado acordado são regulados pelo ciclo circadiano, um
processo interno que dura em torno de 24 horas. Estes estágios estão relacionados às
mudanças fisiológicas na atividade cerebral, do sono mais leve ao sono mais profundo
(JALILIFARD; PIZZOLATO, 2016). Porém, devido à vida moderna, algumas profissões da
área de transporte, assistência médica, indústrias de manufatura, serviço militar, aviação
e muitos outros serviços, exigem que o sujeito modifique seu ciclo circadiano devido aos
turnos de trabalho. Essa mudança pode afetar o desempenho, o humor e, principalmente, a
redução da atenção quando acordado. A sonolência em motoristas no ramo de transporte
é uma situação muito séria e acredita-se que esteja ligada a diversos acidentes de trânsito
(LAL; CRAIG, 2001). Segundo os dados da organização mundial da saúde, cerca de 1.35
milhões de pessoas morrem por ano em acidentes de trânsito (OMS, 2018). Entre 2011 e
2015, o National Highway Traffic Safety Administration (NHTSA) reportou que 2.3% a 2.5%
de todos os acidentes de carro fatais, envolveram motoristas adormecidos (NHTSA, 2017).
Esses números podem ser muito maiores em outros países, por exemplo, em torno de 20%
no Brasil (ABN, 2017).
Assim, um sistema para monitoramento do motorista com o objetivo de identificar
sonolência pode ajudar a minimizar este problema. Ao realizarmos uma revisão do tema,
podemos identificar três abordagens principais. A primeira é baseada nos parâmetros do
veículo, ou seja, na velocidade do carro, na posição do carro na pista, posição da direção,
pressão no acelerador, etc (BALANDONG et al., 2018). Muitos estudos mostraram que
esta técnica não é eficaz para detectar sonolência, já que as variações medidas não ne-
cessariamente foram causadas pela sonolência, mas podem ter sido causadas por outros
fatores, como as características da própria rua, por exemplo (SAHAYADHAS; SUNDARAJ;
MURUGAPPAN, 2012). A segunda técnica é através do monitoramento do motorista uti-
12
lizando câmeras. A partir do processamento das imagens são avaliadas a posição da
cabeça, piscadas do olhos, bocejo, direção do olhar, etc. Apesar desta técnica ter me-
lhorado muito nos últimos anos, a variação de luminosidade ainda é um grande problema
na detecção de sonolência (BALANDONG et al., 2018). Além disso, o sistema tende a
ter problemas também com pessoas que usam óculos ou que possuem barba (ASSARI;
RAHMATI, 2011). O terceiro método se baseia na medição de sinais fisiológicos do sujeito.
Equipamentos como o eletrocardiograma (ECG), eletrooculograma (EOG), eletroencefa-
lograma (EEG) e a Espectrografia Funcional de Infravermelho Próximo (fNIRS) já foram
investigados para detecção de sonolência (AHN et al., 2016). O EEG já vem sendo uti-
lizado para diversas soluções de Interface Cérebro-Máquina (do inglês Brain Computer
Interface - BCI) e tem se mostrado uma ótima ferramenta para solucionar alguns tipos de
problemas, como o controle de próteses (GUGER et al., 2003; FABIANI et al., 2004) e
pacientes com dificuldades motoras diversas (GUGER et al., 2001). O estudo baseado em
sinais fisiológicos permite uma detecção da sonolência o mais próximo possível da fonte.
Além de que, um sistema baseado nesta técnica pode ser utilizado em outros ambientes
de trabalho que exigem atenção constante, não somente no trânsito.
Assim, este trabalho propõe uma técnica para detecção de sonolência utilizando
sinais de EEG para uma aplicação em tempo real, tendo os seguintes objetivos específicos:
• Realizar uma revisão de literatura de estudos para detecção de sonolência que utili-
zem somente sinais de EEG;
• Buscar trabalhos que utilizem equipamentos portáteis para aquisição do sinal de
EEG;
• Estabelecer um procedimento para simular aquisição e processamento do sinal de
EEG em tempo real;
• Avaliar a performance dos sinais do banco de dados após serem adquiridos pelo
EEG vestível;
• Comparar o desempenho dos principais algoritmos de aprendizado de máquina utili-
zados na classificação da sonolência;
• Apresentar análise dos resultados encontrados, utilizando métricas de avaliação e
comparando com outros trabalhos.
O texto esta organizado da seguinte forma: o capítulo 1 apresentou a introdução
ao tema, em seguida o capítulo 2 apresenta a fundamentação teórica, sendo as técnicas
para o pré-processamento, extração de atributos, classificação e métricas de avaliação. O
capítulo 3 apresenta a revisão de literatura e a proposta do trabalho. Na sequência, são
detalhados os materiais e métodos no capítulo 4, os resultados no capítulo 5 e, por fim as
conclusões são expressas no capítulo 6.
2 FUNDAMENTAÇÃO TEÓRICA
2.1 SINAIS DE EEG
O principal exame utilizado na investigação dos distúrbios do sono é a polissono-
grafia (PSG), a qual é muito utilizada no diagnóstico e tratamento de doenças. A PSG
consiste em realizar três medidas principais: a mudança gradual do tônus muscular com o
eletromiograma (do inglês Electromyogram - EMG), o movimento dos olhos com o eletro-
culograma (do inglês Electrooculogram - EOG), e as variações dos ritmos cerebrais com o
eletroencefalograma (do inglês Electroencephalogram - EEG) (CARSKADON; DEMENT et
al., 2005).
Sahayadhas, Sundaraj e Murugappan (2005) citam a descrição de mecanismos
que mediam as transições entre o estado acordado e o sono como um flip-flop eletrônico.
Grupos de neurônios localizados no hipotálamo interagem através de um mecanismo de
equilíbrio direto inibitório. O núcleo pré-óptico ventrolateral (do inglês Ventrolateral Pre-
optic Nucleous - VLPO), na região anterior do hipotálamo, desempenha o papel de inibir
a atividade das células monoaminérgicas encontradas no terço posterior do hipotálamo
(núcleo tuberomamilar). Os neurônios VLPO desencadeiam o estado de sono liberando
GABA e galanina. Estes neurotransmissores têm o efeito de diminuir as taxas de disparo
dos neurônios monoaminérgicos, cujos valores mais altos estão associados ao estado de
alerta.
No entanto, o EEG é uma técnica que detecta a atividade elétrica geral nos gru-
pos de células cerebrais mais externas, sendo incapaz de captar sinais gerados em suas
estruturas internas. Assim, a identificação de sonolência por meio de eletrodos de EEG
só é possível porque os núcleos intralaminar do tálamo contêm neurônios talamocorticais
que enviam projeções por todo o córtex. Dessa forma, o cabo de guerra contínuo en-
tre sono e excitação que ocorre no tronco cerebral controla o estado mental, modulando
a ritmicidade dessas interações talamocorticais (PURVES et al., 2017). A ativação dos
neurônios talamocorticais os leva a liberar aminoácidos excitatórios, como aspartato e glu-
tamato, contribuindo assim para a excitação do córtex, que mantém o indivíduo acordado.
Durante o estado acordado, esses neurônios geram potenciais de ação isolados em inter-
valos regulares, mas, à medida que o indivíduo adormece, esses neurônios começam a
disparar em rajadas, fazendo com que o córtex exiba o padrão de EEG sincronizado típico
do sono (PURVES et al., 2017). Quando vistos a partir de eletrodos de EEG, ou seja, vá-
rios milímetros acima da superfície cortical, a atividade de pico de conjunto dos neurônios
da superfície cortical acumula potenciais de campo que são detectados pelos eletrodos no
escalpo como as ondas e complexos característicos que orientam os eletroencefalógrafos
14
na interpretação do EEG. A correspondência da atividade neuronal captada por eletrodos
de EEG no escalpo, superfície do córtex e no nível celular é mostrada no canto superior
direito da Fig. 2.1. Esta figura mostra também o posicionamento dos eletrodos através do
escalpo de acordo com o sistema 10-20 de posicionamento (regiões do cérebro: F-frontal,
T-temporal, C-central, P-parietal, O-occipital).
Schomer e Silva (2011) apontam que o nível de vigilância oscila durante os registros
de vigília, onde episódios curtos e leves de sonolência são muito comuns. Como mostrado
nas caixas amarelas (A) da Fig. 2.1, o início da sonolência em adultos é caracterizado
por uma queda do ritmo alfa (marcado pelas linhas verticais azuis). Esse evento é mais
proeminente na região occipital. Enquanto a sonolência se aprofunda, oscilações lentas
começam a predominar em todas as regiões. A sonolência profunda é então descrita
por duas características comuns, também representadas na Fig. 2.1 (B): As ondas do
vértice (spindles), mostradas nas caixas azuis, têm magnitudes maiores nos eletrodos
CZ e PZ (KIM et al., 2012) e (C) Os transitórios pontuais positivos do sono (do inglês
Positive Occipital Sharp Transients of Sleep - POSTS), apresentados na caixa verde, são
observados durante a sonolência profunda e o sono leve. Os POSTS foram descritos pela
primeira vez por Gibbs e Gibbs (PURVES et al., 2017) como ondas positivas do tipo spike
nas áreas occipitais.
Figura 2.1 – Sistema 10-20 de posicionamento de eletrodos pela Federação Internaci-onal de Neurofisiologia Clínica. (A), (B) e (C) ilustram três mudanças distintas no EEGassociadas à redução da vigília e a caixa rosa ilustra as alterações observadas pelos pi-cos nas membranas neuronais, quando adquiridas por eletrodos intra-célula, em direção àsuperfície do escalpo.
(A)
EEG
Cortex Surf.
Intra-cell
Cortex Surf.
(B)(B)
Fonte: Adaptado de (BODY, 2015; SCHOMER; SILVA, 2012)
15
O sinal de EEG tem largura de banda entre 0.5 e 150 Hz e amplitudes da ordem de
100 µV (YAZICIOGLU et al., 2008). A Figura 2.1 mostra o posicionamento dos eletrodos
pelo escalpo de acordo com o padrão do sistema 10-20. No estudo do sono existem duas
principais regras para gravação e interpretação dos sinais de EEG. A primeira desenvolvida
por Rechtschaffen and Kales (R&K) em 1968, diz que o sono é dividido em REM (do inglês,
Rapid Eye Movement) e NREM (do inglês, Non-rapid Eye Movement), além do estado
acordado e o "movement time". O REM é a fase onde acontecem os sonhos, o movimento
rápido dos olhos e a perda do tônus muscular (LU et al., 2006). Já o NREM é dividido em
4 estágios de sono, do mais leve para o mais profundo (S1, S2, S3 e S4). Os estágios S3
e S4 são conhecidos como sono de ondas lentas (SWS) e o "moviment time"representa os
movimentos do corpo que não fazem parte dos estágios de sono (ŠUŠMÁKOVÁ, 2004).
Em 2007, a American Academy of Sleep Medicine (AASM) realizou algumas mudanças
nestas regras. Os estágios de sono mudaram para a nomenclatura de N1, N2 e N3, sendo
que N3 é uma junção de S3 e S4, por terem características semelhantes, além de que,
REM passou a se chamar R e o "movement time" foi abolido. Além disso, diversas outras
recomendações para a aquisição da polissonografia também foram alteradas (MOSER et
al., 2009).
Variações na atividade cerebral são expressas através de cinco principais ritmos
cerebrais: Delta, Teta, Alfa, Beta e Gama. O ritmo delta é encontrado entre 0.5 Hz e
4 Hz e está presente principalmente em sono profundo, mas também pode aparecer no
estado acordado. O teta aparece entre 4 Hz e 7.5 Hz, este representa a transição em dire-
ção a sonolência, meditação profunda e quando aparece em grande escala em um adulto
acordado pode representar alguma patologia. Já o ritmo alfa varia entre as frequências
de 8 Hz e 13 Hz. Este ritmo aparece na parte posterior da cabeça e esta ligado a falta
de atenção e concentração, além de ser mais proeminente quando o sujeito esta com os
olhos fechados. Este é o ritmo que mais aparece na atividade cerebral. Entre 14 e 26 Hz
pode ser encontrado o ritmo beta, que ao contrário de alfa representa pensamento ativo,
atenção, foco e resolução de problemas. Um nível muito alto de beta acontece quando o
sujeito está em estado de pânico. Este ritmo aparece na região frontal e, principalmente,
central da cabeça. As frequências acima de 30 Hz são chamadas de gama e são utili-
zadas no diagnóstico de certas doenças no cérebro, podendo ser um bom indicativo de
sincronização associado a eventos (do inglês, Event-related Synchronization - ERS) (SA-
NEI; CHAMBERS, 2007). O quadro 2.1 resume a associação das faixas de frequência e
cada ritmo cerebral.
16
Quadro 2.1 – Os 5 principais ritmos cerebrais e as faixas de frequência correspondentes.
Ritmo Faixas de Frequência
Delta (δ) 0.5 Hz - 4 Hz
Teta (θ) 4 Hz - 7.5 Hz
Alfa (α) 8 Hz - 13 Hz
Beta (β) 14 Hz - 26 Hz
Gama (γ) 30 Hz - 100 Hz
Fonte: (SANEI; CHAMBERS, 2007)
2.2 BASE DE DADOS SLEEP EDF [EXPANDED]
A plataforma PhysioNet disponibiliza sinais biomédicos com o intuito de estimular
novas pesquisas. Muitas vezes os pesquisadores não tem acesso a dados de qualidade,
corretamente validados por profissionais, além de que, a disponibilização de dados publica-
mente, possibilita que comparações entre trabalhos sejam realizadas, evitando pesquisas
redundantes e contribuindo com o crescimento da pesquisa. Esta plataforma possui o
banco de dados PhysioBank com mais de 75 bases de dados, sendo uma delas a Sleep
EDF [Expanded]. Os dados contidos nesta base foram obtidos de 10 homens e 10 mu-
lheres com idades entre 25 e 34 anos, sem uso de medicação relacionada ao sono. Os
sinais foram adquiridos pelos canais Fpz-Cz e Pz-Oz com uma taxa de amostragem de
100 Hz. Nesse trabalho somente os dados da derivação Pz-Oz foram utilizados dado que
ele fornece melhores resultados de classificação para problemas de análise de sonolência
(ZHU; LI; WEN, 2014).
Para cada um dos 20 sujeitos foram gravadas duas noites de sono, resultando em
39 arquivos de sinais, sendo que a gravação da segunda noite do sujeito 13 foi perdida.
Assim, para este estudo foram utilizados os arquivos de 19 voluntários para que se tenha
aproximadamente a mesma quantidade de amostras para cada sujeito. Os arquivos são
nomeados da seguinte forma: SC4ssN, sendo ss o número do sujeito e N a 1a ou 2a noite
de gravação, cada noite de gravação possui em torno de 20 horas de sinal. Além dos
arquivos de sinais, o PhysioNet também disponibiliza arquivos de anotações dos sinais,
realizadas por profissionais. Estes arquivos são chamados hypnogramas e eles contém
anotações dos estágios de sono do sujeito a cada faixa de tempo ou época de 30 se-
gundos (s). Considerando a frequência de amostragem de 100 Hz, uma época de 30 s é
equivalente a 3000 de dados, portando uma linha do arquivo de hypnograma corresponde
a 3000 pontos de dados lidos pelo EEG. A aquisição foi realizada com base em R&K, as-
sim as anotações que podem ser encontradas são: acordado (W), estágio 1 (S1), estágio
2 (S2), estágio 3 (S3), estágio 4 (S4), movimento rápido do olhos (REM), "tempo de mo-
17
vimento" ou "não classificado" (GOLDBERGER et al., 2000). A Fig. 2.2 mostra parte do
sinal do sujeito 00 assim como os hipnogramas correspondentes para cada faixa do sinal.
Figura 2.2 – Parte do sinal da segunda noite de gravação do sujeito 00, com anotações dehipnogramas (W - acordado, 1 - primeiro estágio de sono, 2 - segundo estágio de sono, 3 -terceiro estágio de sono, 4 - quarto estágio de sono).
Fonte: Adaptado de (GOLDBERGER et al., 2000).
2.3 EEG VESTÍVEL
O equipamento da Myndplay é um EEG vestível com dois eletrodos frontais, os
quais correspondem ao FP1 e FP2 e um eletrodo auricular (A1) para referência (Fig. 2.3).
Com ele é possível captar o sinal raw, além das bandas filtradas em: delta, teta, low alfa,
high alfa, low beta, high beta, low gama, high gama e mid gama. Através desses sinais,
o equipamento também estima a atenção e meditação do usuário. Os sinais adquiridos a
uma taxa de amostragem de 512 Hz são enviados via bluetooth, permitindo mobilidade ao
usuário (MYNDPLAY, 2011).
18
Figura 2.3 – EEG Vestível.
Fonte: Autora.
2.4 PRÉ-PROCESSAMENTO
O processamento do sinal é realizado por épocas (ou faixas de tempo), e não do
sinal completo. Como mencionado anteriormente, por R&K existem 4 estágios de sono
além do estado acordado e do REM, e esta foi a metodologia empregada pelo PhysioNet
para gravar os sinais utilizados neste trabalho. Existem variações entre os trabalhos para
detecção de sonolência, quanto à escolha do estágio de sono que melhor representa a
sonolência. (SILVEIRA; KOZAKEVICIUS; RODRIGUES, 2015) utilizou o primeiro estágio
de sono (N1) e criou uma classe intermediária entre acordado e N1. Porém, grande parte
dos trabalhos utiliza somente o primeiro estágio de sono (BELAKHDAR et al., 2018; COR-
REA; OROSCO; LACIAR, 2014; PATRICK et al., 2016). Ainda assim, S1 e S2 são ambos
considerados sono leve, e segundo as novas regras criadas pela AASM, citadas anteri-
ormente, muitas épocas anotadas previamente como S2 na nova regra se tornaram N1.
Assim, neste trabalho o estágio de sonolência é composto pelos estágios S1 e S2, sendo
então excluídas todas as épocas que não correspondem a estes estágios.
Além disso, considerando que o EEG vestível adquire os sinais a uma taxa de 512
Hz e o sinal original foi adquirido a 100 Hz, é necessário realizar uma re-amostragem do
sinal após a aquisição, para que se possa utilizar a mesma transformada wavelet, na seção
2.5 são detalhadas as razões para isto. Esta etapa acaba adicionando uma parcela de erro
aos dados, já que idealmente deveria-se ter uma nova amostra a cada 5,12 pontos. Ainda,
19
para um sistema de aplicação real, é necessário que haja um monitoramento periódico do
sujeito e, em muitos casos, 30 segundos pode ser um tempo muito grande. Assim, foram
realizados análises variando o tamanho da época, sendo estas: épocas de 10 s, de 5 s,
épocas de 10 s com janela deslizante de 1 s e épocas de 10 s com janelas deslizantes de
5 s.
2.5 TRANSFORMADA WAVELET DISCRETA (DWT)
As wavelets são funções, seguindo alguns requisitos matemáticos, utilizadas como
base para representação de outras funções, assim como os senos e cossenos são as
bases para a decomposição por Fourier, ou seja, uma função pode ser escrita em termos
de funções wavelets. Após definida a mother wavelet são calculadas as translações e
dilatações desta wavelet, a partir de
ψ(x) = ψ(x− b
a), (a, b) ∈ R+XR,
variando a e b. Estas escolhas conectam as wavelets com análise de multirresolu-
ção em processamento de sinais.
A transformada de Fourier é localizada em frequência mas não no tempo, peque-
nas mudanças do sinal em frequência geram grandes mudanças do sinal no tempo. Já as
wavelets são localizadas tanto no tempo (translações) quanto em frequência/escala (dila-
tações), o que é uma vantagem para diversos casos, já que é possível saber "quando" no
tempo aquelas frequências estão acontecendo. O fator de escala representa o processo de
alongar ou encolher uma função no tempo e ele é inversamente proporcional à frequência.
Uma wavelet alongada ajuda a encontrar mudanças que variam lentamente em um sinal,
enquanto a wavelet comprimida ajuda a capturar mudanças abruptas. Já a translação é
quando o início da função é atrasado ou adiantado para que a wavelet fique alinhada com
uma característica específica que se está buscando no sinal.
Além disso, as wavelets tendem a ser mais eficientes em relação à Fourier na aná-
lise de sinais não-periódicos e que contenham mudanças abruptas, como é o caso dos
sinais de EEG, e a representação destes picos normalmente utiliza uma quantidade maior
de senos e cossenos do que de funções wavelets para atingir uma aproximação seme-
lhante. Estas características fazem das wavelets excelentes ferramentas para problemas
de compressão de imagens, por exemplo (VIDAKOVIC; MUELLER, 1994). A Fig. 2.4 mos-
tra vários tipos de wavelets.
20
Figura 2.4 – Tipos de funções Wavelet.
Fonte: (AL-GEELANI; PIAH; BASHIR, 2015)
2.5.1 Transformada wavelet de HAAR discreta
A Wavelet de Haar é a primeira e, por isso, a mais simples das wavelets, além de,
possuir baixo custo computacional. Esta, é muito utilizada para compressão de imagens
(MULCAHY, 1997; RAVIRAJ; SANAVULLAH, 2007; BHARDWAJ; ALI, 2009), mas tam-
bém já foi utilizada para diagnóstico e detecção de epilepsia (FAUST et al., 2015), apneia
do sono (KERMIT et al., 2000) e detecção de sonolência (LEE; LEE; CHUNG, 2014). A
transformada wavelet discreta de Haar (do inglês Haar Discrete Wavelet Transform - Haar
DWT), é ilustrada a partir do exemplo a seguir.
Considerando um vetor unidimensional de tamanho 2j = 22,
Cj = C2 = [2 0 1 9].
São calculados os valores médios, dois a dois, de acordo com,
Cj−1,i =Cj,2i + Cj,2i+1
2, (2.1)
sendo i = 0, 1, 2, ..., 2j−1 a posição do novo vetor de informações médias (Cj−1).
Para este exemplo tem-se Cj−1 = C1 = [1 5]. Recuperar o vetor C2 a partir de C1 é
impossível, devido a isso são guardadas também, as variações dos valores de C2 em
21
relação a C1. Assim, Dj−1 é o vetor que guarda informações de variações entre Cj e Cj−1,
através de
Dj−1,i = Cj,2i − Cj−1,i, i = 0, 1, 2, ..., 2j−1. (2.2)
Neste exemplo Dj−1 = D1 = [1 − 4]. Este processo de encontrar C1 e D1 se
dá o nome de transformada Haar de um nível. O segundo nível é calculado a partir de
C1 e assim sucessivamente, sendo assim Cj−2 = C0 = [3] e o vetor de detalhes fica
Dj−2 = D0 = [−2]. Dessa forma, o vetor C2 pode ser representado através do último valor
de média, seguido por todas as informações de detalhe, sendo [3 − 2 1 − 4].
Além disso, para se realizar a recuperação do vetor Cj a partir de [3 − 2 1 − 4],
utiliza-se
Cj,2i = Cj−1,i +Dj−1,i, i = 0, 1, 2, ..., 2j−1 (2.3)
e
Cj,2i+1 = Cj−1,i +Dj−1,i, i = 0, 1, 2, ..., 2j−1. (2.4)
O processo de decomposição de um sinal é visto como um conjunto de filtros passa-
baixa e passa-alta, as frequências vão sendo filtradas a cada nível. Assim, para um sinal
adquirido a 100 Hz, pelo teorema de Nyquist, que diz que só se pode representar frequên-
cias até a metade da frequência de amostragem, neste trabalho a frequência máxima é 50
Hz. As equações 2.5 e 2.6 representam formalmente o algoritmo para decomposição de
um sinal em suas médias e detalhes, onde D é quantidade de filtros associados a wavelet,
o qual é calculado por D = 2∗M , sendo que M representa a quantidade de momentos nu-
los da wavelet utilizada. A Haar wavelet possui apenas um momento nulo, portanto D = 2.
Além disso, estes filtros podem ser não-normalizados ou normalizados (Tab. 2.1), o exem-
plo no inicio da seção utiliza filtros não-normalizados. A vantagem dos filtros normalizados
é possibilidade de monitorar a quantidade de energia através dos níveis de decomposição
que mais contribuem para a energia total do sinal, assim por este e outros benefícios este
trabalho utiliza filtros normalizados (VIDAKOVIC; MUELLER, 1994).
Cj−1,l =D−1∑k=0
hk.Cj,2l+k, l = 0, 1, 2, ..., 2j−1 − 1 (2.5)
Dj−1,l =D−1∑k=0
gk.Cj,2l+k, l = 0, 1, 2, ..., 2j−1 − 1 (2.6)
Neste trabalho, foi utilizada a DWT de Haar Packet. Esta transformada além de
realizar a decomposição por níveis para os vetores de médias, são também decompostos
os vetores de detalhes (EBRAHIMI et al., 2008). A Fig. 2.5 mostra a decomposição de um
sinal em 4 níveis, sendo A o vetor de médias ou aproximações e D o vetor de detalhes,
esta foi a configuração utilizada neste trabalho.
22
Tabela 2.1 – Filtros não-normalização e normalizados para a DWT de Haar.
Não-normalizados Normalizadosk hk gk hk gk0 1/2 1/2 1/
√2 1/
√2
1 1/2 −1/2 1/√2 −1/
√2
Fonte: (VIDAKOVIC; MUELLER, 1994)
Figura 2.5 – DWT de Haar para um sinal em 4 níveis de decomposição. A são os vetoresde médias ou aproximação e D os vetores de detalhes.
Fonte: Modificada de (EBRAHIMI et al., 2008)
2.6 EXTRAÇÃO DE ATRIBUTOS
A extração de características visa destacar informações relevantes para a identifi-
cação de padrões, por isso, é a tarefa mais difícil e mais importante no processamento
de sinais (ZHU; LI; WEN, 2014). Atributos considerados eficientes podem destacar muito
bem um padrão específico ou diferenciar padrões (CVETKOVIC; ÜBEYLI; COSIC, 2008),
influenciando amplamente no desempenho do algoritmo de aprendizado de máquina (PE-
CHENIZKIY et al., 2006). Uma pequena quantidade de informações relevantes pode obter
melhor desempenho do que um conjunto de dados grande mas menos relevante (CVET-
KOVIC; ÜBEYLI; COSIC, 2008). Normalmente há redução de dimensionalidade após a
extração de atributos, o que contribui para a redução do custo computacional para o algo-
ritmo de aprendizado de máquina.
Existem quatro principais tipos de atributos que são extraídos do sinal de EEG para
análise do sono: atributos temporais, espectrais, de tempo-frequência e atributos de me-
23
didas não lineares / de complexidade. Apesar disso, a mais recorrente é a análise em
frequência, devido a associação entre algumas faixas de frequências e os ritmos cerebrais.
Os métodos mais comuns para extração de atributos em frequência são transformada de
Fourier (do inglês Fast Fourier Transform - FFT), métodos de auto-regressão paramétricos
e o método de Welch (KOLEY; DEY, 2012). Porém, como citado anteriormente as Wave-
lets são transformadas que, diferentemente desses métodos, permitem localização tanto
no tempo quanto na frequência.
Assim, neste trabalho foram extraídas quatro faixas de frequência correspondentes
aos ritmos teta, alfa, beta e gama através da transformada packet de Haar com 4 níveis
(Fig 2.5). Para determinar quais dos pacotes representam cada ritmo cerebral foi realizado
um experimento para medir a quantidade de energia para frequências entre 1 Hz e 30 Hz.
Assim, para cada frequência foram determinados quais pacotes continham mais energia.
A Fig. 2.5 mostra os pacotes selecionados para cada ritmo.
2.7 CLASSIFICAÇÃO
Classificação é o problema onde a partir de um conjunto de dados para treino e
um conjunto de classes associadas, determina-se a qual destas classes um novo dado
pertence. Muitas situações da vida real podem ser modeladas por problemas de classifica-
ção, como: enviar um e-mail para caixa de spam ou não, definir automaticamente se uma
notícia é de esportes ou entretenimento e, diagnosticar uma doença em um paciente com
base em características observadas nele (ex: gênero, pressão sanguínea, presença ou
ausência de algum sintoma, etc). O processo de classificação pode ser dividido em duas
etapas: treino e predição (Fig. 2.6). Classificação é um tipo de aprendizado de máquina
supervisionado, ou seja, para a fase de treino o classificador recebe também a informação
de qual classe cada dado pertence. O propósito é que a partir disso seja criado um mo-
delo, o qual na fase de predição deve ser capaz de identificar a qual classe um novo dado
pertence. Para isso, normalmente são separados dois grupos de dados um para treino e
um para teste, além destes é comum também separar um grupo para validação, sendo que
durante o processo de testes pode-se modificar parâmetros do classificador e portanto os
dados não serão mais desconhecidos pelo modelo (AGGARWAL, 2014).
24
Figura 2.6 – Fluxo geral de um problema de classificação.
Fonte: Baseado em (AGGARWAL, 2014)
Diversos métodos de classificação já foram utilizados para o estudo do sono. Cor-
rea, Orosco e Laciar (2014), Boonnak, Kamonsantiroj e Pipanmaekaporn (2014) utilizaram
redes neurais artificiais (do inglês Artificial Neural Networks - ANN), já He et al. (2014),
Jalilifard e Pizzolato (2016) aplicaram o K-vizinhos mais próximos (do inglês K-Nearest
Neighbors - KNN). As Máquinas de Vetores de Suporte (do inglês Support Vector Ma-
chines - SVM) também são muito recorrentes (MU; HU; MIN, 2017; OGINO; MITSUKURA,
2018; ABOALAYON; OCBAGABIR; FAEZIPOUR, 2014). Samiee et al. (2015), Sharma, Pa-
chori e Upadhyay (2017) empregaram florestas aleatórias (do inglês Random Forest - RF)
e Marcos et al. (2010) o LDA (do inglês Linear Discriminant Analysis). Assim, as próximas
seções descrevem as principais características de cada um deles.
2.7.1 Redes Neurais Artificiais (ANN)
As redes neurais são métodos de aprendizagem baseados no funcionamento de
células neurais, com a capacidade de reconhecimento de padrões em dados não lineares
(HSU; GUPTA; SOROOSHIAN, 1995). Estas, são construídas a partir de três principais
camadas de neurônios, sendo: camada de entrada, camadas ocultas e camada de saída.
A camada de entrada possui um neurônio para cada variável de entrada. Já a quantidade
de neurônios em cada camada oculta é um parâmetro a ser definido, pois estes repre-
25
sentam a quantidade de divisões necessárias para a separação das classes. Porém, um
número grande pode gerar overfitting, quando o modelo fica muito ajustado ao conjunto de
treino e se torna ineficiente para novos dados. A camada de saída contém o número de
neurônios necessários para representar as classes, por exemplo se houver duas classes (0
ou 1), somente um neurônio de saída será necessário para a classificação. Existem vários
tipos de redes neurais, a Figura 2.7 mostra um exemplo de uma feed-forward multi-layer
perceptron (MLP). A rede neural perceptron é a mais simples das redes neurais e a MLP
é uma variação da mesma com múltiplas camadas. Para cada neurônio oculto é realizada
a soma entre cada valor de entrada (atributos) multiplicado pelo seu peso, além do limiar
de ativação bt. Na sequência, é aplicada uma função de ativação (f ), como a sigmoid, por
exemplo. Por fim, estes valores são multiplicados pelos pesos de saída, encontrando o
valor de y, como mostra as Equações 2.7 e 2.8 (BOOSTANI; KARIMZADEH; NAMI, 2017;
GARDNER; DORLING, 1998).
ym =t∑
k=1
W(2)kmfk (2.7)
fk = (W(1)nk xn + bk) (2.8)
Figura 2.7 – Redes Neurais - feed-forward multi-layer perceptron (MLP).
Fonte: Modificada de (BOOSTANI; KARIMZADEH; NAMI, 2017)
26
2.7.2 Máquinas de Vetores de Suporte (SVM)
A SVM é um método supervisionado para classificação, existem também a variante
Support Vector Regression (SVR) para regressão. A SVM linear utiliza os pontos que for-
mam as margens entre duas classes, chamados vetores de suporte, para determinar o
melhor hiperplano que as separa. O melhor hiperplano é aquele que maximiza a distân-
cia de margem, ou seja, a distância entre os vetores de suporte e o hiperplano. A SVM
também permite que hajam amostras classificadas erroneamente para evitar overfitting e
outliers (Fig. 2.8). Ainda, para dados de difícil separação diretamente, a SVM realiza uma
transformação dos atributos para um espaço de dimensionalidade superior através de ker-
nels, assim dados que antes eram impossíveis de se separar com curvas simples agora
podem ser separados por uma superfície linear. A Figura 2.9 mostra dados originalmente
em duas dimensões sendo projetados em 3D, de uma forma que possibilite a criação de
uma superfície para separação das classes. Os kernels mais comuns são o radial basis
function (RBF), polinomial e sigmoidal (WANG, 2005; JAIN, 2018).
Figura 2.8 – Maximização da margem com as Máquinas de Vetores de Suporte (SVM).
Fonte: Modificada de (JAIN, 2018)
2.7.3 k-Vizinhos mais Próximos (kNN)
O método de classificação kNN se baseia em similaridade entre atributos. A partir
de um critério, normalmente através da distância euclidiana, são selecionados k vizinhos
27
Figura 2.9 – Mudança de dimensão das Máquinas de Vetores de Suporte (SVM).
Fonte: Modificada de (JAIN, 2018)
mais próximos. No caso de regressão, é realizada a média dos valores dos vizinhos mais
próximos (NAVOT et al., 2006). No caso de classificação, determina-se a qual classe
aquele dado pertence através de uma votação, ou seja, a classe que mais aparece en-
tre os vizinhos (YAO; RUZZO, 2006). A Fig. 2.10 mostra um exemplo de predição para
K=4, considerando um novo dado, dentre os seus 4 vizinhos mais próximos a classe mais
recorrente é a classe do formato triângulo, assim o novo dado será classificado como per-
tencente desta classe. A escolha de k pode ser feita utilizando a raiz quadrada do número
de pontos, além de que, para casos de duas classes, por exemplo, o valor deve ser impar
e, no geral, k não deve ser múltiplo do número de classes. O kNN é usado para aprendi-
zado supervisionado, quando os dados não possuem ruído e com um conjunto de dados
que não seja muito grande e complexo (THEODORIDIS; KOUTROUMBAS et al., 2008).
Isso porque, diferente dos outros classificadores citados, o KNN não gera um modelo após
o treinamento, aos invés disso, todas as amostras de treino são guardadas, o que pode
gerar alto consumo de memória (RASCHKA; MIRJALILI, 2017).
28
Figura 2.10 – Classificador k-Vizinhos mais Próximos.
Fonte: Baseado em (RASCHKA; MIRJALILI, 2017).
2.7.4 LDA
O Linear Discriminant Analysis (LDA) é um método para redução de dimensiona-
lidade, assim como o PCA busca por relações lineares. Este, é utilizado quando tem-se
variáveis independentes contínuas e variáveis dependentes categóricas (classes). Base-
ado na discriminação linear de Fisher (do inglês Fisher’s linear discriminant), o objetivo é
maximizar a distância entre as classes e minimizar a distância entre os elementos de cada
classe, de acordo com
(µ1 − µ2)2
S21 + S2
2
, (2.9)
onde µ1 é o valor médio dos elementos da classe 1, µ2 média dos elementos da
classe 2, S1 é a variância dos elementos da classe 1 e S2 é a variância dos elementos da
classe 2. Para os casos com mais de duas classes, a média total é calculada e a diferença
entre esta e a média de cada classe é medida (FRAIWAN et al., 2010).
2.7.5 Florestas Aleatórias (RF)
O classificador florestas aleatórias é um ensemble do tipo bagging onde, na etapa
de treino, cada método de aprendizado (todos em paralelo) seleciona aleatoriamente e com
reposição um conjunto de amostras e de features (DIETTERICH, 2000; OPITZ; MACLIN,
1999). Normalmente em torno de 63.2% dos dados selecionados por um método não é
repetido. Assim, cada método gera o seu resultado, se for classificação o resultado final
29
será por votação, caso seja regressão será realizada um média das respostas (GALAR et
al., 2011). O RF é formado por um conjunto de árvores de decisão. As árvores de decisão
guardam regras em seus nós e as classes são representadas pelos nós folhas, no caso
de classificação. No treino a árvore vai sendo construída conforme os dados vão sendo
subdivididos de forma mais homogênea possível, ou seja, espera-se que cada subdivisão
contenha dados de apenas uma classe. Esta característica na construção pode levar a um
modelo de grande variância, ou overfitting, o que pode ser evitado com ensembles como
o RF. A construção de uma floresta aleatória é feita como mostra a figura 2.11. Segundo
BREIMAN (2001) a combinação dos conjuntos com redundância e a seleção aleatória das
características aumenta o desempenho do classificador tornando-o mais robusto a ruídos.
Figura 2.11 – Classificador florestas aleatórias.
Fonte: Modificado de (FRAIWAN et al., 2012)
2.7.6 Threshold
Os Thresholds já foram muito utilizados como classificadores por serem fáceis de
interpretar e simples de implementar, inclusive em hardware, além de que, na maioria
das vezes, possuem baixo custo computacional. A partir disso, alguns trabalhos criaram
índices, os quais são uma relação entre medidas formando um threshold para determinar
o começo e o fim de cada classe. Belakhdar et al. (2018) criou dois índices: TetaAlfa
e [3−4]Alfa
,
assim como, Arnin et al. (2013) que criou uma relação entre 0.6Teta+0.4Alfa0.5Beta
.
Em geral, é comum utilizar relações de divisão para índices, porém para o desen-
volvimento de um hardware, a divisão se torna custosa. A partir disso, Baldissera (2015)
30
propôs um índice utilizando subtração, sendo este Teta − 2Beta. Em um trabalho se-
guinte, Retamal (2018) testou o índice com os mesmo sujeitos utilizados neste trabalho,
alcançando 82.2% de sensibilidade. Assim, neste trabalho será estudada a capacidade de
detecção de sonolência deste índice em ambientes mais realistas, contendo ruído, além
de comparar sua performance com os classificadores do estado da arte para detecção de
sonolência. Além das vantagens já citadas para se utilizar um threshold, o índice utiliza
apenas duas características do sinal (Teta e Beta).
2.7.7 Métricas de Avaliação
Quadro 2.2 – Matriz de confusão para duas variáveis (positivo (P) e negativo (N)).
Predito
P N
Verd
adei
ro
P VP FN
N FP VN
Figura 2.12 – Exemplo de um problema com duas classes, considerando um problemadesbalanceado. Amostras oriundas do Physionet, sendo a classe P amostras anotadascomo "S1" e "S2" e a classe N como "W". São calculadas a Sensibilidade (Sen), Especi-ficidade (Esp) e Acurácia (Acc).
Fonte: Adaptada de (WALBER, 2014)
31
Métricas são a forma de avaliar a performance do algoritmo de aprendizado. A
escolha da métrica errada pode levar a interpretações falsas da performance do sistema,
tanto por encontrar um resultado superior a capacidade real do sistema, quanto inferior
(DAVIS et al., 2007). A matriz de confusão organiza os acertos e erros para problemas de
classificação. A Tabela 2.2 mostra o exemplo de uma matriz de confusão para duas variá-
veis ou classes, temos as classes positivo (P) e negativo (N). Por convenção a classe P é
considerada a classe alvo, sendo para este trabalho a classe sonolência. Assim, os verda-
deiros positivos (VP) são aquelas amostras preditas corretamente como sonolência. Assim
como, os verdadeiros negativos são as amostras preditas corretamente como acordado. Já
os falsos positivos (FP) são aquelas preditas como sonolência porém eram acordado, as-
sim como, falsos negativos (FN) são aquelas que foram preditas como acordado, mas eram
sonolência (VISA et al., 2011).
A métrica mais simples é a taxa de acerto ou acurácia (Acc), Eq. 2.10, ela mede a
razão entre o número de acertos e o número total de predições, a partir da matriz de con-
fusão. Porém, a medida da Acc nem sempre expressa a performance real do sistema para
todas as classes. Isso porque, para casos em que os dados são muito desbalanceados
(TAN, 2005), ou seja, que não se tem a mesma quantidade de amostras para cada classe,
é possível que o sistema tenha uma boa acurácia para detectar apenas uma das classes e
não todas. Kayikcioglu, Maleki e Eroglu (2015), Li, Jiang e Su (2016) usaram apenas Acc
para medir a performance (91% e 98.8% respectivamente), apesar destes disponibilizarem
a quantidade de amostras por classe, a performance por classe não foi apresentada, o
que nega ao leitor uma perspectiva geral do sistema. É possível perceber o impacto disto,
em He et al. (2014), já que através da matriz de confusão fornecida pode-se calcular uma
Acc de 84%, sendo que a capacidade de detectar sonolência (sensibilidade) foi de apenas
68.31%. A Fig. 2.12 mostra um exemplo de classes desbalanceadas e o impacto nas mé-
tricas de avaliação. Assim, outras duas medidas que ajudam a explicar com mais detalhes
os resultados, e por isso são muito utilizadas em conjunto com a acurácia, são a sensibi-
lidade e a especificidade. A primeira, representa a quantidade de acertos obtidos para a
classe positivo em relação a todos os dados verdadeiramente da classe positivo (Eq. 2.11)
e, a segunda, mostra a relação entre os dados preditos corretamente como negativo em
relação a todos os dados verdadeiramente da classe negativo (Eq. 2.12). Neste trabalho,
serão calculadas acurácia, especifidade e sensibilidade para todas as análises realizadas.
Acc =V P + V N
V P + FN + V N + FP(2.10)
Sen =V P
V P + FN(2.11)
Esp =V N
V N + FP(2.12)
32
Tabela 2.2 – Principais características dos estudos revisados.
Ref. Subj. Electrode Feature set Predictor Performance
(CORREA; OROSCO; LACIAR, 2014) 16 C3-O1CF, IEEGα, Q1F, MaxF, IEEGθ,AC, STD
ANNAlert=87.4%,Drowsy=83.6%
(HE et al., 2014) 6 Fp1 Attention, meditation kNNSpec=68.31%,Sen=90.43%
(LI; CHUNG, 2014) 20 O2 α power percentage RegressionAcc=87.5%(M), 70%(F)MSE=0.013
(HAL et al., 2014) 3 Fp1 Mean and STD of α, β power Threshold Acc=81%(KAYIKCIOGLU; MALEKI; EROGLU, 2015) 7 Pz-Cz 22 AR coef. from θ, α, β PLS Acc=91%
(KO et al., 2015) 15 Ch-1 θ, α, β, δ power Regression Acc=90%
(LI; LEE; CHUNG, 2015) 20 O1, O2 θ, α, β power SVMPPMAlert=91.25%,Early-warning=83.78%,Drowsy=91.92%
(SILVEIRA; KOZAKEVICIUS; RODRIGUES, 2015) 13 Fpz α, β from Daubechies Wavelet Threshold Sen=84.9%,Pre=98.6%(LI; JIANG; SU, 2016) 59 Fp1 21 features (PSD, DWT, Time) DBN Acc=98.86%
(PATRICK et al., 2016) 20 Cz-A1 δ, α power, center freq. ThresholdSel=94.9%,Sen=85%,Spe=93.3%
(QIAN et al., 2016) 25C3-A2,C4-A1,O1-A2,O2-A1
Ratio, Amplitude, Symmetry, Ex-tention of θ, α and electrodes
BCDCAcc=94.3%,Drowsy=98.1%
(KARTSCH et al., 2017) 7 Fpz-Oz α and Blink duration Threshold Acc=85%
(MU; HU; MIN, 2017) 12T5,TP7,TP8,Fp1
SpeEn, ApEn, SampEn, FuzzyEn SVM(RBF)Acc=98.75%,MCC=93.51%,Sen=96%,Spe=97.5%
(BELAKHDAR et al., 2018) 10 C3-O1Mean power in 3,4, mean powerratio in IAF, [3− 4]/α, θ/α
ANNDrowsy=89%, Embed-ded=84.29%
(HU; MIN, 2018) 22 TP7 SpeEn, ApEn, SampEn, FuzzyEn GBDT Acc=94%
Fonte: Autora.
3 REVISÃO DE LITERATURA
Esta seção apresenta a revisão de literatura realizada buscando trabalhos que fo-
ram selecionados com base na seguinte string de busca: "("EEG" OR "electroencephalo-
gram" OR "electroencephalography" ) AND ("sleepiness" OR "drowsiness" OR "fatigue" OR
"drowsy" OR "sleep" ) AND ("prediction" OR "detection" OR "classification" )" . Os trabalhos
foram buscados nas seguintes bases: Scopus, IEEExplorer, Science Direct, ACM, Google
Scholar, de 2013 à 2018. Foram excluídos os trabalhos que:
• Utilizaram outros sinais fisiológicos;
• Utilizaram muitos eletrodos (mais do que 4);
• Não possuíam o objetivo de detecção e classificação para aplicações de tempo real;
• Não deixaram claras as etapas de processamento.
A Tab. 2.2 exibe as principais informações dos trabalhos revisados. A coluna
"Ref." possui o trabalho citado, na coluna "Subj." são mostrados a quantidade de sujei-
tos utilizados, "Electrode" mostra quais foram os eletrodos usados, "Feature set" mostra os
atributos extraídos do sinal de EEG, "Predictor" indica os algoritmos de aprendizagem usa-
dos e "Performance" mostra as métricas de avaliação e quais valores foram encontrados
para elas.
Os estudos podem ser divididos em dois principais grupos: aqueles que utilizaram
sinais oriundos de bancos de dados públicos e aqueles que realizaram um experimento
para aquisição dos sinais. Assim nas próximas seções são apresentadas as principais
características dos trabalhos revisados separando-os nestes dois grupos.
3.1 ESTUDOS UTILIZANDO BASES DE DADOS PÚBLICAS
As vantagens de se utilizar sinais de uma base pública é a possibilidade de se obter
sinais, normalmente, confiáveis e adquiridos por um profissional, o qual realiza anotações
nos dados. Além disso, a utilização de dados disponíveis publicamente permite a compa-
ração entre trabalhos, contribuindo para a pesquisa.
Uma das principais fontes de dados públicos é o Physionet. Ele fornece bases de
dados contendo aquisições de diversos sinais fisiológicos. Correa, Orosco e Laciar (2014)
e Belakhdar et al. (2018) usaram sinais da base de dados MIT-BIH Polysomnographic. O
primeiro segmentou os sinais em épocas de 5 s (10.074 épocas para sonolência e 10.074
34
épocas para acordado). Em seguida, foram extraídas características no tempo, na frequên-
cia e por decomposição Wavelet, sendo que após uma seleção das melhores restaram 7
atributos. Em alguns casos, o sistema foi capaz de detectar sonolência antes do sujeito
estar sonolento, obtendo 87.4% de acurácia para detecção de sonolência. Já o segundo
estudo, removeu artefatos dos sinais com um filtro passa-banda de 0.5-30 Hz e em seguida
extraiu atributos em frequência a partir do cálculo da FFT. Dentre os atributos, o trabalho
criou índices com algumas frequências correspondentes aos ritmos cerebrais, além de
que, utilizou a frequência de alfa individual (do inglês Individual Alpha Frequency - IAF)
para contornar o problema de invariabilidade entre indivíduos. O estudo também compa-
rou a performance dos classificadores ANN e SVM constatando que a ANN possui melhor
performance, a qual foi de 89% de acurácia. Além disso, os autores embarcaram a me-
todologia em uma Raspberry Pi para obter resultados mais próximos da aplicação real, a
qual obteve 84.29% de acurácia e processou épocas de 30 s em 0.20 s.
Silveira, Kozakevicius e Rodrigues (2015) também utilizaram sinais do Physionet.
Nesse trabalho, 6 h 50 min de dados de um único eletrodo (Fpz) foram usados para estimar
os ritmos alfa e beta através da Wavelet de Daubechies. Os autores sugerem um algoritmo
para aproximar os m melhores coeficientes da Wavelet para representar os ritmos citados.
Com um Threshold este trabalho obteve 84,98% de sensibilidade e 98,65% de especifi-
cidade, concluindo que alcançaram maior desempenho com menor complexidade quando
comparados aos trabalhos relacionados na época. Outro estudo (KAYIKCIOGLU; MALEKI;
EROGLU, 2015) comparou dois canais e quatro classificadores, com um conjunto de 22
coeficientes de auto-regressão, decompostos pelo método Burg para alfa, teta e beta se-
paradamente, gerando um ensemble. Os métodos partial least squares regression (PLS),
o K-vizinhos mais próximos (do inglês K-Nearest Neighbors - KNN), linear discriminant
classifier LDC e Bayes foram comparados e o PLS alcançou o melhor desempenho. Esse
estudo é capaz de processar os sinais e prever sonolência com menos de 1 s.
DREAMS (MONS, 2015) também é uma base de dados pública, que contém sinais
de 20 sujeitos. A partir disso, Patrick et al. (2016) extraiu características do espectro de
frequência (do inglês Power Spectral Density - PSD) e medidas estatísticas para cada
época de 1 s, após uma seleção de atributos a frequência central, a potência relativa de
delta e de alfa foram os mais significativos. Para classificação, os autores realizaram um
ensemble com Thresholds para cada atributo, destacando a importância de um preditor
adaptativo para contornar o problema da invariabilidade interpessoal.
3.2 ESTUDOS QUE INCLUEM A AQUISIÇÃO DE DADOS
Muitas vezes, o protocolo de aquisição dos bancos de dados públicos pode não
representar de forma tão próxima o ambiente da vida real onde o sistema deve operar.
35
Assim, muitos estudos decidiram organizar experimentos para adquirir os sinais.
Com um simulador de direção, Mu, Hu e Min (2017) adquiriram sinais de 12 sujeitos.
Após 40 minutos, os sujeitos responderam aos questionários de Li’s e Borg’s CR-10 scale,
que medem a sonolência do sujeito naquele momento. Em seguida, os autores realizaram
uma seleção dos eletrodos através do cálculo da distância de Fisher. Hu e Min (2018) tam-
bém adquiriram sinais de EEG utilizando um simulador de direção. Os autores extraíram
atributos de entropia e compararam os classificadores no estado da arte, atingindo Acc
de 94%. Em (KO et al., 2015), o carro eventualmente se afastava da pista original e os
15 sujeitos foram instruídos a retornar à posição inicial o mais rápido possível. O sistema
registra o tempo de reação do sujeito junto com seus sinais de EEG. O tempo de reação é
uma característica relevante, pois à medida que o indivíduo fica sonolento, seu reflexo se
torna mais lento. Este trabalho também utilizou um EEG vestível com apenas 1 eletrodo
para adquirir os sinais. Alguns estudos utilizaram este equipamento por ser compacto, com
poucos eletrodos e permitirem mobilidade ao sujeito.
A maioria dos EEG vestíveis possuem alguns atributos já pré-processados. Assim,
He et al. (2014) utilizaram os atributos de atenção e meditação provenientes do equipa-
mento da Neurosky, os quais foram enviados via Bluetooth para um telefone Android, onde
é calculado o coeficiente de correlação entre os atributos e a identificação do estado do
sujeito acontece. Quando a sonolência é identificada, o telefone envia um alerta para o bus
monitor ou bus schedule center. Este estudo obteve 345 amostras de 5 segundos para o
estado acordado e 142 para estado de sonolência. Ainda, Hal et al. (2014) e Li, Jiang
e Su (2016) também utilizaram esse tipo de sistema, ambos com um único eletrodo. O
primeiro extraiu características estatísticas de densidade espectral (do inglês Power Spec-
tral Density - PSD) e, por um Threshold adaptativo, obteve 81% de Acc. Este sistema
foi implementado em uma plataforma Arduino, responsável pelo processamento do sinal.
Quando a sonolência é detectada, um alarme é acionado. O segundo adquiriu sinais de
59 voluntários em diferentes períodos do dia. Os voluntários responderam ao questionário
Fatigue Scale-14 para determinar seus níveis de sonolência. No entanto, a fadiga pode ser
uma característica abstrata para algumas pessoas, o que pode levar a uma classificação
falsa. Este estudo obteve 98.86% de Acc com uma Deep Belief Network (DBN). Apesar
disso, os autores utilizaram apenas a acurácia como métrica de avaliação, sendo que esta
não mede a performance para cada classe, além de que, não disponibilizaram a matriz de
confusão com os acertos e erros por classe. Os sinais adquiridos e utilizados no estudo
também não foram disponibilizados publicamente para comparação.
Ainda, Li, Lee e Chung (2015) desenvolveram um EEG vestível com 3 eletrodos
secos. Os dados são enviados para um smartwatch onde o sinal é processado e, se ne-
cessário, um alerta é acionado. O classificador foi treinado no computador e o modelo foi
transferido para o smartwatch. As classes foram criadas a partir de vídeos do compor-
tamento do sujeito, gravados durante o experimento, alcançando 91.92% de Acc. Além
36
disso, Qian et al. (2016) adquiriram sinais de 25 indivíduos durante cochilos diurnos. O
IAF foi utilizado para aproximar as bandas alfa e teta da seguinte forma: IAF - θ e IAF - α,
isto porque as faixas de frequência onde aparecem os ritmos podem variar de sujeito para
sujeito. Os autores testaram a metodologia em tempo real e um sinal de 20 s pode ser
processado em 2 s.
Alguns trabalhos investigaram a possibilidade de usar o sinal de EEG para substituir
as metodologias baseadas em vídeo. Kartsch et al. (2017) desenvolveram um sistema
embarcado para monitorar a duração da piscada dos olhos e o acúmulo de ondas alfa
dos sujeitos, ou seja, a partir de um threshold é identificado um pico de onda alfa se
houver mais de 5 segundos de ondas alfas acumuladas é considerado um indicador de
sonolência. Os autores também relataram que o sistema pode operar por até 7.1 horas
com uma bateria de 200mAh. Já Li e Chung (2014) encontraram uma relação linear entre
EEG e o grau de fechamento palpebral (do inglês eyelid closure degree - ECD) mostrando a
possibilidade de substituir sistemas baseados em vídeo para monitoramento palpebral. Os
autores encontraram que a combinação de ritmo alfa e eletrodo de O2 foi a mais relevante
para a regressão linear escolhida.
3.3 TRABALHOS RELACIONADOS E PROPOSTA DO TRABALHO
Para que um sistema seja capaz de detectar sonolência em situações como as
citadas na seção anterior, onde o usuário esta dirigindo ou realizando alguma tarefa que
exige sua atenção, é necessário que este monitore o usuário constantemente, ou seja,
realize processamento dos sinais em tempo real, consequentemente que haja baixo custo
computacional, além de que, o sistema deve permitir mobilidade ao usuário.
A partir dos trabalhos revisados, percebeu-se que He et al. (2014), Hal et al. (2014),
Li, Jiang e Su (2016), Kayikcioglu, Maleki e Eroglu (2015) e Belakhdar et al. (2018) são
os trabalhos que mais buscaram desenvolver um sistema com estas características cita-
das, por isso será realizada uma comparação destes e da metodologia proposta. Diversos
trabalhos utilizaram um EEG vestível para a aquisição dos sinais, porém não disponibiliza-
ram os dados nem avaliaram os sinais capturados com este equipamento. A partir disso,
este trabalho tem como objetivo propor uma metodologia para detecção de sonolência em
tempo real, utilizando um EEG vestível.
4 MATERIAIS E MÉTODOS
Nesta seção serão detalhadas as etapas seguidas para o desenvolvimento deste
trabalho. A Fig. 4.1 mostra um fluxograma que explica a separação dos dados para cada
etapa e as análises realizadas.
Figura 4.1 – Fluxograma com a separação dos dados utilizados e as análises realizas.
Fonte: Autora.
38
4.1 EXPERIMENTO PARA AQUISIÇÃO
Para as análises realizadas, os sinais foram divididos aleatoriamente em 3 grupos:
treino, teste e validação. O primeiro grupo possui sinais de 11 voluntários (51.767 épocas)
e os outros possuem 4 voluntários cada (18.909 épocas para teste e 19.433 para vali-
dação), nenhum dos grupos compartilha sinais do mesmo sujeito. Com isso, para treino
foram utilizadas em torno de 440 horas de sinal e para cada um dos outros grupos, 160
horas de sinal. O treino dos classificadores foi realizado offline, ou seja, no computador,
utilizando os sinais do banco de dados.
A partir disso, três experimentos foram realizados: leitura e processamento do sinal
com o EEG vestível, comparação de performance do sinal lido pelo EEG e do mesmo sinal
sendo processado diretamente do banco de dados e, avaliação da performance utilizando
todas as amostras de teste e validação.
Para o primeiro experimento, já que se tem o objetivo de simular uma aquisição e
processamento de sinais de EEG em tempo real, não seria viável fazer a leitura de todo
o conjunto de dados. Assim, para cada sujeito de teste e validação, foram separadas 2
horas de sinal, o que corresponde a 240 épocas de 30 segundos. Cada sujeito possui dois
arquivos de sinais gravados em duas noites de sono, dessa forma, para cada arquivo foram
selecionadas 120 épocas de transição (60 do sujeito acordado seguidas de 60 do sujeito
sonolento). Ao final cada grupo contém 960 épocas. Este experimento também tem o
objetivo de avaliar a qualidade do sinal adquirido pelo EEG vestível considerando os ruídos
do ambiente, ou seja, obter resultados para uma aplicação mais próxima da realidade. A
utilização do banco de dados para este experimento permite que sinais de diversos sujeitos
sejam utilizados para as análises. A Fig. 4.2 ilustra o experimento. A primeira etapa é a
leitura do arquivo do sinal pelo Labview 2016 em formato diferencial para consequente
aquisição em duas derivações (FP1 e FP2), em seguida estes vão sendo enviados (a 100
Hz) para duas saídas do Elvis II, onde é conectado um circuito para redução da amplitude
do sinal e filtragem de altas frequências. É necessário realizar esta redução pois o EEG
vestível adquire amplitudes de até 2 mV. Em seguida, as saídas do circuito são ligadas nos
eletrodos do EEG vestível, e via bluetooth o sinal é enviado para a raspberry pi, onde é
processado.
O segundo experimento, utiliza os mesmos sinais separados para o experimento
anterior, com o objetivo de comparar a performance. Neste caso, os dados do banco de
dados foram dados diretamente para a etapa de processamento, como ilustra a Fig. 4.3.
A última análise foi realizada para que se possa avaliar a performance da meto-
dologia proposta através de um conjunto maior de amostras. Assim, utilizando todas as
amostra dos grupos de teste e validação, foram medidas as performances para cada clas-
sificador.
39
Figura 4.2 – Fluxograma geral de processamento com EEG vestível.
Fonte: Autora.
Figura 4.3 – Fluxograma geral de processamento para comparação com sinais adquiridospelo EEG vestível.
Fonte: Autora.
40
4.2 ESPECIFICAÇÕES DE HARDWARE E SOFTWARE
Neste trabalho, todas as análises foram realizados em um sistema linux Ubunto
versão 18.04, na linguagem de programação Python versão 2.7. A Tab. 4.1 mostra quais
foram os parâmetros utilizados para cada classificador, sendo todos os classificadores
oriundos da biblioteca Sklearn, na versão 0.20.4.
Para o experimento de aquisição construído, foram utilizados o NI Elvis II (especi-
ficações em: http://www.ni.com/pdf/manuals/372590b.pdf) e o Labview 2016 (especifica-
ções em:
http://www.ni.com/pdf/manuals/371780m.pdf).
Tabela 4.1 – Especificações de software usados em Python 2.7 e biblioteca sklearn0.20.4.
Classificador ParâmetrosMLPClassifier activation=‘relu’, alpha=1, batch_size=‘auto’,
beta_1=0.9, beta_2=0.999, early_stopping=False,epsilon=1e-08, hidden_layer_sizes=(100,), lear-ning_rate=‘constant’, learning_rate_init=0.001,max_iter=200, momentum=0.9, n_iter_no_change=10,nesterovs_momentum=True, power_t=0.5, ran-dom_state=None, shuffle=True, solver=‘adam’,tol=0.0001, validation_fraction=0.1, verbose=False,warm_start=False
KNeighborsClassifier algorithm=‘auto’, leaf_size=30, metric=‘minkowski’, me-tric_params=None, n_jobs=None, n_neighbors=15, p=2,weights=‘uniform’
LinearDiscriminantAnalysis n_components=None, priors=None, shrinkage=None,solver=‘svd’, store_covariance=False, tol=0.0001
RandomForestClassifier bootstrap=True, class_weight=‘balanced’, crite-rion=‘gini’, max_depth=16, max_features=‘auto’,max_leaf_nodes=None, min_impurity_decrease=0.0,min_impurity_split=None, min_samples_leaf=1,min_samples_split=2, min_weight_fraction_leaf=0.0,n_estimators=64, n_jobs=None, oob_score=False,random_state=None, verbose=0, warm_start=False
SVC C=1.0, cache_size=200, class_weight=‘balanced’,coef0=0.0, decision_function_shape=‘ovr’, degree=3,gamma=‘auto’, kernel=‘rbf’, max_iter=-1, probabi-lity=False, random_state=None, shrinking=True,tol=0.001, verbose=False
Fonte: Autora.
5 RESULTADOS
Nesta seção serão apresentados os resultados obtidos a partir das análises reali-
zadas comparando performances da aquisição e processamento em tempo real, além de,
análise do sinal do EEG vestível, de tamanhos de épocas distintas e comparação entre
classificadores.
5.1 PERFORMANCE EM TEMPO REAL
Inicialmente, parte dos sinais dos grupos de teste e validação foram separados para
aquisição com o EEG vestível (chamaremos TPEEG). Além disso, para uma avaliação de
performance estes sinais foram processados também sem a aquisição pelo EEG (chama-
remos TPBANCO). As figuras 4.2 e 4.3 citadas anteriormente ilustram estes experimentos,
respectivamente.
A partir disso, a Fig 5.1 (a) apresenta os resultados de sensibilidade (sen), espe-
cificidade (esp) e acurácia (acc) para as 120 amostras do grupo de teste. Os resultados
que possuem legenda com o sufixo "_EEG" são para os sinais adquiridos em TPEEG. Com
exceção do LDA todos os classificadores obtiveram boa performance. Para os sinais ad-
quiridos em TPBANCO, o RF e o KNN obtiveram as maiores acurácias, sendo que o KNN
atingiu maior sensibilidade. Ainda assim, dentre todos os classificadores, o SVM foi o que
obteve melhor sensibilidade, ou seja, possui maior capacidade para detectar a classe de
sonolência. Apesar da SVM ter gerado um grande número de falsos positivos, obtendo a
menor acurácia, para uma aplicação onde o usuário possui risco de segurança, é aceitável
que hajam falsos positivos ocasionalmente para que se tenha maior taxa de acerto quando
este estiver sonolento. Já para os sinais de TPEEG, podemos perceber algumas diferen-
ças na performance. Ainda assim, o RF apesar de ter perdido acurácia e especificidade
se mostrou robusto em relação a sensibilidade, praticamente mantendo a taxa de acertos.
Assim como, a SVM que se manteve com a maior sensibilidade, porém perdeu acurácia.
Já o KNN manteve a acurácia, mas perdeu performance de sensibilidade. O threshold,
assim como a MLP, obteve menor sensibilidade, porém aumentou a especificidade, o que
sugere que o ruído possui características que influenciam o classificador a classificar como
acordado, o desbalanceamento de classes também pode influenciar neste cenário. Ainda
assim, o threshold possui melhor performance em relação a MLP.
Ainda, a Fig. 5.1 (b) exibe as mesmas métricas, porém para os sinais do grupo de
validação. Neste, a SVM segue com a maior sensibilidade e o RF com maior acurácia e
praticamente a mesma especificidade para TPBANCO e TPEEG. Além disso, o threshold
e a MLP mostraram novamente um comportamento similar, sendo que o threshold obteve
42
Figura 5.1 – A figura mostra os resultados de sensibilidade, especificidade e acurácia paraos sinais do grupo de teste e validação para cada classificador. Os resultados com o sufixo"_EEG" correspondem ao experimento TPEEG.
(a) Grupo de Teste(%).
(b) Grupo de Validação(%).
Fonte: Autora.
43
melhor sensibilidade.
5.2 ANÁLISE DO SINAL DO EEG VESTÍVEL
A diferença encontrada entre as performances dos sinais classificados em TP-
BANCO e TPEEG, possui duas principais razões. Os testes simulam um cenário real,
onde inevitavelmente, o sinal será afetado pelo ruído do ambiente, consequentemente,
prejudicando a classificação. Além disso, a partir de parte do sinal do sujeito 5, na Fig.
5.2 percebemos algumas distorções no sinal após a leitura pelo EEG vestível. O primeiro
gráfico mostra a FFT do sinal antes (TPBANCO) e depois (TPEEG) de ser lido pelo EEG
vestível, o segundo mostra o sinal no tempo e o último uma aproximação de uma pequena
parte do sinal no tempo. Como consequência da resposta em frequência do EEG vestível
percebe-se que o sinal é atenuado em certas frequências. Presume-se que a atenuação
tanto nas altas quanto nas baixas frequências seja um aspecto do EEG vestível, já que
esta característica é comum a todos os sujeitos, o que faz com que parte da informação
dos ritmos cerebrais seja perdida. É possível verificar este fato pela Fig. 5.3, onde é mos-
trado os ritmos Teta, Alfa, Beta e Gama para o mesmo sinal citado, antes e depois do sinal
ser adquirido. Podemos perceber que o ritmo Teta, por aparecer nas baixas frequências, é
o mais afetado.
5.3 PERFORMANCE PARA TODAS AS AMOSTRAS E TAMANHOS DE ÉPOCAS
Devido ao experimento realizado para processar os sinais em tempo real (TPEEG),
não foi possível utilizar todo o conjunto de amostras disponível. O número total de épo-
cas para os grupos de teste e validação, é apresentado no quadro 5.1. Já a tabela 5.1
mostra os tempos médios de processamento de uma época de 30 s para cada classifica-
dor. Além disso, as Figuras 5.4 (a) e 5.4 (b) mostram, respectivamente, os resultados dos
classificadores para os grupos completos de teste e validação. Com isto, podemos avaliar
a performance da metodologia de processamento do sinal e comparar os classificadores
com um maior número de amostras. A partir disso, encontrou-se que a maior sensibilidade
foi da SVM, sendo seguida bem próximo pelo threshold, e o RF obteve melhor especifici-
dade e acurácia, para o grupo de teste. Para o grupo de validação, a RF seguiu com a
maior especificidade e acurácia e o threshold obteve maior sensibilidade.
No grupo de validação foi identificado um sujeito, o qual todos os classificadores,
com exceção do LDA, obtiveram as piores acurácias e especificidades, ambos os arquivos
SC4171 e SC4172 correspondem ao sujeito 17. Além disso, o MLP, KNN e o RF obti-
44
Figura 5.2 – A figura mostra parte do sinal do primeiro dia de gravação do sujeito 5. Oprimeiro gráfico compara a FFT do sinal original e, este após ser lido pelo EEG vestível.O segundo gráfico mostra o sinal no domínio do tempo. E o último gráfico mostra umaaproximação do anterior.
Fonte: Autora.
Figura 5.3 – A figura mostra os ritmos cerebrais Teta, Alfa, Beta e Gama, para parte dosinal do primeiro dia de gravação do sujeito 5. A primeira linha de gráficos mostra cadaritmo para o sinal original do banco de dados e a segunda, o mesmo sinal após aquisiçãopelo EEG vestível
Fonte: Autora.
45
Tabela 5.1 – Tempo médio de processamento para cada época de 30 segundos.
Classificador Épocas de treinoÉpocas de teste e
validaçãoTempo total (s)
Tempo poramostra (s)
MLP 51767 38694 0.5747060776 0.00001485KNN 51767 38694 0.6377301216 0.00001648LDA 51767 38694 0.6480760574 0.00001675RF 51767 38694 0.5844721794 0.00001510
SVM 51767 38694 0.6769809723 0.00001749
Fonte: Autora.
Tabela 5.2 – Tempo médio de processamento para cada época de 10 s com janela desli-zante de 5s.
Classificador Épocas de treinoÉpocas de teste e
validaçãoTempo total (s)
Tempo poramostra (s)
RF 310589 232186 2.887809992 0.00001244SVM 310589 232186 364.7498729 0.00157094
Fonte: Autora.
veram as piores sensibilidades com os sinais do paciente 3 (SC4031 e SC4032). Estes
resultados sugerem que os pacientes, em especial o paciente 17, possuem características
que diferem dos sujeitos utilizados para treino, gerando, assim, baixa performance pelos
classificadores. Todos os resultados por sujeito podem ser encontrados no APÊNDICE A.
Ainda, para um aplicação de detecção de sonolência em tempo real, é necessário
que o sujeito seja monitorado constantemente, assim uma época de 30 segundos pode
representar um tempo muito grande para sua segurança. Por isso, novos resultados de
performance foram gerados para os três classificadores com melhor performance geral
(mais detalhes na seção 5.4), o RF, SVM e o threshold com os tamanhos de época de
10 segundos (s), 5 s e de 10 s com janelas deslizantes de 1 s e de 5 s. Os melhores
resultados foram encontrados para uma época de 10 s com uma janela deslizante de 5 s
(Tab.5.3), ou seja, a primeira época levará em torno de 10 s para ser predita, porém para
as próximas o sujeito será monitorado a cada 5 segundos. A Tab. 5.2 mostra os tempos
médios de processamento para esta configuração. Além disso, os resultados para outros
tamanhos de épocas podem ser encontrados no APÊNDICE B.
Quadro 5.1 – Número de épocas de 30 s para os grupos de teste e validação.
Grupo de Teste Grupo de TreinoSonolência Acordado Sonolência Acordado
5054 13855 4931 14502
Fonte: Autora.
46
Figura 5.4 – As figuras mostram os resultados de sensibilidade, especificidade e acuráciapara cada um dos classificadores, com todas as amostras dos grupos de teste e validação.
(a) Grupo de Teste(%).
(b) Grupo de Validação(%).
Fonte: Autora.
47
Tabela 5.3 – A tabela mostra os resultados de acurácia, sensibilidade e especifici-dade para uma época de 10 segundos com uma janela deslizante de 5 segundos.
RF SVM Threshold
Paciente Acc Sen Esp Acc Sen Esp Acc Sen EspSC4191 0.880 0.783 0.945 0.859 0.859 0.859 0.852 0.815 0.877SC4192 0.924 0.913 0.927 0.863 0.932 0.842 0.866 0.844 0.872SC4121 0.930 0.957 0.923 0.848 0.997 0.806 0.905 0.995 0.880SC4122 0.883 0.948 0.870 0.740 1.000 0.685 0.870 0.987 0.845SC4051 0.977 0.955 0.980 0.939 0.981 0.934 0.908 0.943 0.903SC4052 0.950 0.937 0.955 0.875 0.990 0.828 0.839 0.967 0.786SC4021 0.975 0.911 0.996 0.980 0.955 0.988 0.955 0.889 0.977SC4022 0.963 0.944 0.969 0.915 0.982 0.895 0.852 0.964 0.817SC4171 0.813 0.995 0.780 0.648 0.997 0.584 0.419 0.999 0.313SC4172 0.844 0.873 0.831 0.764 0.911 0.698 0.483 0.995 0.254SC4041 0.951 0.895 0.980 0.953 0.941 0.959 0.907 0.800 0.962SC4042 0.938 0.782 0.995 0.958 0.883 0.985 0.928 0.764 0.988SC4031 0.962 0.831 0.998 0.972 0.889 0.995 0.955 0.863 0.980SC4032 0.978 0.887 0.998 0.986 0.946 0.996 0.956 0.784 0.995SC4011 0.956 0.929 0.966 0.921 0.949 0.911 0.907 0.894 0.911SC4012 0.973 0.959 0.979 0.941 0.969 0.929 0.918 0.953 0.904Média 0.931 0.906 0.943 0.885 0.949 0.868 0.845 0.904 0.829
Fonte: Autora.
5.4 DISCUSSÃO
De modo geral, pode-se observar o mesmo comportamento encontrado tanto para
os testes das Figuras 5.1 (a) e 5.1 (b), quanto para um maior número de amostras (Fig.
5.4). A partir disso, percebemos que a MLP e o threshold proposto demostraram um com-
portamento semelhante, sendo que o último obteve melhor performance utilizando menos
atributos. Além disso, KNN obteve ótima performance, porém devido a este guardar todas
as amostras de treino ao invés de gerar um modelo, o consumo de memória pode ser alto.
A SVM obteve menor acurácia quando comparada ao RF, devido aos falsos positivos, ou
seja, a geração de alertas ao usuário quando este não estava sonolento. Além disso, pe-
las Tab. 5.1 e 5.2 percebemos que a SVM se tornou mais complexa e, em consequência,
mais lenta para classificação, quando o número de amostras para treino aumentou. Apesar
disso, esta obteve maior sensibilidade, na maioria dos testes, o que demostra uma robus-
tez para identificar a sonolência. Embora o RF não tenha obtido a melhor sensibilidade, em
ambos os testes da Fig. 5.1, este obteve menor perda de performance após a aquisição
com o EEG vestível para identificar sonolência, o que demostra que o ruído externo não
prejudicou significativamente sua performance, além de que, atingiu a melhor acurácia e
especificidade.
A Tab. 5.4 detalha os resultados encontrados para RF, SVM e o Threshold, utili-
48
zando uma época de 10 s com janela deslizante de 5 s e, compara com os resultados dos
trabalhos relacionados. Nem todos os trabalhos disponibilizaram seus dados para haver
uma comparação justa de performance. Ainda assim, a metodologia proposta utiliza me-
nos atributos. Além disso, os trabalhos que utilizaram os sinais do banco de dados para
suas análises (KAYIKCIOGLU; MALEKI; EROGLU, 2015; BELAKHDAR et al., 2018), não
realizaram uma análise do comportamento do sistema em uma situação real, adicionando
os ruídos do ambiente.
Por fim, as análises realizadas mostram que os resultados dos classificadores RF
e SVM são complementares, enquanto a SVM se mostrou robusta para detectar a sono-
lência, o RF obteve ótimos resultados para a classe acordado. Este aspecto dos resul-
tados sugere a possibilidade da criação de um ensemble para associação de ambos. Já
o threshold, obteve resultados muito próximos utilizando apenas dois atributos. Este se
mostrou suscetível ao ruído, em alguns momentos, uma das razões para isto, é que o
treinamento dos classificadores e do threshold foram realizados previamente e utilizando
os dados tratados do banco de dados, enquanto que o teste foi realizado com os sinais
sendo capturados pelo EEG vestível. Este fato adiciona erro a predição, o ideal é que o
treino seja feito com dados mais próximos da realidade daquela aplicação, o que pode ser
alcançado com o ajuste periódico deste threshold, ou seja, realizar um aprendizado semi-
supervisionado auxilia tanto no problema de ruído externo quanto na variabilidade inter e
intrapessoal. Apesar disso, os resultados encontrados para a análise em tempo real se
mostraram satisfatórios, já que obteve-se 95% de sensibilidade (capacidade de detectar
sonolência) com a SVM e 94% de especificidade com o RF. Além disso, considerando os
ruídos do próprio experimento (TPEEG), do ambiente externo, além do treinamento dos
classificadores ter ocorrido com os sinais ideais do banco, e da possibilidade do EEG ves-
tível ter atenuado algumas frequências, os resultados apresentados nas Fig. 5.1 (a) e 5.1
(b) mostram que, principalmente, o RF e a SVM obtiveram performances semelhantes para
ambas as análises.
49
Tabela 5.4 – São apresentadas as principais características dos trabalhos relacionadose, os resultados encontrados para RF, SVM e o Threshold, utilizando uma época de 10s com janela deslizante de 5 s.
Ref Sujeitos Eletrodos Atributos Classificador Performance
1 6, 18 Fp1Atenção,
MeditaçãoKNN
Sen= 68.31%,Esp= 90.43%
2 3 Fp1Média,
Desvio Padrãode α, β
Threshold Acc=81%
3 59 Fp1
21 atributos doPSD,
Wavelet Packet eDomínio do Tempo
DBN Acc= 98.86%
4 7 Pz-Cz22 AR coef.de θ, α, β
PLS Acc= 91%
5 10 C3-O1Potência Média em 3,4,
IAF, [3− 4]/α, θ/αANN
Sono= 89%,Emb.= 84.29%
- 19 2Theta, Beta,
Alpha, GammaRF
Acc= 93%,Sen = 91%,Esp = 94%
- 19 2Theta, Beta,
Alpha, GammaSVM
Acc= 88%,Sen = 95%,Esp = 87%
- 19 2 Theta, Beta ThresholdAcc= 84%,Sen = 90%,Esp = 83%
1 (HE et al., 2014)2 (HAL et al., 2014)3 (LI; JIANG; SU, 2016)4 (KAYIKCIOGLU; MALEKI; EROGLU, 2015)5 (BELAKHDAR et al., 2018)
Fonte: Autora.
6 CONCLUSÃO
Neste trabalho foi proposta uma metodologia para detecção de sonolência em tempo
real, utilizando um EEG vestível. Para isto, sinais de EEG de 19 sujeitos de um banco de
dados público foram utilizados para treino, teste e validação. A metodologia de processa-
mento proposta extrai Alfa, Teta, Beta e Gama com uma transformada Wavelet de Haar e,
em seguida, compara as performances dos classificadores: MLP, KNN, LDA, RF, SVM e
um Threshold.
Para uma análise mais próxima da realidade, onde o ruído externo é inevitável, parte
dos sinais do banco de dados foram separados e através de um experimento, adquiridos
pelo EEG vestível. A partir disso, foram realizadas análises do sinal lido e avaliadas as
performances dos classificadores para este sinal. Com isso, foi constatado que uma porção
do espectro de frequência, correspondente a Teta, estava sendo atenuada na aquisição
pelo EEG vestível. Considerando estas atenuações e que o treino do classificador foi
realizado utilizando sinais ideias do banco, as performances antes e após a leitura do
sinal com o EEG vestível foram semelhantes, e por isso os resultados foram considerados
satisfatórios.
O RF e a SVM se mostraram complementares para detecção das classes. O pri-
meiro obteve melhor performance para detectar quando o sujeito estava acordado e o
segundo para detectar sonolência, o que sugere que uma combinação de ambos em um
ensemble deve alcançar resultados ainda melhores. Além disso, o Threshold obteve resul-
tados razoáveis em relação aos classificadores analisados, algumas vezes com a mesma
performance. Todos os classificadores se mostraram, em algum grau, suscetíveis ao ruído
externo, porém isto pode ser amenizado realizando o treino com sinais previamente adqui-
ridos pelo EEG vestível e não, como citado anteriormente, utilizando os sinais ideais.
6.1 TRABALHOS FUTUROS
A partir das análises realizadas percebeu-se que para o progresso do trabalho os
seguintes passos são recomendados:
• A criação de um banco de dados com os sinais do EEG vestível;
• Adaptar o algoritmo da transformada de Haar para decomposição de sinais adquiri-
dos à 512 Hz;
• Avaliar a performance para os ritmos extraídos diretamente pelo EEG vestível;
• Avaliar métodos semi-supervisionados para detecção de sonolência.
REFERÊNCIAS BIBLIOGRÁFICAS
ABN. Dirigir com sono causa 20% dos acidentes de trânsito. 2017.Http://www.saopaulo.sp.gov.br/spnoticias/dirigir-com-sono-causa-20-acidentes.
ABOALAYON, K. A.; OCBAGABIR, H. T.; FAEZIPOUR, M. Efficient sleep stage classifi-cation based on eeg signals. In: IEEE. IEEE Long Island Systems, Applications andTechnology (LISAT) Conference 2014. [S.l.], 2014. p. 1–6.
ACHARYA, U. R. et al. Automated diagnosis of epileptic eeg using entropies. BiomedicalSignal Processing and Control, Elsevier, v. 7, n. 4, p. 401–408, 2012.
AGGARWAL, C. C. DATA CLASSIFICATION: ALGORITHMS AND APPLICATIONS. 1. ed.[S.l.]: CHAPMAN AND HALL/CRC, 2014. (CHAPMAN E HALL/CRC DATA MINING ANDKNOWLEDGE DISCOVERY SERIES). ISBN 978-1-4665-8675-8,978-1-4665-8674-1.
AHN, S. et al. Exploring neuro-physiological correlates of drivers’ mental fatigue causedby sleep deprivation using simultaneous eeg, ecg, and fnirs data. Frontiers in humanneuroscience, Frontiers, v. 10, p. 219, 2016.
AL-GEELANI, N. A.; PIAH, M. A. M.; BASHIR, N. A review on hybrid wavelet regroupingparticle swarm optimization neural networks for characterization of partial discharge acous-tic signals. Renewable and Sustainable Energy Reviews, Elsevier, v. 45, p. 20–35, 2015.
ARNIN, J. et al. Wireless-based portable eeg-eog monitoring for real time drowsiness de-tection. In: IEEE. 2013 35th Annual International Conference of the IEEE Engineeringin Medicine and Biology Society (EMBC). [S.l.], 2013. p. 4977–4980.
ASSARI, M. A.; RAHMATI, M. Driver drowsiness detection using face expression recogni-tion. In: IEEE. 2011 IEEE International Conference on Signal and Image ProcessingApplications (ICSIPA). [S.l.], 2011. p. 337–341.
BAJAJ, V.; PACHORI, R. B. Automatic classification of sleep stages based on the time-frequency image of eeg signals. Computer methods and programs in biomedicine, El-sevier, v. 112, n. 3, p. 320–328, 2013.
BALANDONG, R. P. et al. A review on eeg-based automatic sleepiness detection systemsfor driver. IEEE Access, IEEE, v. 6, p. 22908–22919, 2018.
BALDISSERA, F. B. DETECTOR DE SONOLÊNCIA EM TEMPO REAL UTILIZANDO ATRANSFORMADA HAAR EM UM CANAL DE EEG PARA IMPLEMENTAÇÃO EM FPGA.2015. Monografia (Trabalho de Conclusão de Curso) — Engenharia de Elétrica, a Univer-sidade Federal de Santa Maria, SANTA MARIA, 2015.
BELAKHDAR, I. et al. Single-channel-based automatic drowsiness detection architecturewith a reduced number of eeg features. Microprocessors and Microsystems, Elsevier,v. 58, p. 13–23, 2018.
BHARDWAJ, A.; ALI, R. Image compression using modified fast haar wavelet transform.World Applied Sciences Journal, v. 7, n. 5, p. 647–653, 2009.
BODY, V. Human anatomy atlas 7. [S.l.]: Argosy Publishing Inc., Newton, MA. URL: www.visiblebody. com, 2015.
52
BOONNAK, N.; KAMONSANTIROJ, S.; PIPANMAEKAPORN, L. Classification of drowsi-ness in eeg records based on energy distribution and wavelet-neural network. In: IEEE.2014 IEEE 17th International Conference on Computational Science and Engineering.[S.l.], 2014. p. 1664–1668.
BOOSTANI, R.; KARIMZADEH, F.; NAMI, M. A comparative review on sleep stage classifi-cation methods in patients and healthy individuals. Computer methods and programs inbiomedicine, Elsevier, v. 140, p. 77–91, 2017.
BREIMAN, L. Random forests. KLUWER ACADEMIC PUBLISHERS. MANUFACTUREDIN THE NETHERLANDS., v. 45, p. 5–32, 2001.
CARSKADON, M. A.; DEMENT, W. C. et al. Normal human sleep: an overview. Principlesand practice of sleep medicine, Saunders Philadelphia, v. 4, p. 13–23, 2005.
CORREA, A. G.; OROSCO, L.; LACIAR, E. Automatic detection of drowsiness in eeg re-cords based on multimodal analysis. Medical engineering & physics, Elsevier, v. 36, n. 2,p. 244–249, 2014.
CVETKOVIC, D.; ÜBEYLI, E. D.; COSIC, I. Wavelet transform feature extraction from humanppg, ecg, and eeg signal responses to elf pemf exposures: A pilot study. Digital signalprocessing, Elsevier, v. 18, n. 5, p. 861–874, 2008.
DAVIS, J. V. et al. Information-theoretic metric learning. In: ACM. Proceedings of the 24thinternational conference on Machine learning. [S.l.], 2007. p. 209–216.
DIETTERICH, T. G. An experimental comparison of three methods for constructing ensem-bles of decision trees: Bagging, boosting, and randomization. Machine learning, Springer,v. 40, n. 2, p. 139–157, 2000.
DIYKH, M.; LI, Y. Complex networks approach for eeg signal sleep stages classification.Expert Systems with Applications, Elsevier, v. 63, p. 241–248, 2016.
EBRAHIMI, F. et al. Automatic sleep stage classification based on eeg signals by usingneural networks and wavelet packet coefficients. In: IEEE. 2008 30th Annual InternationalConference of the IEEE Engineering in Medicine and Biology Society. [S.l.], 2008. p.1151–1154.
FABIANI, G. E. et al. Conversion of eeg activity into cursor movement by a brain-computerinterface (bci). IEEE transactions on neural systems and rehabilitation engineering,IEEE, v. 12, n. 3, p. 331–338, 2004.
FAUST, O. et al. Wavelet-based eeg processing for computer-aided seizure detection andepilepsy diagnosis. Seizure, Elsevier, v. 26, p. 56–64, 2015.
FRAIWAN, L. et al. Classification of sleep stages using multi-wavelet time frequency entropyand lda. Methods of information in Medicine, Schattauer GmbH, v. 49, n. 03, p. 230–237,2010.
. Automated sleep stage identification system based on time–frequency analysis ofa single eeg channel and random forest classifier. Computer methods and programs inbiomedicine, Elsevier, v. 108, n. 1, p. 10–19, 2012.
GALAR, M. et al. A review on ensembles for the class imbalance problem: bagging-,boosting-, and hybrid-based approaches. IEEE Transactions on Systems, Man, and Cy-bernetics, Part C (Applications and Reviews), IEEE, v. 42, n. 4, p. 463–484, 2011.
53
GARDNER, M. W.; DORLING, S. Artificial neural networks (the multilayer perceptron)areview of applications in the atmospheric sciences. Atmospheric environment, Elsevier,v. 32, n. 14-15, p. 2627–2636, 1998.
GOLDBERGER, A. L. et al. Physiobank, physiotoolkit, and physionet: components of a newresearch resource for complex physiologic signals. Circulation, Am Heart Assoc, v. 101,n. 23, p. e215–e220, 2000.
GUGER, C. et al. How many people are able to operate an eeg-based brain-computerinterface (bci)? IEEE transactions on neural systems and rehabilitation engineering,IEEE, v. 11, n. 2, p. 145–147, 2003.
. Rapid prototyping of an eeg-based brain-computer interface (bci). IEEE Transac-tions on Neural Systems and Rehabilitation Engineering, IEEE, v. 9, n. 1, p. 49–58,2001.
HAL, B. V. et al. Low-cost eeg-based sleep detection. In: IEEE. 2014 36th Annual Inter-national Conference of the IEEE Engineering in Medicine and Biology Society. [S.l.],2014. p. 4571–4574.
HASSAN, A. R.; BASHAR, S. K.; BHUIYAN, M. I. H. Automatic classification of sleep stagesfrom single-channel electroencephalogram. In: IEEE. 2015 annual IEEE India conference(INDICON). [S.l.], 2015. p. 1–6.
HE, J. et al. A noninvasive real-time driving fatigue detection technology based on left pre-frontal attention and meditation eeg. In: IEEE. 2014 International Conference on Multi-sensor Fusion and Information Integration for Intelligent Systems (MFI). [S.l.], 2014.p. 1–6.
HSU, K.-l.; GUPTA, H. V.; SOROOSHIAN, S. Artificial neural network modeling of therainfall-runoff process. Water resources research, Wiley Online Library, v. 31, n. 10, p.2517–2530, 1995.
HU, J.; MIN, J. Automated detection of driver fatigue based on eeg signals using gradientboosting decision tree model. Cognitive neurodynamics, Springer, v. 12, n. 4, p. 431–440,2018.
JAIN, R. Simple tutorial on svm and parameter tuning in python and r. 2017.URL https://www. hackerearth. com/blog/machine-learning/simple-tutorial-svm-parameter-tuning-python-r/. Visited, v. 20, 2018.
JALILIFARD, A.; PIZZOLATO, E. B. An efficient k-nn approach for automatic drowsinessdetection using single-channel eeg recording. In: IEEE. 2016 38th Annual InternationalConference of the IEEE Engineering in Medicine and Biology Society (EMBC). [S.l.],2016. p. 820–824.
KARTSCH, V. et al. A wearable eeg-based drowsiness detection system with blink durationand alpha waves analysis. In: IEEE. 2017 8th International IEEE/EMBS Conference onNeural Engineering (NER). [S.l.], 2017. p. 251–254.
KAYIKCIOGLU, T.; MALEKI, M.; EROGLU, K. Fast and accurate pls-based classification ofeeg sleep using single channel data. Expert Systems with Applications, Elsevier, v. 42,n. 21, p. 7825–7830, 2015.
KERMIT, M. et al. Treatment of obstructive sleep apnea syndrome by monitoring patientsairflow signals. Pattern Recognition Letters, Elsevier, v. 21, n. 3, p. 277–281, 2000.
54
KIM, S. M. et al. Characteristics of vertex wave during light sleep according to age. Journalof Korean Sleep Research Society, Korean Sleep Research Society, v. 9, n. 1, p. 5–9,2012.
KO, L.-W. et al. Single channel wireless eeg device for real-time fatigue level detection. In:IEEE. 2015 International Joint Conference on Neural Networks (IJCNN). [S.l.], 2015.p. 1–5.
KOLEY, B.; DEY, D. An ensemble system for automatic sleep stage classification usingsingle channel eeg signal. Computers in biology and medicine, Elsevier, v. 42, n. 12, p.1186–1195, 2012.
LAL, S. K.; CRAIG, A. A critical review of the psychophysiology of driver fatigue. Biologicalpsychology, Elsevier, v. 55, n. 3, p. 173–194, 2001.
LEE, B.-G.; LEE, B.-L.; CHUNG, W.-Y. Mobile healthcare for automatic driving sleep-onsetdetection using wavelet-based eeg and respiration signals. Sensors, Multidisciplinary Digi-tal Publishing Institute, v. 14, n. 10, p. 17915–17936, 2014.
LI, G.; CHUNG, W.-Y. Estimation of eye closure degree using eeg sensors and its applica-tion in driver drowsiness detection. Sensors, Multidisciplinary Digital Publishing Institute,v. 14, n. 9, p. 17491–17515, 2014.
LI, G.; LEE, B.-L.; CHUNG, W.-Y. Smartwatch-based wearable eeg system for driver drow-siness detection. IEEE Sensors Journal, IEEE, v. 15, n. 12, p. 7169–7180, 2015.
LI, P.; JIANG, W.; SU, F. Single-channel eeg-based mental fatigue detection based on deepbelief network. In: IEEE. 2016 38th Annual International Conference of the IEEE Engi-neering in Medicine and Biology Society (EMBC). [S.l.], 2016. p. 367–370.
LU, J. et al. A putative flip–flop switch for control of rem sleep. Nature, Nature PublishingGroup, v. 441, n. 7093, p. 589, 2006.
MARCOS, J. V. et al. Automated detection of obstructive sleep apnoea syndrome fromoxygen saturation recordings using linear discriminant analysis. Medical & biological en-gineering & computing, Springer, v. 48, n. 9, p. 895–902, 2010.
MONS, T. L. U. of. The dreams sleep spindles database. In: . [S.l.: s.n.], 2015.
MOSER, D. et al. Sleep classification according to aasm and rechtschaffen & kales: effectson sleep scoring parameters. Sleep, Oxford University Press, v. 32, n. 2, p. 139–149, 2009.
MU, Z.; HU, J.; MIN, J. Driver fatigue detection system using electroencephalography sig-nals based on combined entropy features. Applied Sciences, Multidisciplinary Digital Pu-blishing Institute, v. 7, n. 2, p. 150, 2017.
MULCAHY, C. Image compression using the haar wavelet transform. Spelman Scienceand Mathematics Journal, Citeseer, v. 1, n. 1, p. 22–31, 1997.
MYNDPLAY. MyndBand BLE EEG Brainwave Headset. 2011. Acesso em 13 jan. 2020.Disponível em: <https://store.myndplay.com/products.php?prod=48>.
NAVOT, A. et al. Nearest neighbor based feature selection for regression and its applicationto neural activity. In: Advances in Neural Information Processing Systems. [S.l.: s.n.],2006. p. 996–1002.
55
NHTSA. Traffic safety facts: crash and stats. In: . [S.l.]: NHTSAs National Center for Statis-tics and Analysis, 2017.
OGINO, M.; MITSUKURA, Y. Portable drowsiness detection through use of a prefrontalsingle-channel electroencephalogram. Sensors, Multidisciplinary Digital Publishing Insti-tute, v. 18, n. 12, p. 4477, 2018.
OMS. Global status report on road safety 2018. [S.l.]: World Health Organization, 2018.
OPITZ, D.; MACLIN, R. Popular ensemble methods: An empirical study. Journal of artifi-cial intelligence research, v. 11, p. 169–198, 1999.
PATRICK, K. C. et al. An algorithm for automatic detection of drowsiness for use in wea-rable eeg systems. In: IEEE. 2016 38th Annual International Conference of the IEEEEngineering in Medicine and Biology Society (EMBC). [S.l.], 2016. p. 3523–3526.
PECHENIZKIY, M. et al. Class noise and supervised learning in medical domains: The ef-fect of feature extraction. In: IEEE. 19th IEEE Symposium on Computer-Based MedicalSystems (CBMS’06). [S.l.], 2006. p. 708–713.
PURVES, D. et al. Neuroscience, 6th Ed. [S.l.]: Addison-Wesley, 2017. v. 1.
QIAN, D. et al. Drowsiness detection by bayesian-copula discriminant classifier based oneeg signals during daytime short nap. IEEE Transactions on Biomedical Engineering,IEEE, v. 64, n. 4, p. 743–754, 2016.
RASCHKA, S.; MIRJALILI, V. Python machine learning. [S.l.]: Packt Publishing Ltd, 2017.
RAVIRAJ, P.; SANAVULLAH, M. The modified 2d-haar wavelet transformation in imagecompression. Middle-East Journal of Scientific Research, Citeseer, v. 2, n. 2, p. 73–78,2007.
RETAMAL, G. R. IMPLEMENTAÇÃO FPGA DE UM PROCESSADOR WAVELET HAARAPLICADO A DETECÇÃO DE SONOLÊNCIA A PARTIR DE UM ÚNICO CANAL DE EEG.2018. Monografia (Trabalho de Conclusão de Curso) — Engenharia de Computação, aUniversidade Federal de Santa Maria, SANTA MARIA, 2018.
RODRÍGUEZ-SOTELO, J. et al. Automatic sleep stages classification using eeg entropyfeatures and unsupervised pattern analysis techniques. Entropy, Multidisciplinary DigitalPublishing Institute, v. 16, n. 12, p. 6573–6589, 2014.
SAHAYADHAS, A.; SUNDARAJ, K.; MURUGAPPAN, M. Hypothalamic regulation of sleepand circadian rhythms. Nature, Nature, v. 437, n. 7063, p. 1257–1263, 2005.
. Detecting driver drowsiness based on sensors: a review. Sensors, MultidisciplinaryDigital Publishing Institute, v. 12, n. 12, p. 16937–16953, 2012.
SAMIEE, K. et al. Sleep stage classification using sparse rational decomposition of sin-gle channel eeg records. In: IEEE. 2015 23rd European Signal Processing Conference(EUSIPCO). [S.l.], 2015. p. 1860–1864.
SANEI, S.; CHAMBERS, J. A. Eeg signal processing. Wiley Online Library, 2007.
SCHOMER, D.; SILVA, F. H. Niedermeyer’s Encephalography, 6th Ed. [S.l.]: LippincottWilliams & Wilkins, 2011. v. 1.
56
SCHOMER, D. L.; SILVA, F. L. D. Niedermeyer’s electroencephalography: basic princi-ples, clinical applications, and related fields. [S.l.]: Lippincott Williams & Wilkins, 2012.
SHARMA, R.; PACHORI, R. B.; UPADHYAY, A. Automatic sleep stages classification basedon iterative filtering of electroencephalogram signals. Neural Computing and Applicati-ons, Springer, v. 28, n. 10, p. 2959–2978, 2017.
SILVEIRA, T. d.; KOZAKEVICIUS, A. d. J.; RODRIGUES, C. R. Drowsiness detection forsingle channel eeg by dwt best m-term approximation. Research on Biomedical Engine-ering, SciELO Brasil, v. 31, n. 2, p. 107–115, 2015.
ŠUŠMÁKOVÁ, K. Human sleep and sleep eeg. Measurement science review, Citeseer,v. 4, n. 2, p. 59–74, 2004.
TAN, S. Neighbor-weighted k-nearest neighbor for unbalanced text corpus. Expert Sys-tems with Applications, Elsevier, v. 28, n. 4, p. 667–671, 2005.
THEODORIDIS, S.; KOUTROUMBAS, K. et al. Pattern recognition. IEEE Transactions onNeural Networks, IEEE INSTITUTE OF ELECTRICAL AND ELECTRONICS, v. 19, n. 2,p. 376, 2008.
VIDAKOVIC, B.; MUELLER, P. Wavelets for kids. Instituto de Estadística, Universidad deDuke, 1994.
VISA, S. et al. Confusion matrix-based feature selection. MAICS, v. 710, p. 120–127, 2011.
WALBER. Sensitivity and specificity. 2014. Disponível em: <https://en.wikipedia.org/wiki/Sensitivity_and_specificity>.
WANG, L. Support vector machines: theory and applications. [S.l.]: Springer Science& Business Media, 2005. v. 177.
YAO, Z.; RUZZO, W. L. A regression-based k nearest neighbor algorithm for gene functionprediction from heterogeneous data. In: BIOMED CENTRAL. BMC bioinformatics. [S.l.],2006. v. 7, n. 1, p. S11.
YAZICIOGLU, R. F. et al. A 200 µw eight-channel eeg acquisition asic for ambulatory eegsystems. IEEE Journal of Solid-State Circuits, IEEE, v. 43, n. 12, p. 3025–3038, 2008.
ZHU, G.; LI, Y.; WEN, P. P. Analysis and classification of sleep stages based on differencevisibility graphs from a single-channel eeg signal. IEEE journal of biomedical and healthinformatics, IEEE, v. 18, n. 6, p. 1813–1821, 2014.
APÊNDICE A – RESULTADOS PARA TODAS AS AMOSTRAS
Tabela A.1 – Resultados de acurácia, sensibilidade e especificidade para todos os classificadores e todos dados.
GRUPO DE TESTE GRUPO DE VALIDAÇÃO
PACIENTE VP VN FP FN ACC SEN ESP VP VN FP FN ACC SEN ESP PACIENTE
SC4191 697 1330 97 254 0.852 0.733 0.932 346 1214 701 3 0.689 0.991 0.634 SC4171
SC4192 447 1605 102 59 0.927 0.883 0.940 644 1050 432 87 0.781 0.881 0.736 SC4172
SC4121 511 1714 95 0 0.959 1.000 0.947 666 1501 33 120 0.934 0.847 0.978 SC4041
SC4122 404 1670 249 4 0.891 0.990 0.870 MLP 511 1766 7 140 0.939 0.785 0.996 SC4042
SC4051 253 2186 72 8 0.968 0.969 0.968 297 2006 1 249 0.902 0.544 1.000 SC4031
SC4052 726 1645 135 4 0.945 0.995 0.924 296 1955 2 149 0.937 0.665 0.999 SC4032
SC4021 575 1899 8 64 0.972 0.900 0.996 600 1766 90 71 0.936 0.894 0.952 SC4011
SC4022 524 524 524 524 0.965 0.894 0.987 725 1759 65 27 0.964 0.964 0.964 SC4012
Média 0.935 0.921 0.946 0.885 0.822 0.907 Média
SC4191 757 1303 124 194 0.866 0.796 0.913 348 1328 587 1 0.740 0.997 0.693 SC4171
SC4192 449 1637 70 57 0.943 0.887 0.959 659 1245 391 72 0.804 0.902 0.761 SC4172
SC4121 505 1689 120 6 0.946 0.988 0.934 682 1508 26 104 0.944 0.868 0.983 SC4041
SC4122 405 1709 210 3 0.908 0.993 0.891 KNN 512 1768 5 139 0.941 0.786 0.997 SC4042
SC4051 246 2192 66 15 0.968 0.943 0.971 336 2001 6 210 0.915 0.615 0.997 SC4031
SC4052 714 1564 216 16 0.908 0.978 0.879 306 1956 1 139 0.942 0.688 0.999 SC4032
SC4021 565 1902 5 74 0.969 0.884 0.997 604 1788 68 67 0.947 0.900 0.963 SC4011
SC4022 549 1803 59 37 0.961 0.937 0.968 723 1771 53 29 0.968 0.961 0.971 SC4012
Média 0.934 0.926 0.939 0.900 0.840 0.921 Média
58
GRUPO DE TESTE GRUPO DE VALIDAÇÃO
PACIENTE VP VN FP FN ACC SEN ESP VP VN FP FN ACC SEN ESP PACIENTE
SC4191 1 1421 6 950 0.598 0.001 0.996 0 1592 323 349 0.703 0.000 0.831 SC4171
SC4192 0 1700 7 506 0.768 0.000 0.996 87 899 737 644 0.417 0.119 0.550 SC4172
SC4121 0 1807 2 511 0.779 0.000 0.999 4 1531 3 782 0.662 0.005 0.998 SC4041
SC4122 0 1918 1 408 0.824 0.000 0.999 LDA 0 1766 7 651 0.729 0.000 0.996 SC4042
SC4051 1 2020 238 260 0.802 0.004 0.895 430 1920 87 116 0.920 0.788 0.957 SC4031
SC4052 50 1472 308 680 0.606 0.068 0.827 138 1932 25 307 0.862 0.310 0.987 SC4032
SC4021 80 1905 2 559 0.780 0.125 0.999 0 1855 1 671 0.734 0.000 0.999 SC4011
SC4022 0 1861 1 586 0.760 0.000 0.999 77 1805 19 675 0.731 0.102 0.990 SC4012
Média 0.740 0.025 0.964 0.720 0.166 0.913 Média
SC4191 770 1374 53 181 0.902 0.810 0.963 346 1515 400 3 0.822 0.991 0.791 SC4171
SC4192 456 1640 67 50 0.947 0.901 0.961 629 1348 288 102 0.835 0.860 0.824 SC4172
SC4121 498 1697 112 13 0.946 0.975 0.938 694 1516 18 92 0.953 0.883 0.988 SC4041
SC4122 393 1754 165 15 0.923 0.963 0.914 RF 503 1768 5 148 0.937 0.773 0.997 SC4042
SC4051 246 2239 19 15 0.987 0.943 0.992 346 2006 1 200 0.921 0.634 1.000 SC4031
SC4052 676 1724 56 54 0.956 0.926 0.969 344 1956 1 101 0.958 0.773 0.999 SC4032
SC4021 571 1902 5 68 0.971 0.894 0.997 619 1806 50 52 0.960 0.923 0.973 SC4011
SC4022 536 1846 16 50 0.973 0.915 0.991 718 1795 29 34 0.976 0.955 0.984 SC4012
Média 0.951 0.916 0.966 0.920 0.849 0.945 Média
PACIENTE VP VN FP FN ACC SEN ESP VP VN FP FN ACC SEN ESP PACIENTE
SC4191 847 1291 136 104 0.899 0.891 0.905 348 1177 738 1 0.674 0.997 0.615 SC4171
SC4192 475 1530 177 31 0.906 0.939 0.896 651 1188 448 80 0.777 0.891 0.726 SC4172
SC4121 511 1526 283 0 0.878 1.000 0.844 731 1483 51 55 0.954 0.930 0.967 SC4041
SC4122 408 1436 483 0 0.792 1.000 0.748 SVM 566 1764 9 85 0.961 0.869 0.995 SC4042
59
GRUPO DE TESTE GRUPO DE VALIDAÇÃO
SC4051 254 2166 92 7 0.961 0.973 0.959 355 2003 4 191 0.924 0.650 0.998 SC4031
SC4052 723 1525 255 7 0.896 0.990 0.857 368 1955 2 77 0.967 0.827 0.999 SC4032
SC4021 593 1897 10 46 0.978 0.928 0.995 645 1724 132 26 0.937 0.961 0.929 SC4011
SC4022 576 1783 79 10 0.964 0.983 0.958 732 1730 94 20 0.956 0.973 0.948 SC4012
Média 0.909 0.963 0.895 0.894 0.887 0.897 Média
SC4191 818 1299 128 133 0.890 0.860 0.910 349 527 1388 0 0.387 1.000 0.275 SC4171
SC4192 444 1526 181 62 0.890 0.877 0.894 730 291 1345 1 0.431 0.999 0.178 SC4172
SC4121 510 1658 151 1 0.934 0.998 0.917 656 1488 46 130 0.924 0.835 0.970 SC4041
SC4122 405 1738 181 3 0.921 0.993 0.906 THRESHOLD 513 1755 18 138 0.936 0.788 0.990 SC4042
SC4051 252 2085 173 9 0.928 0.966 0.923 487 1987 20 59 0.969 0.892 0.990 SC4031
SC4052 726 1434 346 4 0.861 0.995 0.806 372 1954 3 73 0.968 0.836 0.998 SC4032
SC4021 578 1887 20 61 0.968 0.905 0.990 606 1730 126 65 0.924 0.903 0.932 SC4011
SC4022 563 1613 249 23 0.889 0.961 0.866 727 1678 146 25 0.934 0.967 0.920 SC4012
Média 0.910 0.944 0.901 0.809 0.902 0.782 Média
APÊNDICE B – RESULTADOS PARA DIFERENTES TAMANHOS DE ÉPOCAS
Tabela B.1 – A tabela mostra os resultados de acurácia, sensibilidade e especificidade para cinco tamanhos de épocas diferentes,utilizando o RF.
30 s 5 s 10 s 10 s com janela de 1 s 10 s com janela de 5 s
Paciente Acc Sen Esp Acc Sen Esp Acc Sen Esp Acc Sen Esp Acc Sen EspSC4191 0.905 0.823 0.959 0.843 0.713 0.929 0.702 0.516 0.800 0.849 0.755 0.913 0.880 0.783 0.945SC4192 0.947 0.901 0.960 0.889 0.920 0.880 0.704 0.570 0.729 0.873 0.932 0.855 0.924 0.913 0.927SC4121 0.945 0.977 0.936 0.907 0.895 0.911 0.710 0.342 0.855 0.898 0.930 0.889 0.930 0.957 0.923SC4122 0.919 0.963 0.909 0.848 0.926 0.831 0.683 0.420 0.764 0.831 0.954 0.805 0.883 0.948 0.870SC4051 0.988 0.950 0.992 0.967 0.951 0.968 0.696 0.224 0.772 0.958 0.960 0.958 0.977 0.955 0.980SC4052 0.957 0.930 0.967 0.929 0.888 0.946 0.676 0.515 0.772 0.930 0.922 0.933 0.950 0.937 0.955SC4021 0.973 0.897 0.998 0.974 0.923 0.991 0.766 0.431 0.935 0.975 0.933 0.989 0.975 0.911 0.996SC4022 0.975 0.923 0.991 0.940 0.954 0.936 0.719 0.470 0.835 0.935 0.957 0.928 0.963 0.944 0.969SC4171 0.823 0.991 0.793 0.809 0.993 0.776 0.709 0.560 0.747 0.780 0.995 0.741 0.813 0.995 0.780SC4172 0.844 0.870 0.832 0.847 0.868 0.837 0.535 0.333 0.677 0.831 0.874 0.812 0.844 0.873 0.831SC4041 0.953 0.888 0.986 0.944 0.891 0.971 0.710 0.574 0.822 0.949 0.910 0.969 0.951 0.895 0.980SC4042 0.936 0.768 0.997 0.933 0.770 0.993 0.677 0.406 0.828 0.941 0.804 0.991 0.938 0.782 0.995SC4031 0.928 0.667 1.000 0.959 0.839 0.992 0.769 0.420 0.908 0.974 0.895 0.996 0.962 0.831 0.998SC4032 0.953 0.751 0.999 0.976 0.881 0.997 0.744 0.368 0.867 0.982 0.915 0.997 0.978 0.887 0.998SC4011 0.961 0.925 0.974 0.954 0.940 0.959 0.729 0.499 0.855 0.951 0.951 0.951 0.956 0.929 0.966SC4012 0.977 0.953 0.987 0.967 0.957 0.971 0.725 0.475 0.885 0.965 0.963 0.965 0.973 0.959 0.979Média 0.936 0.886 0.955 0.918 0.894 0.931 0.704 0.445 0.816 0.914 0.916 0.918 0.931 0.906 0.943
Fonte: Autora.
61
Tabela B.2 – A tabela mostra os resultados de acurácia, sensibilidade e especificidade para cinco tamanhos de épocas diferentes,utilizando a SVM.
30 s 5 s 10 s 10 s com janela de 1 s 10 s com janela de 5 s
Paciente Acc Sen Esp Acc Sen Esp Acc Sen Esp Acc Sen Esp Acc Sen EspSC4191 0.899 0.891 0.905 0.785 0.875 0.725 0.645 0.872 0.527 0.802 0.846 0.773 0.859 0.859 0.859SC4192 0.906 0.939 0.896 0.804 0.930 0.766 0.615 0.654 0.608 0.815 0.934 0.780 0.863 0.932 0.842SC4121 0.878 1.000 0.844 0.792 0.997 0.735 0.627 0.696 0.600 0.810 0.997 0.757 0.848 0.997 0.806SC4122 0.792 1.000 0.748 0.654 0.998 0.580 0.511 0.638 0.472 0.680 0.999 0.612 0.740 1.000 0.685SC4051 0.961 0.973 0.959 0.902 0.984 0.893 0.596 0.301 0.643 0.911 0.983 0.903 0.939 0.981 0.934SC4052 0.896 0.990 0.857 0.849 0.992 0.791 0.605 0.692 0.554 0.853 0.991 0.797 0.875 0.990 0.828SC4021 0.978 0.928 0.995 0.969 0.952 0.975 0.768 0.516 0.894 0.970 0.956 0.975 0.980 0.955 0.988SC4022 0.964 0.983 0.958 0.840 0.991 0.793 0.655 0.615 0.673 0.856 0.985 0.816 0.915 0.982 0.895SC4171 0.674 0.997 0.615 0.586 0.997 0.511 0.467 0.814 0.377 0.606 0.997 0.535 0.648 0.997 0.584SC4172 0.777 0.891 0.726 0.730 0.928 0.641 0.455 0.572 0.373 0.741 0.919 0.661 0.764 0.911 0.698SC4041 0.954 0.930 0.967 0.939 0.938 0.939 0.723 0.656 0.778 0.943 0.941 0.945 0.953 0.941 0.959SC4042 0.961 0.869 0.995 0.955 0.885 0.980 0.696 0.536 0.785 0.956 0.886 0.981 0.958 0.883 0.985SC4031 0.924 0.650 0.998 0.971 0.915 0.986 0.727 0.505 0.815 0.978 0.927 0.992 0.972 0.889 0.995SC4032 0.967 0.827 0.999 0.983 0.946 0.991 0.722 0.418 0.822 0.983 0.945 0.992 0.986 0.946 0.996SC4011 0.937 0.961 0.929 0.904 0.943 0.890 0.704 0.593 0.765 0.908 0.943 0.895 0.921 0.949 0.911SC4012 0.956 0.973 0.948 0.910 0.963 0.888 0.708 0.589 0.783 0.920 0.965 0.901 0.941 0.969 0.929Média 0.901 0.925 0.896 0.848 0.952 0.818 0.639 0.604 0.654 0.858 0.951 0.832 0.885 0.949 0.868
Fonte: Autora.
62
Tabela B.3 – A tabela mostra os resultados de acurácia, sensibilidade e especificidade para cinco tamanhos de épocas diferentes,utilizando o Threshold.
30 s 5 s 10 s 10 s com janela de 1 s 10 s com janela de 5 s
Paciente Acc Sen Esp Acc Sen Esp Acc Sen Esp Acc Sen Esp Acc Sen EspSC4191 0.890 0.860 0.910 0.824 0.780 0.854 0.676 0.675 0.676 0.823 0.780 0.851 0.852 0.815 0.877SC4192 0.890 0.877 0.894 0.848 0.809 0.860 0.694 0.602 0.711 0.847 0.808 0.858 0.866 0.844 0.872SC4121 0.934 0.998 0.917 0.881 0.988 0.850 0.691 0.688 0.692 0.882 0.989 0.852 0.905 0.995 0.880SC4122 0.921 0.993 0.906 0.834 0.982 0.802 0.635 0.513 0.672 0.838 0.982 0.808 0.870 0.987 0.845SC4051 0.928 0.966 0.923 0.893 0.918 0.890 0.692 0.263 0.761 0.890 0.919 0.887 0.908 0.943 0.903SC4052 0.861 0.995 0.806 0.821 0.942 0.771 0.636 0.627 0.641 0.821 0.939 0.773 0.839 0.967 0.786SC4021 0.968 0.905 0.990 0.944 0.871 0.969 0.754 0.555 0.854 0.944 0.871 0.969 0.955 0.889 0.977SC4022 0.889 0.961 0.866 0.831 0.961 0.790 0.679 0.612 0.711 0.826 0.954 0.786 0.852 0.964 0.817SC4171 0.387 1.000 0.275 0.445 0.999 0.344 0.400 0.910 0.269 0.445 0.999 0.345 0.419 0.999 0.313SC4172 0.431 0.999 0.178 0.520 0.988 0.311 0.492 0.894 0.211 0.519 0.987 0.309 0.483 0.995 0.254SC4041 0.924 0.835 0.970 0.893 0.772 0.954 0.701 0.557 0.819 0.893 0.777 0.953 0.907 0.800 0.962SC4042 0.936 0.788 0.990 0.920 0.740 0.986 0.696 0.487 0.813 0.919 0.739 0.985 0.928 0.764 0.988SC4031 0.969 0.892 0.990 0.944 0.845 0.971 0.742 0.498 0.839 0.944 0.844 0.971 0.955 0.863 0.980SC4032 0.968 0.836 0.998 0.949 0.767 0.990 0.731 0.359 0.853 0.948 0.767 0.989 0.956 0.784 0.995SC4011 0.924 0.903 0.932 0.894 0.868 0.904 0.707 0.569 0.782 0.893 0.871 0.901 0.907 0.894 0.911SC4012 0.934 0.967 0.920 0.901 0.936 0.887 0.708 0.601 0.777 0.903 0.936 0.890 0.918 0.953 0.904Média 0.860 0.923 0.842 0.834 0.885 0.821 0.665 0.588 0.693 0.834 0.885 0.820 0.845 0.904 0.829
Fonte: Autora.