this study was financied in part by the coordenação de

64

Upload: others

Post on 16-Oct-2021

1 views

Category:

Documents


0 download

TRANSCRIPT

This study was financied in part by the Coordenação de Aperfeiçoamento dePessoal de Nível Superior - Brasil (CAPES) – Finance Code 001

Sistema de geração automática de ficha catalográfica da UFSM. Dados fornecidos pelo autor(a). Sob supervisão da Direção da Divisão de Processos Técnicos da Biblioteca Central. Bibliotecária responsável Paula Schoenfeldt Patta CRB 10/1728.

Declaro, VANESSA CASSENOTE, para os devidos fins e sob as penas da lei,que a pesquisa constante neste trabalho de conclusão de curso(Dissertação) foi por mim elaborada e que as informações necessáriasobjeto de consulta em literatura e outras fontes estão devidamentereferenciadas. Declaro, ainda, que este trabalho ou parte dele não foiapresentado anteriormente para obtenção de qualquer outro grauacadêmico, estando ciente de que a inveracidade da presente declaraçãopoderá resultar na anulação da titulação pela Universidade, entre outrasconsequências legais.

Cassenote, Vanessa Uma metodologia para detecção de sonolência em temporeal com EEG vestível com duas derivações / VanessaCassenote.- 2020. 62 p.; 30 cm

Orientador: Cesar Ramos Rodrigues Coorientador: Cesar Augusto Prior Dissertação (mestrado) - Universidade Federal de SantaMaria, Centro de Tecnologia, Programa de Pós-Graduação emCiência da Computação , RS, 2020

1. EEG Vestível 2. Processamento de Sinais 3.Aprendizado de Máquina I. Ramos Rodrigues, Cesar II.Prior, Cesar Augusto III. Título.

AGRADECIMENTOS

Agradeço a todos que fizeram parte da minha vida em algum momento durante

esses dois anos e que com certeza contribuíram para o meu crescimento de uma forma

ou de outra. Em especial ao professor Cesar Ramos Rodrigues pela orientação neste

trabalho, pela paciência e por me corrigir quando necessário e, ao professor Cesar Augusto

Prior pela coorientação, apoio e incentivo desde a graduação. Agradeço também aos

professores Ana Trindade Winck e Daniel Welfer por aceitarem fazer parte da banca de

avaliação deste trabalho e contribuir para o aperfeiçoamento do mesmo.

Agradeço ainda, aos meus colegas da sala 286, especialmente ao Cesar Abascal

e ao Victor O. Costa, pelas discussões e parceria. Agradeço também, ao Rafael Follmann

Faccenda e ao Vinícius Lopes por todas as conversas, risadas e parceria nas sextas e

sábados enriquecedores do PEG e, a Maira Bolfe e o Fabrício M. Bottega pelos bolos,

companheirismo e amizade durante todos os anos que moramos juntos.

Por fim, agradeço as pessoas que mais me motivaram e me apoiaram para que

eu conseguisse chegar até a finalização deste trabalho, meus pais: Marilene Felipetto

Cassenote e Otacilio Manuel Cassenote e, o meu namorado Sandro Sartori Meneghetti.

Agradeço ainda, a Capes pelo apoio financeiro.

RESUMO

UMA METODOLOGIA PARA DETECÇÃO DE SONOLÊNCIA EM TEMPOREAL COM EEG VESTÍVEL COM DUAS DERIVAÇÕES

AUTOR: Vanessa CassenoteORIENTADOR: Cesar Ramos RodriguesCOORIENTADOR: Cesar Augusto Prior

A vida moderna exige, muitas vezes, que o sujeito modifique seu ciclo circadiano devido a

sua profissão. Esta mudança implica em baixa no desempenho, mau humor e, principal-

mente, redução da capacidade de atenção e sonolência em horários inoportunos. Segundo

a OMS, cerca de 1.35 milhões de pessoas morrem por ano em acidentes no trânsito. As-

sim, neste trabalho foi proposta uma metodologia para detecção de sonolência em tempo

real, com o objetivo de ajudar a minimizar o problema citado. A metodologia proposta extrai

Alfa, Teta, Beta e Gama através da transformada Wavelet de Haar e compara performan-

ces dos classificadores: MLP, KNN, LDA, RF, SVM e um Threshold. Todas as análises

realizadas utilizaram sinais de um banco de dados público. Para que se possa avaliar a

metodologia em um ambiente mais realista, parte dos sinais foram separados e através

de um experimento, foram adquiridos por um EEG vestível. A partir disso, analisou-se o

sinal adquirido e as performances dos classificadores para estes sinais. Além disso, foram

avaliadas também as performances dos classificadores para todas as amostras (sem a

leitura pelo EEG) e diferentes tamanhos de épocas, sendo uma época de 10 s com janela

deslizante de 3 s a melhor, onde obteve-se sensibilidade de 95% com uma SVM.

Palavras-chave: EEG Vestível, Processamento de Sinais, Aprendizado de Máquina

ABSTRACT

A METHODOLOGY FOR DROWSINESS DETECTION IN REAL-TIMEWITH WEARABLE EEG WITH TWO DERIVATIONS

AUTHOR: Vanessa CassenoteADVISOR: Cesar Ramos RodriguesCO-ADVISOR: Cesar Augusto Prior

Modern life often requires the subject to modify his circadian cycle due to his profession.

This change implies low performance, bad mood and, mainly, reduced attention and, drow-

siness at unsuitable times. According to the WHO, about 1.35 million people die each year

in traffic accidents. Thus, this work proposes a methodology for detecting drowsiness in

real time, with the aim of helping to minimize the problem mentioned. The proposed metho-

dology extracts Alpha, Theta, Beta and Gamma through the Haar Wavelet transform and

compares performances of the classifiers: MLP, KNN, LDA, RF, SVM and a Threshold. All

analyzes performed used signals from a public database. In order to be able to evaluate

the methodology in a more realistic environment, part of the signals were separated and

through an experiment, they were acquired by a wearable EEG. From there, the acquired

signal and the classifier performances for these signals were analyzed. In addition, the

performances of the classifiers for all samples (without EEG aquisition) and different epoch

sizes were also evaluated, being a 10 s epoch with a sliding window of 3 s the best, where

a sensitivity of 95% was obtained with an SVM.

Keywords: Wearable EEG, Signal Processing, Machine Learning

LISTA DE FIGURAS

Figura 2.1 – Sistema 10-20 de posicionamento de eletrodos pela Federação Interna-cional de Neurofisiologia Clínica. (A), (B) e (C) ilustram três mudançasdistintas no EEG associadas à redução da vigília e a caixa rosa ilustra asalterações observadas pelos picos nas membranas neuronais, quandoadquiridas por eletrodos intra-célula, em direção à superfície do escalpo. 14

Figura 2.2 – Parte do sinal da segunda noite de gravação do sujeito 00, com anotaçõesde hipnogramas (W - acordado, 1 - primeiro estágio de sono, 2 - segundoestágio de sono, 3 - terceiro estágio de sono, 4 - quarto estágio de sono). 17

Figura 2.3 – EEG Vestível. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18Figura 2.4 – Tipos de funções Wavelet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20Figura 2.5 – DWT de Haar para um sinal em 4 níveis de decomposição. A são os

vetores de médias ou aproximação e D os vetores de detalhes. . . . . . . . . 22Figura 2.6 – Fluxo geral de um problema de classificação. . . . . . . . . . . . . . . . . . . . . . . . . . . . 24Figura 2.7 – Redes Neurais - feed-forward multi-layer perceptron (MLP). . . . . . . . . . . . . . 25Figura 2.8 – Maximização da margem com as Máquinas de Vetores de Suporte (SVM). 26Figura 2.9 – Mudança de dimensão das Máquinas de Vetores de Suporte (SVM). . . . . 27Figura 2.10 – Classificador k-Vizinhos mais Próximos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28Figura 2.11 – Classificador florestas aleatórias. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29Figura 2.12 – Exemplo de um problema com duas classes, considerando um pro-

blema desbalanceado. Amostras oriundas do Physionet, sendo a classeP amostras anotadas como "S1" e "S2" e a classe N como "W". Sãocalculadas a Sensibilidade (Sen), Especificidade (Esp) e Acurácia (Acc). 30

Figura 4.1 – Fluxograma com a separação dos dados utilizados e as análises realizas. 37Figura 4.2 – Fluxograma geral de processamento com EEG vestível. . . . . . . . . . . . . . . . . 39Figura 4.3 – Fluxograma geral de processamento para comparação com sinais adqui-

ridos pelo EEG vestível. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39Figura 5.1 – A figura mostra os resultados de sensibilidade, especificidade e acurácia

para os sinais do grupo de teste e validação para cada classificador. Osresultados com o sufixo "_EEG" correspondem ao experimento TPEEG. . 42

Figura 5.2 – A figura mostra parte do sinal do primeiro dia de gravação do sujeito 5. Oprimeiro gráfico compara a FFT do sinal original e, este após ser lido peloEEG vestível. O segundo gráfico mostra o sinal no domínio do tempo. Eo último gráfico mostra uma aproximação do anterior. . . . . . . . . . . . . . . . . . . . 44

Figura 5.3 – A figura mostra os ritmos cerebrais Teta, Alfa, Beta e Gama, para parte dosinal do primeiro dia de gravação do sujeito 5. A primeira linha de gráficosmostra cada ritmo para o sinal original do banco de dados e a segunda, omesmo sinal após aquisição pelo EEG vestível . . . . . . . . . . . . . . . . . . . . . . . . . 44

Figura 5.4 – As figuras mostram os resultados de sensibilidade, especificidade e acu-rácia para cada um dos classificadores, com todas as amostras dos gru-pos de teste e validação. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

LISTA DE TABELAS

Tabela 2.1 – Filtros não-normalização e normalizados para a DWT de Haar. . . . . . . . . . 22Tabela 2.2 – Principais características dos estudos revisados. . . . . . . . . . . . . . . . . . . . . . . . 32Tabela 4.1 – Especificações de software usados em Python 2.7 e biblioteca sklearn

0.20.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40Tabela 5.1 – Tempo médio de processamento para cada época de 30 segundos. . . . . 45Tabela 5.2 – Tempo médio de processamento para cada época de 10 s com janela

deslizante de 5s. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45Tabela 5.3 – A tabela mostra os resultados de acurácia, sensibilidade e especifici-

dade para uma época de 10 segundos com uma janela deslizante de 5segundos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

Tabela 5.4 – São apresentadas as principais características dos trabalhos relaciona-dos e, os resultados encontrados para RF, SVM e o Threshold, utilizandouma época de 10 s com janela deslizante de 5 s. . . . . . . . . . . . . . . . . . . . . . . . . 49

Tabela A.1 – Resultados de acurácia, sensibilidade e especificidade para todos osclassificadores e todos dados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

Tabela B.1 – A tabela mostra os resultados de acurácia, sensibilidade e especificidadepara cinco tamanhos de épocas diferentes, utilizando o RF. . . . . . . . . . . . . . . 60

Tabela B.2 – A tabela mostra os resultados de acurácia, sensibilidade e especificidadepara cinco tamanhos de épocas diferentes, utilizando a SVM. . . . . . . . . . . . 61

Tabela B.3 – A tabela mostra os resultados de acurácia, sensibilidade e especificidadepara cinco tamanhos de épocas diferentes, utilizando o Threshold. . . . . . . 62

LISTA DE QUADROS

Quadro 2.1 – Os 5 principais ritmos cerebrais e as faixas de frequência corresponden-tes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

Quadro 2.2 – Matriz de confusão para duas variáveis (positivo (P) e negativo (N)). . . . 30Quadro 5.1 – Número de épocas de 30 s para os grupos de teste e validação. . . . . . . . 45

LISTA DE ABREVIATURAS E SIGLAS

EEG Eletroencefalograma/eletroencefalografia

PSG Polissonógrafo/polissonografia

R&K Rechtschaffen e Kales

REM Movimento rápido dos olhos

NREM Movimento não-rápido dos olhos

S1 Estágio de sono 1

S2 Estágio de sono 2

S3 Estágio de sono 3

S4 Estágio de sono 4

W Estágio acordado

DWT Transformada wavelet discreta

PSD Espectro de frequência

MLP Multi-layer perceptron

KNN K-vizinhos mais próximos

LDA Linear discriminant analysis

RF Florestas aleatórias

SVM Máquinas de vetores de suporte

OMS Organização mundial da saúde

SUMÁRIO

1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 FUNDAMENTAÇÃO TEÓRICA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.1 SINAIS DE EEG .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.2 BASE DE DADOS SLEEP EDF [EXPANDED] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162.3 EEG VESTÍVEL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172.4 PRÉ-PROCESSAMENTO .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182.5 TRANSFORMADA WAVELET DISCRETA (DWT) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192.5.1 Transformada wavelet de HAAR discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202.6 EXTRAÇÃO DE ATRIBUTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222.7 CLASSIFICAÇÃO .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232.7.1 Redes Neurais Artificiais (ANN) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242.7.2 Máquinas de Vetores de Suporte (SVM). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262.7.3 k-Vizinhos mais Próximos (kNN) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262.7.4 LDA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282.7.5 Florestas Aleatórias (RF) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282.7.6 Threshold . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292.7.7 Métricas de Avaliação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303 REVISÃO DE LITERATURA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.1 ESTUDOS UTILIZANDO BASES DE DADOS PÚBLICAS . . . . . . . . . . . . . . . . . . . . . . . . . 333.2 ESTUDOS QUE INCLUEM A AQUISIÇÃO DE DADOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343.3 TRABALHOS RELACIONADOS E PROPOSTA DO TRABALHO .. . . . . . . . . . . . . . . . . 364 MATERIAIS E MÉTODOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374.1 EXPERIMENTO PARA AQUISIÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384.2 ESPECIFICAÇÕES DE HARDWARE E SOFTWARE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405 RESULTADOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415.1 PERFORMANCE EM TEMPO REAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415.2 ANÁLISE DO SINAL DO EEG VESTÍVEL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435.3 PERFORMANCE PARA TODAS AS AMOSTRAS E TAMANHOS DE ÉPOCAS . . 435.4 DISCUSSÃO .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 476 CONCLUSÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 506.1 TRABALHOS FUTUROS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

REFERÊNCIAS BIBLIOGRÁFICAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51APÊNDICE A – RESULTADOS PARA TODAS AS AMOSTRAS . . . . . . . . . . . . . . . . 57APÊNDICE B – RESULTADOS PARA DIFERENTES TAMANHOS DE ÉPOCAS 60

1 INTRODUÇÃO

O estudo moderno do sono vem sendo realizado desde 1930, sendo a principal ra-

zão da sua evolução, a invenção do eletroencefalograma (EEG), equipamento o qual faz

a leitura de sinais elétricos do cérebro. A partir deste equipamento pode-se fazer o diag-

nóstico de diversas doenças neurológicas como: epilepsia, apneia, narcolepsia, insônia

e muitas outras (ŠUŠMÁKOVÁ, 2004). A análise do sinal de EEG para diagnóstico de

condições neurológicas é uma tarefa que consome tempo e exige profissionais treinados

(ACHARYA et al., 2012). Devido a isso, estão sendo realizados diversos estudos buscando

automatizar a detecção de padrões nestes sinais, com o objetivo de auxiliar o profissional

da saúde. Bajaj e Pachori (2013), Zhu, Li e Wen (2014), Rodríguez-Sotelo et al. (2014),

Hassan, Bashar e Bhuiyan (2015), Diykh e Li (2016) desenvolveram metodologias para

detecção dos estágios do sono, o que auxilia na caracterização de diversos distúrbios do

sono.

Os estágios de sono e o estado acordado são regulados pelo ciclo circadiano, um

processo interno que dura em torno de 24 horas. Estes estágios estão relacionados às

mudanças fisiológicas na atividade cerebral, do sono mais leve ao sono mais profundo

(JALILIFARD; PIZZOLATO, 2016). Porém, devido à vida moderna, algumas profissões da

área de transporte, assistência médica, indústrias de manufatura, serviço militar, aviação

e muitos outros serviços, exigem que o sujeito modifique seu ciclo circadiano devido aos

turnos de trabalho. Essa mudança pode afetar o desempenho, o humor e, principalmente, a

redução da atenção quando acordado. A sonolência em motoristas no ramo de transporte

é uma situação muito séria e acredita-se que esteja ligada a diversos acidentes de trânsito

(LAL; CRAIG, 2001). Segundo os dados da organização mundial da saúde, cerca de 1.35

milhões de pessoas morrem por ano em acidentes de trânsito (OMS, 2018). Entre 2011 e

2015, o National Highway Traffic Safety Administration (NHTSA) reportou que 2.3% a 2.5%

de todos os acidentes de carro fatais, envolveram motoristas adormecidos (NHTSA, 2017).

Esses números podem ser muito maiores em outros países, por exemplo, em torno de 20%

no Brasil (ABN, 2017).

Assim, um sistema para monitoramento do motorista com o objetivo de identificar

sonolência pode ajudar a minimizar este problema. Ao realizarmos uma revisão do tema,

podemos identificar três abordagens principais. A primeira é baseada nos parâmetros do

veículo, ou seja, na velocidade do carro, na posição do carro na pista, posição da direção,

pressão no acelerador, etc (BALANDONG et al., 2018). Muitos estudos mostraram que

esta técnica não é eficaz para detectar sonolência, já que as variações medidas não ne-

cessariamente foram causadas pela sonolência, mas podem ter sido causadas por outros

fatores, como as características da própria rua, por exemplo (SAHAYADHAS; SUNDARAJ;

MURUGAPPAN, 2012). A segunda técnica é através do monitoramento do motorista uti-

12

lizando câmeras. A partir do processamento das imagens são avaliadas a posição da

cabeça, piscadas do olhos, bocejo, direção do olhar, etc. Apesar desta técnica ter me-

lhorado muito nos últimos anos, a variação de luminosidade ainda é um grande problema

na detecção de sonolência (BALANDONG et al., 2018). Além disso, o sistema tende a

ter problemas também com pessoas que usam óculos ou que possuem barba (ASSARI;

RAHMATI, 2011). O terceiro método se baseia na medição de sinais fisiológicos do sujeito.

Equipamentos como o eletrocardiograma (ECG), eletrooculograma (EOG), eletroencefa-

lograma (EEG) e a Espectrografia Funcional de Infravermelho Próximo (fNIRS) já foram

investigados para detecção de sonolência (AHN et al., 2016). O EEG já vem sendo uti-

lizado para diversas soluções de Interface Cérebro-Máquina (do inglês Brain Computer

Interface - BCI) e tem se mostrado uma ótima ferramenta para solucionar alguns tipos de

problemas, como o controle de próteses (GUGER et al., 2003; FABIANI et al., 2004) e

pacientes com dificuldades motoras diversas (GUGER et al., 2001). O estudo baseado em

sinais fisiológicos permite uma detecção da sonolência o mais próximo possível da fonte.

Além de que, um sistema baseado nesta técnica pode ser utilizado em outros ambientes

de trabalho que exigem atenção constante, não somente no trânsito.

Assim, este trabalho propõe uma técnica para detecção de sonolência utilizando

sinais de EEG para uma aplicação em tempo real, tendo os seguintes objetivos específicos:

• Realizar uma revisão de literatura de estudos para detecção de sonolência que utili-

zem somente sinais de EEG;

• Buscar trabalhos que utilizem equipamentos portáteis para aquisição do sinal de

EEG;

• Estabelecer um procedimento para simular aquisição e processamento do sinal de

EEG em tempo real;

• Avaliar a performance dos sinais do banco de dados após serem adquiridos pelo

EEG vestível;

• Comparar o desempenho dos principais algoritmos de aprendizado de máquina utili-

zados na classificação da sonolência;

• Apresentar análise dos resultados encontrados, utilizando métricas de avaliação e

comparando com outros trabalhos.

O texto esta organizado da seguinte forma: o capítulo 1 apresentou a introdução

ao tema, em seguida o capítulo 2 apresenta a fundamentação teórica, sendo as técnicas

para o pré-processamento, extração de atributos, classificação e métricas de avaliação. O

capítulo 3 apresenta a revisão de literatura e a proposta do trabalho. Na sequência, são

detalhados os materiais e métodos no capítulo 4, os resultados no capítulo 5 e, por fim as

conclusões são expressas no capítulo 6.

2 FUNDAMENTAÇÃO TEÓRICA

2.1 SINAIS DE EEG

O principal exame utilizado na investigação dos distúrbios do sono é a polissono-

grafia (PSG), a qual é muito utilizada no diagnóstico e tratamento de doenças. A PSG

consiste em realizar três medidas principais: a mudança gradual do tônus muscular com o

eletromiograma (do inglês Electromyogram - EMG), o movimento dos olhos com o eletro-

culograma (do inglês Electrooculogram - EOG), e as variações dos ritmos cerebrais com o

eletroencefalograma (do inglês Electroencephalogram - EEG) (CARSKADON; DEMENT et

al., 2005).

Sahayadhas, Sundaraj e Murugappan (2005) citam a descrição de mecanismos

que mediam as transições entre o estado acordado e o sono como um flip-flop eletrônico.

Grupos de neurônios localizados no hipotálamo interagem através de um mecanismo de

equilíbrio direto inibitório. O núcleo pré-óptico ventrolateral (do inglês Ventrolateral Pre-

optic Nucleous - VLPO), na região anterior do hipotálamo, desempenha o papel de inibir

a atividade das células monoaminérgicas encontradas no terço posterior do hipotálamo

(núcleo tuberomamilar). Os neurônios VLPO desencadeiam o estado de sono liberando

GABA e galanina. Estes neurotransmissores têm o efeito de diminuir as taxas de disparo

dos neurônios monoaminérgicos, cujos valores mais altos estão associados ao estado de

alerta.

No entanto, o EEG é uma técnica que detecta a atividade elétrica geral nos gru-

pos de células cerebrais mais externas, sendo incapaz de captar sinais gerados em suas

estruturas internas. Assim, a identificação de sonolência por meio de eletrodos de EEG

só é possível porque os núcleos intralaminar do tálamo contêm neurônios talamocorticais

que enviam projeções por todo o córtex. Dessa forma, o cabo de guerra contínuo en-

tre sono e excitação que ocorre no tronco cerebral controla o estado mental, modulando

a ritmicidade dessas interações talamocorticais (PURVES et al., 2017). A ativação dos

neurônios talamocorticais os leva a liberar aminoácidos excitatórios, como aspartato e glu-

tamato, contribuindo assim para a excitação do córtex, que mantém o indivíduo acordado.

Durante o estado acordado, esses neurônios geram potenciais de ação isolados em inter-

valos regulares, mas, à medida que o indivíduo adormece, esses neurônios começam a

disparar em rajadas, fazendo com que o córtex exiba o padrão de EEG sincronizado típico

do sono (PURVES et al., 2017). Quando vistos a partir de eletrodos de EEG, ou seja, vá-

rios milímetros acima da superfície cortical, a atividade de pico de conjunto dos neurônios

da superfície cortical acumula potenciais de campo que são detectados pelos eletrodos no

escalpo como as ondas e complexos característicos que orientam os eletroencefalógrafos

14

na interpretação do EEG. A correspondência da atividade neuronal captada por eletrodos

de EEG no escalpo, superfície do córtex e no nível celular é mostrada no canto superior

direito da Fig. 2.1. Esta figura mostra também o posicionamento dos eletrodos através do

escalpo de acordo com o sistema 10-20 de posicionamento (regiões do cérebro: F-frontal,

T-temporal, C-central, P-parietal, O-occipital).

Schomer e Silva (2011) apontam que o nível de vigilância oscila durante os registros

de vigília, onde episódios curtos e leves de sonolência são muito comuns. Como mostrado

nas caixas amarelas (A) da Fig. 2.1, o início da sonolência em adultos é caracterizado

por uma queda do ritmo alfa (marcado pelas linhas verticais azuis). Esse evento é mais

proeminente na região occipital. Enquanto a sonolência se aprofunda, oscilações lentas

começam a predominar em todas as regiões. A sonolência profunda é então descrita

por duas características comuns, também representadas na Fig. 2.1 (B): As ondas do

vértice (spindles), mostradas nas caixas azuis, têm magnitudes maiores nos eletrodos

CZ e PZ (KIM et al., 2012) e (C) Os transitórios pontuais positivos do sono (do inglês

Positive Occipital Sharp Transients of Sleep - POSTS), apresentados na caixa verde, são

observados durante a sonolência profunda e o sono leve. Os POSTS foram descritos pela

primeira vez por Gibbs e Gibbs (PURVES et al., 2017) como ondas positivas do tipo spike

nas áreas occipitais.

Figura 2.1 – Sistema 10-20 de posicionamento de eletrodos pela Federação Internaci-onal de Neurofisiologia Clínica. (A), (B) e (C) ilustram três mudanças distintas no EEGassociadas à redução da vigília e a caixa rosa ilustra as alterações observadas pelos pi-cos nas membranas neuronais, quando adquiridas por eletrodos intra-célula, em direção àsuperfície do escalpo.

(A)

EEG

Cortex Surf.

Intra-cell

Cortex Surf.

(B)(B)

Fonte: Adaptado de (BODY, 2015; SCHOMER; SILVA, 2012)

15

O sinal de EEG tem largura de banda entre 0.5 e 150 Hz e amplitudes da ordem de

100 µV (YAZICIOGLU et al., 2008). A Figura 2.1 mostra o posicionamento dos eletrodos

pelo escalpo de acordo com o padrão do sistema 10-20. No estudo do sono existem duas

principais regras para gravação e interpretação dos sinais de EEG. A primeira desenvolvida

por Rechtschaffen and Kales (R&K) em 1968, diz que o sono é dividido em REM (do inglês,

Rapid Eye Movement) e NREM (do inglês, Non-rapid Eye Movement), além do estado

acordado e o "movement time". O REM é a fase onde acontecem os sonhos, o movimento

rápido dos olhos e a perda do tônus muscular (LU et al., 2006). Já o NREM é dividido em

4 estágios de sono, do mais leve para o mais profundo (S1, S2, S3 e S4). Os estágios S3

e S4 são conhecidos como sono de ondas lentas (SWS) e o "moviment time"representa os

movimentos do corpo que não fazem parte dos estágios de sono (ŠUŠMÁKOVÁ, 2004).

Em 2007, a American Academy of Sleep Medicine (AASM) realizou algumas mudanças

nestas regras. Os estágios de sono mudaram para a nomenclatura de N1, N2 e N3, sendo

que N3 é uma junção de S3 e S4, por terem características semelhantes, além de que,

REM passou a se chamar R e o "movement time" foi abolido. Além disso, diversas outras

recomendações para a aquisição da polissonografia também foram alteradas (MOSER et

al., 2009).

Variações na atividade cerebral são expressas através de cinco principais ritmos

cerebrais: Delta, Teta, Alfa, Beta e Gama. O ritmo delta é encontrado entre 0.5 Hz e

4 Hz e está presente principalmente em sono profundo, mas também pode aparecer no

estado acordado. O teta aparece entre 4 Hz e 7.5 Hz, este representa a transição em dire-

ção a sonolência, meditação profunda e quando aparece em grande escala em um adulto

acordado pode representar alguma patologia. Já o ritmo alfa varia entre as frequências

de 8 Hz e 13 Hz. Este ritmo aparece na parte posterior da cabeça e esta ligado a falta

de atenção e concentração, além de ser mais proeminente quando o sujeito esta com os

olhos fechados. Este é o ritmo que mais aparece na atividade cerebral. Entre 14 e 26 Hz

pode ser encontrado o ritmo beta, que ao contrário de alfa representa pensamento ativo,

atenção, foco e resolução de problemas. Um nível muito alto de beta acontece quando o

sujeito está em estado de pânico. Este ritmo aparece na região frontal e, principalmente,

central da cabeça. As frequências acima de 30 Hz são chamadas de gama e são utili-

zadas no diagnóstico de certas doenças no cérebro, podendo ser um bom indicativo de

sincronização associado a eventos (do inglês, Event-related Synchronization - ERS) (SA-

NEI; CHAMBERS, 2007). O quadro 2.1 resume a associação das faixas de frequência e

cada ritmo cerebral.

16

Quadro 2.1 – Os 5 principais ritmos cerebrais e as faixas de frequência correspondentes.

Ritmo Faixas de Frequência

Delta (δ) 0.5 Hz - 4 Hz

Teta (θ) 4 Hz - 7.5 Hz

Alfa (α) 8 Hz - 13 Hz

Beta (β) 14 Hz - 26 Hz

Gama (γ) 30 Hz - 100 Hz

Fonte: (SANEI; CHAMBERS, 2007)

2.2 BASE DE DADOS SLEEP EDF [EXPANDED]

A plataforma PhysioNet disponibiliza sinais biomédicos com o intuito de estimular

novas pesquisas. Muitas vezes os pesquisadores não tem acesso a dados de qualidade,

corretamente validados por profissionais, além de que, a disponibilização de dados publica-

mente, possibilita que comparações entre trabalhos sejam realizadas, evitando pesquisas

redundantes e contribuindo com o crescimento da pesquisa. Esta plataforma possui o

banco de dados PhysioBank com mais de 75 bases de dados, sendo uma delas a Sleep

EDF [Expanded]. Os dados contidos nesta base foram obtidos de 10 homens e 10 mu-

lheres com idades entre 25 e 34 anos, sem uso de medicação relacionada ao sono. Os

sinais foram adquiridos pelos canais Fpz-Cz e Pz-Oz com uma taxa de amostragem de

100 Hz. Nesse trabalho somente os dados da derivação Pz-Oz foram utilizados dado que

ele fornece melhores resultados de classificação para problemas de análise de sonolência

(ZHU; LI; WEN, 2014).

Para cada um dos 20 sujeitos foram gravadas duas noites de sono, resultando em

39 arquivos de sinais, sendo que a gravação da segunda noite do sujeito 13 foi perdida.

Assim, para este estudo foram utilizados os arquivos de 19 voluntários para que se tenha

aproximadamente a mesma quantidade de amostras para cada sujeito. Os arquivos são

nomeados da seguinte forma: SC4ssN, sendo ss o número do sujeito e N a 1a ou 2a noite

de gravação, cada noite de gravação possui em torno de 20 horas de sinal. Além dos

arquivos de sinais, o PhysioNet também disponibiliza arquivos de anotações dos sinais,

realizadas por profissionais. Estes arquivos são chamados hypnogramas e eles contém

anotações dos estágios de sono do sujeito a cada faixa de tempo ou época de 30 se-

gundos (s). Considerando a frequência de amostragem de 100 Hz, uma época de 30 s é

equivalente a 3000 de dados, portando uma linha do arquivo de hypnograma corresponde

a 3000 pontos de dados lidos pelo EEG. A aquisição foi realizada com base em R&K, as-

sim as anotações que podem ser encontradas são: acordado (W), estágio 1 (S1), estágio

2 (S2), estágio 3 (S3), estágio 4 (S4), movimento rápido do olhos (REM), "tempo de mo-

17

vimento" ou "não classificado" (GOLDBERGER et al., 2000). A Fig. 2.2 mostra parte do

sinal do sujeito 00 assim como os hipnogramas correspondentes para cada faixa do sinal.

Figura 2.2 – Parte do sinal da segunda noite de gravação do sujeito 00, com anotações dehipnogramas (W - acordado, 1 - primeiro estágio de sono, 2 - segundo estágio de sono, 3 -terceiro estágio de sono, 4 - quarto estágio de sono).

Fonte: Adaptado de (GOLDBERGER et al., 2000).

2.3 EEG VESTÍVEL

O equipamento da Myndplay é um EEG vestível com dois eletrodos frontais, os

quais correspondem ao FP1 e FP2 e um eletrodo auricular (A1) para referência (Fig. 2.3).

Com ele é possível captar o sinal raw, além das bandas filtradas em: delta, teta, low alfa,

high alfa, low beta, high beta, low gama, high gama e mid gama. Através desses sinais,

o equipamento também estima a atenção e meditação do usuário. Os sinais adquiridos a

uma taxa de amostragem de 512 Hz são enviados via bluetooth, permitindo mobilidade ao

usuário (MYNDPLAY, 2011).

18

Figura 2.3 – EEG Vestível.

Fonte: Autora.

2.4 PRÉ-PROCESSAMENTO

O processamento do sinal é realizado por épocas (ou faixas de tempo), e não do

sinal completo. Como mencionado anteriormente, por R&K existem 4 estágios de sono

além do estado acordado e do REM, e esta foi a metodologia empregada pelo PhysioNet

para gravar os sinais utilizados neste trabalho. Existem variações entre os trabalhos para

detecção de sonolência, quanto à escolha do estágio de sono que melhor representa a

sonolência. (SILVEIRA; KOZAKEVICIUS; RODRIGUES, 2015) utilizou o primeiro estágio

de sono (N1) e criou uma classe intermediária entre acordado e N1. Porém, grande parte

dos trabalhos utiliza somente o primeiro estágio de sono (BELAKHDAR et al., 2018; COR-

REA; OROSCO; LACIAR, 2014; PATRICK et al., 2016). Ainda assim, S1 e S2 são ambos

considerados sono leve, e segundo as novas regras criadas pela AASM, citadas anteri-

ormente, muitas épocas anotadas previamente como S2 na nova regra se tornaram N1.

Assim, neste trabalho o estágio de sonolência é composto pelos estágios S1 e S2, sendo

então excluídas todas as épocas que não correspondem a estes estágios.

Além disso, considerando que o EEG vestível adquire os sinais a uma taxa de 512

Hz e o sinal original foi adquirido a 100 Hz, é necessário realizar uma re-amostragem do

sinal após a aquisição, para que se possa utilizar a mesma transformada wavelet, na seção

2.5 são detalhadas as razões para isto. Esta etapa acaba adicionando uma parcela de erro

aos dados, já que idealmente deveria-se ter uma nova amostra a cada 5,12 pontos. Ainda,

19

para um sistema de aplicação real, é necessário que haja um monitoramento periódico do

sujeito e, em muitos casos, 30 segundos pode ser um tempo muito grande. Assim, foram

realizados análises variando o tamanho da época, sendo estas: épocas de 10 s, de 5 s,

épocas de 10 s com janela deslizante de 1 s e épocas de 10 s com janelas deslizantes de

5 s.

2.5 TRANSFORMADA WAVELET DISCRETA (DWT)

As wavelets são funções, seguindo alguns requisitos matemáticos, utilizadas como

base para representação de outras funções, assim como os senos e cossenos são as

bases para a decomposição por Fourier, ou seja, uma função pode ser escrita em termos

de funções wavelets. Após definida a mother wavelet são calculadas as translações e

dilatações desta wavelet, a partir de

ψ(x) = ψ(x− b

a), (a, b) ∈ R+XR,

variando a e b. Estas escolhas conectam as wavelets com análise de multirresolu-

ção em processamento de sinais.

A transformada de Fourier é localizada em frequência mas não no tempo, peque-

nas mudanças do sinal em frequência geram grandes mudanças do sinal no tempo. Já as

wavelets são localizadas tanto no tempo (translações) quanto em frequência/escala (dila-

tações), o que é uma vantagem para diversos casos, já que é possível saber "quando" no

tempo aquelas frequências estão acontecendo. O fator de escala representa o processo de

alongar ou encolher uma função no tempo e ele é inversamente proporcional à frequência.

Uma wavelet alongada ajuda a encontrar mudanças que variam lentamente em um sinal,

enquanto a wavelet comprimida ajuda a capturar mudanças abruptas. Já a translação é

quando o início da função é atrasado ou adiantado para que a wavelet fique alinhada com

uma característica específica que se está buscando no sinal.

Além disso, as wavelets tendem a ser mais eficientes em relação à Fourier na aná-

lise de sinais não-periódicos e que contenham mudanças abruptas, como é o caso dos

sinais de EEG, e a representação destes picos normalmente utiliza uma quantidade maior

de senos e cossenos do que de funções wavelets para atingir uma aproximação seme-

lhante. Estas características fazem das wavelets excelentes ferramentas para problemas

de compressão de imagens, por exemplo (VIDAKOVIC; MUELLER, 1994). A Fig. 2.4 mos-

tra vários tipos de wavelets.

20

Figura 2.4 – Tipos de funções Wavelet.

Fonte: (AL-GEELANI; PIAH; BASHIR, 2015)

2.5.1 Transformada wavelet de HAAR discreta

A Wavelet de Haar é a primeira e, por isso, a mais simples das wavelets, além de,

possuir baixo custo computacional. Esta, é muito utilizada para compressão de imagens

(MULCAHY, 1997; RAVIRAJ; SANAVULLAH, 2007; BHARDWAJ; ALI, 2009), mas tam-

bém já foi utilizada para diagnóstico e detecção de epilepsia (FAUST et al., 2015), apneia

do sono (KERMIT et al., 2000) e detecção de sonolência (LEE; LEE; CHUNG, 2014). A

transformada wavelet discreta de Haar (do inglês Haar Discrete Wavelet Transform - Haar

DWT), é ilustrada a partir do exemplo a seguir.

Considerando um vetor unidimensional de tamanho 2j = 22,

Cj = C2 = [2 0 1 9].

São calculados os valores médios, dois a dois, de acordo com,

Cj−1,i =Cj,2i + Cj,2i+1

2, (2.1)

sendo i = 0, 1, 2, ..., 2j−1 a posição do novo vetor de informações médias (Cj−1).

Para este exemplo tem-se Cj−1 = C1 = [1 5]. Recuperar o vetor C2 a partir de C1 é

impossível, devido a isso são guardadas também, as variações dos valores de C2 em

21

relação a C1. Assim, Dj−1 é o vetor que guarda informações de variações entre Cj e Cj−1,

através de

Dj−1,i = Cj,2i − Cj−1,i, i = 0, 1, 2, ..., 2j−1. (2.2)

Neste exemplo Dj−1 = D1 = [1 − 4]. Este processo de encontrar C1 e D1 se

dá o nome de transformada Haar de um nível. O segundo nível é calculado a partir de

C1 e assim sucessivamente, sendo assim Cj−2 = C0 = [3] e o vetor de detalhes fica

Dj−2 = D0 = [−2]. Dessa forma, o vetor C2 pode ser representado através do último valor

de média, seguido por todas as informações de detalhe, sendo [3 − 2 1 − 4].

Além disso, para se realizar a recuperação do vetor Cj a partir de [3 − 2 1 − 4],

utiliza-se

Cj,2i = Cj−1,i +Dj−1,i, i = 0, 1, 2, ..., 2j−1 (2.3)

e

Cj,2i+1 = Cj−1,i +Dj−1,i, i = 0, 1, 2, ..., 2j−1. (2.4)

O processo de decomposição de um sinal é visto como um conjunto de filtros passa-

baixa e passa-alta, as frequências vão sendo filtradas a cada nível. Assim, para um sinal

adquirido a 100 Hz, pelo teorema de Nyquist, que diz que só se pode representar frequên-

cias até a metade da frequência de amostragem, neste trabalho a frequência máxima é 50

Hz. As equações 2.5 e 2.6 representam formalmente o algoritmo para decomposição de

um sinal em suas médias e detalhes, onde D é quantidade de filtros associados a wavelet,

o qual é calculado por D = 2∗M , sendo que M representa a quantidade de momentos nu-

los da wavelet utilizada. A Haar wavelet possui apenas um momento nulo, portanto D = 2.

Além disso, estes filtros podem ser não-normalizados ou normalizados (Tab. 2.1), o exem-

plo no inicio da seção utiliza filtros não-normalizados. A vantagem dos filtros normalizados

é possibilidade de monitorar a quantidade de energia através dos níveis de decomposição

que mais contribuem para a energia total do sinal, assim por este e outros benefícios este

trabalho utiliza filtros normalizados (VIDAKOVIC; MUELLER, 1994).

Cj−1,l =D−1∑k=0

hk.Cj,2l+k, l = 0, 1, 2, ..., 2j−1 − 1 (2.5)

Dj−1,l =D−1∑k=0

gk.Cj,2l+k, l = 0, 1, 2, ..., 2j−1 − 1 (2.6)

Neste trabalho, foi utilizada a DWT de Haar Packet. Esta transformada além de

realizar a decomposição por níveis para os vetores de médias, são também decompostos

os vetores de detalhes (EBRAHIMI et al., 2008). A Fig. 2.5 mostra a decomposição de um

sinal em 4 níveis, sendo A o vetor de médias ou aproximações e D o vetor de detalhes,

esta foi a configuração utilizada neste trabalho.

22

Tabela 2.1 – Filtros não-normalização e normalizados para a DWT de Haar.

Não-normalizados Normalizadosk hk gk hk gk0 1/2 1/2 1/

√2 1/

√2

1 1/2 −1/2 1/√2 −1/

√2

Fonte: (VIDAKOVIC; MUELLER, 1994)

Figura 2.5 – DWT de Haar para um sinal em 4 níveis de decomposição. A são os vetoresde médias ou aproximação e D os vetores de detalhes.

Fonte: Modificada de (EBRAHIMI et al., 2008)

2.6 EXTRAÇÃO DE ATRIBUTOS

A extração de características visa destacar informações relevantes para a identifi-

cação de padrões, por isso, é a tarefa mais difícil e mais importante no processamento

de sinais (ZHU; LI; WEN, 2014). Atributos considerados eficientes podem destacar muito

bem um padrão específico ou diferenciar padrões (CVETKOVIC; ÜBEYLI; COSIC, 2008),

influenciando amplamente no desempenho do algoritmo de aprendizado de máquina (PE-

CHENIZKIY et al., 2006). Uma pequena quantidade de informações relevantes pode obter

melhor desempenho do que um conjunto de dados grande mas menos relevante (CVET-

KOVIC; ÜBEYLI; COSIC, 2008). Normalmente há redução de dimensionalidade após a

extração de atributos, o que contribui para a redução do custo computacional para o algo-

ritmo de aprendizado de máquina.

Existem quatro principais tipos de atributos que são extraídos do sinal de EEG para

análise do sono: atributos temporais, espectrais, de tempo-frequência e atributos de me-

23

didas não lineares / de complexidade. Apesar disso, a mais recorrente é a análise em

frequência, devido a associação entre algumas faixas de frequências e os ritmos cerebrais.

Os métodos mais comuns para extração de atributos em frequência são transformada de

Fourier (do inglês Fast Fourier Transform - FFT), métodos de auto-regressão paramétricos

e o método de Welch (KOLEY; DEY, 2012). Porém, como citado anteriormente as Wave-

lets são transformadas que, diferentemente desses métodos, permitem localização tanto

no tempo quanto na frequência.

Assim, neste trabalho foram extraídas quatro faixas de frequência correspondentes

aos ritmos teta, alfa, beta e gama através da transformada packet de Haar com 4 níveis

(Fig 2.5). Para determinar quais dos pacotes representam cada ritmo cerebral foi realizado

um experimento para medir a quantidade de energia para frequências entre 1 Hz e 30 Hz.

Assim, para cada frequência foram determinados quais pacotes continham mais energia.

A Fig. 2.5 mostra os pacotes selecionados para cada ritmo.

2.7 CLASSIFICAÇÃO

Classificação é o problema onde a partir de um conjunto de dados para treino e

um conjunto de classes associadas, determina-se a qual destas classes um novo dado

pertence. Muitas situações da vida real podem ser modeladas por problemas de classifica-

ção, como: enviar um e-mail para caixa de spam ou não, definir automaticamente se uma

notícia é de esportes ou entretenimento e, diagnosticar uma doença em um paciente com

base em características observadas nele (ex: gênero, pressão sanguínea, presença ou

ausência de algum sintoma, etc). O processo de classificação pode ser dividido em duas

etapas: treino e predição (Fig. 2.6). Classificação é um tipo de aprendizado de máquina

supervisionado, ou seja, para a fase de treino o classificador recebe também a informação

de qual classe cada dado pertence. O propósito é que a partir disso seja criado um mo-

delo, o qual na fase de predição deve ser capaz de identificar a qual classe um novo dado

pertence. Para isso, normalmente são separados dois grupos de dados um para treino e

um para teste, além destes é comum também separar um grupo para validação, sendo que

durante o processo de testes pode-se modificar parâmetros do classificador e portanto os

dados não serão mais desconhecidos pelo modelo (AGGARWAL, 2014).

24

Figura 2.6 – Fluxo geral de um problema de classificação.

Fonte: Baseado em (AGGARWAL, 2014)

Diversos métodos de classificação já foram utilizados para o estudo do sono. Cor-

rea, Orosco e Laciar (2014), Boonnak, Kamonsantiroj e Pipanmaekaporn (2014) utilizaram

redes neurais artificiais (do inglês Artificial Neural Networks - ANN), já He et al. (2014),

Jalilifard e Pizzolato (2016) aplicaram o K-vizinhos mais próximos (do inglês K-Nearest

Neighbors - KNN). As Máquinas de Vetores de Suporte (do inglês Support Vector Ma-

chines - SVM) também são muito recorrentes (MU; HU; MIN, 2017; OGINO; MITSUKURA,

2018; ABOALAYON; OCBAGABIR; FAEZIPOUR, 2014). Samiee et al. (2015), Sharma, Pa-

chori e Upadhyay (2017) empregaram florestas aleatórias (do inglês Random Forest - RF)

e Marcos et al. (2010) o LDA (do inglês Linear Discriminant Analysis). Assim, as próximas

seções descrevem as principais características de cada um deles.

2.7.1 Redes Neurais Artificiais (ANN)

As redes neurais são métodos de aprendizagem baseados no funcionamento de

células neurais, com a capacidade de reconhecimento de padrões em dados não lineares

(HSU; GUPTA; SOROOSHIAN, 1995). Estas, são construídas a partir de três principais

camadas de neurônios, sendo: camada de entrada, camadas ocultas e camada de saída.

A camada de entrada possui um neurônio para cada variável de entrada. Já a quantidade

de neurônios em cada camada oculta é um parâmetro a ser definido, pois estes repre-

25

sentam a quantidade de divisões necessárias para a separação das classes. Porém, um

número grande pode gerar overfitting, quando o modelo fica muito ajustado ao conjunto de

treino e se torna ineficiente para novos dados. A camada de saída contém o número de

neurônios necessários para representar as classes, por exemplo se houver duas classes (0

ou 1), somente um neurônio de saída será necessário para a classificação. Existem vários

tipos de redes neurais, a Figura 2.7 mostra um exemplo de uma feed-forward multi-layer

perceptron (MLP). A rede neural perceptron é a mais simples das redes neurais e a MLP

é uma variação da mesma com múltiplas camadas. Para cada neurônio oculto é realizada

a soma entre cada valor de entrada (atributos) multiplicado pelo seu peso, além do limiar

de ativação bt. Na sequência, é aplicada uma função de ativação (f ), como a sigmoid, por

exemplo. Por fim, estes valores são multiplicados pelos pesos de saída, encontrando o

valor de y, como mostra as Equações 2.7 e 2.8 (BOOSTANI; KARIMZADEH; NAMI, 2017;

GARDNER; DORLING, 1998).

ym =t∑

k=1

W(2)kmfk (2.7)

fk = (W(1)nk xn + bk) (2.8)

Figura 2.7 – Redes Neurais - feed-forward multi-layer perceptron (MLP).

Fonte: Modificada de (BOOSTANI; KARIMZADEH; NAMI, 2017)

26

2.7.2 Máquinas de Vetores de Suporte (SVM)

A SVM é um método supervisionado para classificação, existem também a variante

Support Vector Regression (SVR) para regressão. A SVM linear utiliza os pontos que for-

mam as margens entre duas classes, chamados vetores de suporte, para determinar o

melhor hiperplano que as separa. O melhor hiperplano é aquele que maximiza a distân-

cia de margem, ou seja, a distância entre os vetores de suporte e o hiperplano. A SVM

também permite que hajam amostras classificadas erroneamente para evitar overfitting e

outliers (Fig. 2.8). Ainda, para dados de difícil separação diretamente, a SVM realiza uma

transformação dos atributos para um espaço de dimensionalidade superior através de ker-

nels, assim dados que antes eram impossíveis de se separar com curvas simples agora

podem ser separados por uma superfície linear. A Figura 2.9 mostra dados originalmente

em duas dimensões sendo projetados em 3D, de uma forma que possibilite a criação de

uma superfície para separação das classes. Os kernels mais comuns são o radial basis

function (RBF), polinomial e sigmoidal (WANG, 2005; JAIN, 2018).

Figura 2.8 – Maximização da margem com as Máquinas de Vetores de Suporte (SVM).

Fonte: Modificada de (JAIN, 2018)

2.7.3 k-Vizinhos mais Próximos (kNN)

O método de classificação kNN se baseia em similaridade entre atributos. A partir

de um critério, normalmente através da distância euclidiana, são selecionados k vizinhos

27

Figura 2.9 – Mudança de dimensão das Máquinas de Vetores de Suporte (SVM).

Fonte: Modificada de (JAIN, 2018)

mais próximos. No caso de regressão, é realizada a média dos valores dos vizinhos mais

próximos (NAVOT et al., 2006). No caso de classificação, determina-se a qual classe

aquele dado pertence através de uma votação, ou seja, a classe que mais aparece en-

tre os vizinhos (YAO; RUZZO, 2006). A Fig. 2.10 mostra um exemplo de predição para

K=4, considerando um novo dado, dentre os seus 4 vizinhos mais próximos a classe mais

recorrente é a classe do formato triângulo, assim o novo dado será classificado como per-

tencente desta classe. A escolha de k pode ser feita utilizando a raiz quadrada do número

de pontos, além de que, para casos de duas classes, por exemplo, o valor deve ser impar

e, no geral, k não deve ser múltiplo do número de classes. O kNN é usado para aprendi-

zado supervisionado, quando os dados não possuem ruído e com um conjunto de dados

que não seja muito grande e complexo (THEODORIDIS; KOUTROUMBAS et al., 2008).

Isso porque, diferente dos outros classificadores citados, o KNN não gera um modelo após

o treinamento, aos invés disso, todas as amostras de treino são guardadas, o que pode

gerar alto consumo de memória (RASCHKA; MIRJALILI, 2017).

28

Figura 2.10 – Classificador k-Vizinhos mais Próximos.

Fonte: Baseado em (RASCHKA; MIRJALILI, 2017).

2.7.4 LDA

O Linear Discriminant Analysis (LDA) é um método para redução de dimensiona-

lidade, assim como o PCA busca por relações lineares. Este, é utilizado quando tem-se

variáveis independentes contínuas e variáveis dependentes categóricas (classes). Base-

ado na discriminação linear de Fisher (do inglês Fisher’s linear discriminant), o objetivo é

maximizar a distância entre as classes e minimizar a distância entre os elementos de cada

classe, de acordo com

(µ1 − µ2)2

S21 + S2

2

, (2.9)

onde µ1 é o valor médio dos elementos da classe 1, µ2 média dos elementos da

classe 2, S1 é a variância dos elementos da classe 1 e S2 é a variância dos elementos da

classe 2. Para os casos com mais de duas classes, a média total é calculada e a diferença

entre esta e a média de cada classe é medida (FRAIWAN et al., 2010).

2.7.5 Florestas Aleatórias (RF)

O classificador florestas aleatórias é um ensemble do tipo bagging onde, na etapa

de treino, cada método de aprendizado (todos em paralelo) seleciona aleatoriamente e com

reposição um conjunto de amostras e de features (DIETTERICH, 2000; OPITZ; MACLIN,

1999). Normalmente em torno de 63.2% dos dados selecionados por um método não é

repetido. Assim, cada método gera o seu resultado, se for classificação o resultado final

29

será por votação, caso seja regressão será realizada um média das respostas (GALAR et

al., 2011). O RF é formado por um conjunto de árvores de decisão. As árvores de decisão

guardam regras em seus nós e as classes são representadas pelos nós folhas, no caso

de classificação. No treino a árvore vai sendo construída conforme os dados vão sendo

subdivididos de forma mais homogênea possível, ou seja, espera-se que cada subdivisão

contenha dados de apenas uma classe. Esta característica na construção pode levar a um

modelo de grande variância, ou overfitting, o que pode ser evitado com ensembles como

o RF. A construção de uma floresta aleatória é feita como mostra a figura 2.11. Segundo

BREIMAN (2001) a combinação dos conjuntos com redundância e a seleção aleatória das

características aumenta o desempenho do classificador tornando-o mais robusto a ruídos.

Figura 2.11 – Classificador florestas aleatórias.

Fonte: Modificado de (FRAIWAN et al., 2012)

2.7.6 Threshold

Os Thresholds já foram muito utilizados como classificadores por serem fáceis de

interpretar e simples de implementar, inclusive em hardware, além de que, na maioria

das vezes, possuem baixo custo computacional. A partir disso, alguns trabalhos criaram

índices, os quais são uma relação entre medidas formando um threshold para determinar

o começo e o fim de cada classe. Belakhdar et al. (2018) criou dois índices: TetaAlfa

e [3−4]Alfa

,

assim como, Arnin et al. (2013) que criou uma relação entre 0.6Teta+0.4Alfa0.5Beta

.

Em geral, é comum utilizar relações de divisão para índices, porém para o desen-

volvimento de um hardware, a divisão se torna custosa. A partir disso, Baldissera (2015)

30

propôs um índice utilizando subtração, sendo este Teta − 2Beta. Em um trabalho se-

guinte, Retamal (2018) testou o índice com os mesmo sujeitos utilizados neste trabalho,

alcançando 82.2% de sensibilidade. Assim, neste trabalho será estudada a capacidade de

detecção de sonolência deste índice em ambientes mais realistas, contendo ruído, além

de comparar sua performance com os classificadores do estado da arte para detecção de

sonolência. Além das vantagens já citadas para se utilizar um threshold, o índice utiliza

apenas duas características do sinal (Teta e Beta).

2.7.7 Métricas de Avaliação

Quadro 2.2 – Matriz de confusão para duas variáveis (positivo (P) e negativo (N)).

Predito

P N

Verd

adei

ro

P VP FN

N FP VN

Figura 2.12 – Exemplo de um problema com duas classes, considerando um problemadesbalanceado. Amostras oriundas do Physionet, sendo a classe P amostras anotadascomo "S1" e "S2" e a classe N como "W". São calculadas a Sensibilidade (Sen), Especi-ficidade (Esp) e Acurácia (Acc).

Fonte: Adaptada de (WALBER, 2014)

31

Métricas são a forma de avaliar a performance do algoritmo de aprendizado. A

escolha da métrica errada pode levar a interpretações falsas da performance do sistema,

tanto por encontrar um resultado superior a capacidade real do sistema, quanto inferior

(DAVIS et al., 2007). A matriz de confusão organiza os acertos e erros para problemas de

classificação. A Tabela 2.2 mostra o exemplo de uma matriz de confusão para duas variá-

veis ou classes, temos as classes positivo (P) e negativo (N). Por convenção a classe P é

considerada a classe alvo, sendo para este trabalho a classe sonolência. Assim, os verda-

deiros positivos (VP) são aquelas amostras preditas corretamente como sonolência. Assim

como, os verdadeiros negativos são as amostras preditas corretamente como acordado. Já

os falsos positivos (FP) são aquelas preditas como sonolência porém eram acordado, as-

sim como, falsos negativos (FN) são aquelas que foram preditas como acordado, mas eram

sonolência (VISA et al., 2011).

A métrica mais simples é a taxa de acerto ou acurácia (Acc), Eq. 2.10, ela mede a

razão entre o número de acertos e o número total de predições, a partir da matriz de con-

fusão. Porém, a medida da Acc nem sempre expressa a performance real do sistema para

todas as classes. Isso porque, para casos em que os dados são muito desbalanceados

(TAN, 2005), ou seja, que não se tem a mesma quantidade de amostras para cada classe,

é possível que o sistema tenha uma boa acurácia para detectar apenas uma das classes e

não todas. Kayikcioglu, Maleki e Eroglu (2015), Li, Jiang e Su (2016) usaram apenas Acc

para medir a performance (91% e 98.8% respectivamente), apesar destes disponibilizarem

a quantidade de amostras por classe, a performance por classe não foi apresentada, o

que nega ao leitor uma perspectiva geral do sistema. É possível perceber o impacto disto,

em He et al. (2014), já que através da matriz de confusão fornecida pode-se calcular uma

Acc de 84%, sendo que a capacidade de detectar sonolência (sensibilidade) foi de apenas

68.31%. A Fig. 2.12 mostra um exemplo de classes desbalanceadas e o impacto nas mé-

tricas de avaliação. Assim, outras duas medidas que ajudam a explicar com mais detalhes

os resultados, e por isso são muito utilizadas em conjunto com a acurácia, são a sensibi-

lidade e a especificidade. A primeira, representa a quantidade de acertos obtidos para a

classe positivo em relação a todos os dados verdadeiramente da classe positivo (Eq. 2.11)

e, a segunda, mostra a relação entre os dados preditos corretamente como negativo em

relação a todos os dados verdadeiramente da classe negativo (Eq. 2.12). Neste trabalho,

serão calculadas acurácia, especifidade e sensibilidade para todas as análises realizadas.

Acc =V P + V N

V P + FN + V N + FP(2.10)

Sen =V P

V P + FN(2.11)

Esp =V N

V N + FP(2.12)

32

Tabela 2.2 – Principais características dos estudos revisados.

Ref. Subj. Electrode Feature set Predictor Performance

(CORREA; OROSCO; LACIAR, 2014) 16 C3-O1CF, IEEGα, Q1F, MaxF, IEEGθ,AC, STD

ANNAlert=87.4%,Drowsy=83.6%

(HE et al., 2014) 6 Fp1 Attention, meditation kNNSpec=68.31%,Sen=90.43%

(LI; CHUNG, 2014) 20 O2 α power percentage RegressionAcc=87.5%(M), 70%(F)MSE=0.013

(HAL et al., 2014) 3 Fp1 Mean and STD of α, β power Threshold Acc=81%(KAYIKCIOGLU; MALEKI; EROGLU, 2015) 7 Pz-Cz 22 AR coef. from θ, α, β PLS Acc=91%

(KO et al., 2015) 15 Ch-1 θ, α, β, δ power Regression Acc=90%

(LI; LEE; CHUNG, 2015) 20 O1, O2 θ, α, β power SVMPPMAlert=91.25%,Early-warning=83.78%,Drowsy=91.92%

(SILVEIRA; KOZAKEVICIUS; RODRIGUES, 2015) 13 Fpz α, β from Daubechies Wavelet Threshold Sen=84.9%,Pre=98.6%(LI; JIANG; SU, 2016) 59 Fp1 21 features (PSD, DWT, Time) DBN Acc=98.86%

(PATRICK et al., 2016) 20 Cz-A1 δ, α power, center freq. ThresholdSel=94.9%,Sen=85%,Spe=93.3%

(QIAN et al., 2016) 25C3-A2,C4-A1,O1-A2,O2-A1

Ratio, Amplitude, Symmetry, Ex-tention of θ, α and electrodes

BCDCAcc=94.3%,Drowsy=98.1%

(KARTSCH et al., 2017) 7 Fpz-Oz α and Blink duration Threshold Acc=85%

(MU; HU; MIN, 2017) 12T5,TP7,TP8,Fp1

SpeEn, ApEn, SampEn, FuzzyEn SVM(RBF)Acc=98.75%,MCC=93.51%,Sen=96%,Spe=97.5%

(BELAKHDAR et al., 2018) 10 C3-O1Mean power in 3,4, mean powerratio in IAF, [3− 4]/α, θ/α

ANNDrowsy=89%, Embed-ded=84.29%

(HU; MIN, 2018) 22 TP7 SpeEn, ApEn, SampEn, FuzzyEn GBDT Acc=94%

Fonte: Autora.

3 REVISÃO DE LITERATURA

Esta seção apresenta a revisão de literatura realizada buscando trabalhos que fo-

ram selecionados com base na seguinte string de busca: "("EEG" OR "electroencephalo-

gram" OR "electroencephalography" ) AND ("sleepiness" OR "drowsiness" OR "fatigue" OR

"drowsy" OR "sleep" ) AND ("prediction" OR "detection" OR "classification" )" . Os trabalhos

foram buscados nas seguintes bases: Scopus, IEEExplorer, Science Direct, ACM, Google

Scholar, de 2013 à 2018. Foram excluídos os trabalhos que:

• Utilizaram outros sinais fisiológicos;

• Utilizaram muitos eletrodos (mais do que 4);

• Não possuíam o objetivo de detecção e classificação para aplicações de tempo real;

• Não deixaram claras as etapas de processamento.

A Tab. 2.2 exibe as principais informações dos trabalhos revisados. A coluna

"Ref." possui o trabalho citado, na coluna "Subj." são mostrados a quantidade de sujei-

tos utilizados, "Electrode" mostra quais foram os eletrodos usados, "Feature set" mostra os

atributos extraídos do sinal de EEG, "Predictor" indica os algoritmos de aprendizagem usa-

dos e "Performance" mostra as métricas de avaliação e quais valores foram encontrados

para elas.

Os estudos podem ser divididos em dois principais grupos: aqueles que utilizaram

sinais oriundos de bancos de dados públicos e aqueles que realizaram um experimento

para aquisição dos sinais. Assim nas próximas seções são apresentadas as principais

características dos trabalhos revisados separando-os nestes dois grupos.

3.1 ESTUDOS UTILIZANDO BASES DE DADOS PÚBLICAS

As vantagens de se utilizar sinais de uma base pública é a possibilidade de se obter

sinais, normalmente, confiáveis e adquiridos por um profissional, o qual realiza anotações

nos dados. Além disso, a utilização de dados disponíveis publicamente permite a compa-

ração entre trabalhos, contribuindo para a pesquisa.

Uma das principais fontes de dados públicos é o Physionet. Ele fornece bases de

dados contendo aquisições de diversos sinais fisiológicos. Correa, Orosco e Laciar (2014)

e Belakhdar et al. (2018) usaram sinais da base de dados MIT-BIH Polysomnographic. O

primeiro segmentou os sinais em épocas de 5 s (10.074 épocas para sonolência e 10.074

34

épocas para acordado). Em seguida, foram extraídas características no tempo, na frequên-

cia e por decomposição Wavelet, sendo que após uma seleção das melhores restaram 7

atributos. Em alguns casos, o sistema foi capaz de detectar sonolência antes do sujeito

estar sonolento, obtendo 87.4% de acurácia para detecção de sonolência. Já o segundo

estudo, removeu artefatos dos sinais com um filtro passa-banda de 0.5-30 Hz e em seguida

extraiu atributos em frequência a partir do cálculo da FFT. Dentre os atributos, o trabalho

criou índices com algumas frequências correspondentes aos ritmos cerebrais, além de

que, utilizou a frequência de alfa individual (do inglês Individual Alpha Frequency - IAF)

para contornar o problema de invariabilidade entre indivíduos. O estudo também compa-

rou a performance dos classificadores ANN e SVM constatando que a ANN possui melhor

performance, a qual foi de 89% de acurácia. Além disso, os autores embarcaram a me-

todologia em uma Raspberry Pi para obter resultados mais próximos da aplicação real, a

qual obteve 84.29% de acurácia e processou épocas de 30 s em 0.20 s.

Silveira, Kozakevicius e Rodrigues (2015) também utilizaram sinais do Physionet.

Nesse trabalho, 6 h 50 min de dados de um único eletrodo (Fpz) foram usados para estimar

os ritmos alfa e beta através da Wavelet de Daubechies. Os autores sugerem um algoritmo

para aproximar os m melhores coeficientes da Wavelet para representar os ritmos citados.

Com um Threshold este trabalho obteve 84,98% de sensibilidade e 98,65% de especifi-

cidade, concluindo que alcançaram maior desempenho com menor complexidade quando

comparados aos trabalhos relacionados na época. Outro estudo (KAYIKCIOGLU; MALEKI;

EROGLU, 2015) comparou dois canais e quatro classificadores, com um conjunto de 22

coeficientes de auto-regressão, decompostos pelo método Burg para alfa, teta e beta se-

paradamente, gerando um ensemble. Os métodos partial least squares regression (PLS),

o K-vizinhos mais próximos (do inglês K-Nearest Neighbors - KNN), linear discriminant

classifier LDC e Bayes foram comparados e o PLS alcançou o melhor desempenho. Esse

estudo é capaz de processar os sinais e prever sonolência com menos de 1 s.

DREAMS (MONS, 2015) também é uma base de dados pública, que contém sinais

de 20 sujeitos. A partir disso, Patrick et al. (2016) extraiu características do espectro de

frequência (do inglês Power Spectral Density - PSD) e medidas estatísticas para cada

época de 1 s, após uma seleção de atributos a frequência central, a potência relativa de

delta e de alfa foram os mais significativos. Para classificação, os autores realizaram um

ensemble com Thresholds para cada atributo, destacando a importância de um preditor

adaptativo para contornar o problema da invariabilidade interpessoal.

3.2 ESTUDOS QUE INCLUEM A AQUISIÇÃO DE DADOS

Muitas vezes, o protocolo de aquisição dos bancos de dados públicos pode não

representar de forma tão próxima o ambiente da vida real onde o sistema deve operar.

35

Assim, muitos estudos decidiram organizar experimentos para adquirir os sinais.

Com um simulador de direção, Mu, Hu e Min (2017) adquiriram sinais de 12 sujeitos.

Após 40 minutos, os sujeitos responderam aos questionários de Li’s e Borg’s CR-10 scale,

que medem a sonolência do sujeito naquele momento. Em seguida, os autores realizaram

uma seleção dos eletrodos através do cálculo da distância de Fisher. Hu e Min (2018) tam-

bém adquiriram sinais de EEG utilizando um simulador de direção. Os autores extraíram

atributos de entropia e compararam os classificadores no estado da arte, atingindo Acc

de 94%. Em (KO et al., 2015), o carro eventualmente se afastava da pista original e os

15 sujeitos foram instruídos a retornar à posição inicial o mais rápido possível. O sistema

registra o tempo de reação do sujeito junto com seus sinais de EEG. O tempo de reação é

uma característica relevante, pois à medida que o indivíduo fica sonolento, seu reflexo se

torna mais lento. Este trabalho também utilizou um EEG vestível com apenas 1 eletrodo

para adquirir os sinais. Alguns estudos utilizaram este equipamento por ser compacto, com

poucos eletrodos e permitirem mobilidade ao sujeito.

A maioria dos EEG vestíveis possuem alguns atributos já pré-processados. Assim,

He et al. (2014) utilizaram os atributos de atenção e meditação provenientes do equipa-

mento da Neurosky, os quais foram enviados via Bluetooth para um telefone Android, onde

é calculado o coeficiente de correlação entre os atributos e a identificação do estado do

sujeito acontece. Quando a sonolência é identificada, o telefone envia um alerta para o bus

monitor ou bus schedule center. Este estudo obteve 345 amostras de 5 segundos para o

estado acordado e 142 para estado de sonolência. Ainda, Hal et al. (2014) e Li, Jiang

e Su (2016) também utilizaram esse tipo de sistema, ambos com um único eletrodo. O

primeiro extraiu características estatísticas de densidade espectral (do inglês Power Spec-

tral Density - PSD) e, por um Threshold adaptativo, obteve 81% de Acc. Este sistema

foi implementado em uma plataforma Arduino, responsável pelo processamento do sinal.

Quando a sonolência é detectada, um alarme é acionado. O segundo adquiriu sinais de

59 voluntários em diferentes períodos do dia. Os voluntários responderam ao questionário

Fatigue Scale-14 para determinar seus níveis de sonolência. No entanto, a fadiga pode ser

uma característica abstrata para algumas pessoas, o que pode levar a uma classificação

falsa. Este estudo obteve 98.86% de Acc com uma Deep Belief Network (DBN). Apesar

disso, os autores utilizaram apenas a acurácia como métrica de avaliação, sendo que esta

não mede a performance para cada classe, além de que, não disponibilizaram a matriz de

confusão com os acertos e erros por classe. Os sinais adquiridos e utilizados no estudo

também não foram disponibilizados publicamente para comparação.

Ainda, Li, Lee e Chung (2015) desenvolveram um EEG vestível com 3 eletrodos

secos. Os dados são enviados para um smartwatch onde o sinal é processado e, se ne-

cessário, um alerta é acionado. O classificador foi treinado no computador e o modelo foi

transferido para o smartwatch. As classes foram criadas a partir de vídeos do compor-

tamento do sujeito, gravados durante o experimento, alcançando 91.92% de Acc. Além

36

disso, Qian et al. (2016) adquiriram sinais de 25 indivíduos durante cochilos diurnos. O

IAF foi utilizado para aproximar as bandas alfa e teta da seguinte forma: IAF - θ e IAF - α,

isto porque as faixas de frequência onde aparecem os ritmos podem variar de sujeito para

sujeito. Os autores testaram a metodologia em tempo real e um sinal de 20 s pode ser

processado em 2 s.

Alguns trabalhos investigaram a possibilidade de usar o sinal de EEG para substituir

as metodologias baseadas em vídeo. Kartsch et al. (2017) desenvolveram um sistema

embarcado para monitorar a duração da piscada dos olhos e o acúmulo de ondas alfa

dos sujeitos, ou seja, a partir de um threshold é identificado um pico de onda alfa se

houver mais de 5 segundos de ondas alfas acumuladas é considerado um indicador de

sonolência. Os autores também relataram que o sistema pode operar por até 7.1 horas

com uma bateria de 200mAh. Já Li e Chung (2014) encontraram uma relação linear entre

EEG e o grau de fechamento palpebral (do inglês eyelid closure degree - ECD) mostrando a

possibilidade de substituir sistemas baseados em vídeo para monitoramento palpebral. Os

autores encontraram que a combinação de ritmo alfa e eletrodo de O2 foi a mais relevante

para a regressão linear escolhida.

3.3 TRABALHOS RELACIONADOS E PROPOSTA DO TRABALHO

Para que um sistema seja capaz de detectar sonolência em situações como as

citadas na seção anterior, onde o usuário esta dirigindo ou realizando alguma tarefa que

exige sua atenção, é necessário que este monitore o usuário constantemente, ou seja,

realize processamento dos sinais em tempo real, consequentemente que haja baixo custo

computacional, além de que, o sistema deve permitir mobilidade ao usuário.

A partir dos trabalhos revisados, percebeu-se que He et al. (2014), Hal et al. (2014),

Li, Jiang e Su (2016), Kayikcioglu, Maleki e Eroglu (2015) e Belakhdar et al. (2018) são

os trabalhos que mais buscaram desenvolver um sistema com estas características cita-

das, por isso será realizada uma comparação destes e da metodologia proposta. Diversos

trabalhos utilizaram um EEG vestível para a aquisição dos sinais, porém não disponibiliza-

ram os dados nem avaliaram os sinais capturados com este equipamento. A partir disso,

este trabalho tem como objetivo propor uma metodologia para detecção de sonolência em

tempo real, utilizando um EEG vestível.

4 MATERIAIS E MÉTODOS

Nesta seção serão detalhadas as etapas seguidas para o desenvolvimento deste

trabalho. A Fig. 4.1 mostra um fluxograma que explica a separação dos dados para cada

etapa e as análises realizadas.

Figura 4.1 – Fluxograma com a separação dos dados utilizados e as análises realizas.

Fonte: Autora.

38

4.1 EXPERIMENTO PARA AQUISIÇÃO

Para as análises realizadas, os sinais foram divididos aleatoriamente em 3 grupos:

treino, teste e validação. O primeiro grupo possui sinais de 11 voluntários (51.767 épocas)

e os outros possuem 4 voluntários cada (18.909 épocas para teste e 19.433 para vali-

dação), nenhum dos grupos compartilha sinais do mesmo sujeito. Com isso, para treino

foram utilizadas em torno de 440 horas de sinal e para cada um dos outros grupos, 160

horas de sinal. O treino dos classificadores foi realizado offline, ou seja, no computador,

utilizando os sinais do banco de dados.

A partir disso, três experimentos foram realizados: leitura e processamento do sinal

com o EEG vestível, comparação de performance do sinal lido pelo EEG e do mesmo sinal

sendo processado diretamente do banco de dados e, avaliação da performance utilizando

todas as amostras de teste e validação.

Para o primeiro experimento, já que se tem o objetivo de simular uma aquisição e

processamento de sinais de EEG em tempo real, não seria viável fazer a leitura de todo

o conjunto de dados. Assim, para cada sujeito de teste e validação, foram separadas 2

horas de sinal, o que corresponde a 240 épocas de 30 segundos. Cada sujeito possui dois

arquivos de sinais gravados em duas noites de sono, dessa forma, para cada arquivo foram

selecionadas 120 épocas de transição (60 do sujeito acordado seguidas de 60 do sujeito

sonolento). Ao final cada grupo contém 960 épocas. Este experimento também tem o

objetivo de avaliar a qualidade do sinal adquirido pelo EEG vestível considerando os ruídos

do ambiente, ou seja, obter resultados para uma aplicação mais próxima da realidade. A

utilização do banco de dados para este experimento permite que sinais de diversos sujeitos

sejam utilizados para as análises. A Fig. 4.2 ilustra o experimento. A primeira etapa é a

leitura do arquivo do sinal pelo Labview 2016 em formato diferencial para consequente

aquisição em duas derivações (FP1 e FP2), em seguida estes vão sendo enviados (a 100

Hz) para duas saídas do Elvis II, onde é conectado um circuito para redução da amplitude

do sinal e filtragem de altas frequências. É necessário realizar esta redução pois o EEG

vestível adquire amplitudes de até 2 mV. Em seguida, as saídas do circuito são ligadas nos

eletrodos do EEG vestível, e via bluetooth o sinal é enviado para a raspberry pi, onde é

processado.

O segundo experimento, utiliza os mesmos sinais separados para o experimento

anterior, com o objetivo de comparar a performance. Neste caso, os dados do banco de

dados foram dados diretamente para a etapa de processamento, como ilustra a Fig. 4.3.

A última análise foi realizada para que se possa avaliar a performance da meto-

dologia proposta através de um conjunto maior de amostras. Assim, utilizando todas as

amostra dos grupos de teste e validação, foram medidas as performances para cada clas-

sificador.

39

Figura 4.2 – Fluxograma geral de processamento com EEG vestível.

Fonte: Autora.

Figura 4.3 – Fluxograma geral de processamento para comparação com sinais adquiridospelo EEG vestível.

Fonte: Autora.

40

4.2 ESPECIFICAÇÕES DE HARDWARE E SOFTWARE

Neste trabalho, todas as análises foram realizados em um sistema linux Ubunto

versão 18.04, na linguagem de programação Python versão 2.7. A Tab. 4.1 mostra quais

foram os parâmetros utilizados para cada classificador, sendo todos os classificadores

oriundos da biblioteca Sklearn, na versão 0.20.4.

Para o experimento de aquisição construído, foram utilizados o NI Elvis II (especi-

ficações em: http://www.ni.com/pdf/manuals/372590b.pdf) e o Labview 2016 (especifica-

ções em:

http://www.ni.com/pdf/manuals/371780m.pdf).

Tabela 4.1 – Especificações de software usados em Python 2.7 e biblioteca sklearn0.20.4.

Classificador ParâmetrosMLPClassifier activation=‘relu’, alpha=1, batch_size=‘auto’,

beta_1=0.9, beta_2=0.999, early_stopping=False,epsilon=1e-08, hidden_layer_sizes=(100,), lear-ning_rate=‘constant’, learning_rate_init=0.001,max_iter=200, momentum=0.9, n_iter_no_change=10,nesterovs_momentum=True, power_t=0.5, ran-dom_state=None, shuffle=True, solver=‘adam’,tol=0.0001, validation_fraction=0.1, verbose=False,warm_start=False

KNeighborsClassifier algorithm=‘auto’, leaf_size=30, metric=‘minkowski’, me-tric_params=None, n_jobs=None, n_neighbors=15, p=2,weights=‘uniform’

LinearDiscriminantAnalysis n_components=None, priors=None, shrinkage=None,solver=‘svd’, store_covariance=False, tol=0.0001

RandomForestClassifier bootstrap=True, class_weight=‘balanced’, crite-rion=‘gini’, max_depth=16, max_features=‘auto’,max_leaf_nodes=None, min_impurity_decrease=0.0,min_impurity_split=None, min_samples_leaf=1,min_samples_split=2, min_weight_fraction_leaf=0.0,n_estimators=64, n_jobs=None, oob_score=False,random_state=None, verbose=0, warm_start=False

SVC C=1.0, cache_size=200, class_weight=‘balanced’,coef0=0.0, decision_function_shape=‘ovr’, degree=3,gamma=‘auto’, kernel=‘rbf’, max_iter=-1, probabi-lity=False, random_state=None, shrinking=True,tol=0.001, verbose=False

Fonte: Autora.

5 RESULTADOS

Nesta seção serão apresentados os resultados obtidos a partir das análises reali-

zadas comparando performances da aquisição e processamento em tempo real, além de,

análise do sinal do EEG vestível, de tamanhos de épocas distintas e comparação entre

classificadores.

5.1 PERFORMANCE EM TEMPO REAL

Inicialmente, parte dos sinais dos grupos de teste e validação foram separados para

aquisição com o EEG vestível (chamaremos TPEEG). Além disso, para uma avaliação de

performance estes sinais foram processados também sem a aquisição pelo EEG (chama-

remos TPBANCO). As figuras 4.2 e 4.3 citadas anteriormente ilustram estes experimentos,

respectivamente.

A partir disso, a Fig 5.1 (a) apresenta os resultados de sensibilidade (sen), espe-

cificidade (esp) e acurácia (acc) para as 120 amostras do grupo de teste. Os resultados

que possuem legenda com o sufixo "_EEG" são para os sinais adquiridos em TPEEG. Com

exceção do LDA todos os classificadores obtiveram boa performance. Para os sinais ad-

quiridos em TPBANCO, o RF e o KNN obtiveram as maiores acurácias, sendo que o KNN

atingiu maior sensibilidade. Ainda assim, dentre todos os classificadores, o SVM foi o que

obteve melhor sensibilidade, ou seja, possui maior capacidade para detectar a classe de

sonolência. Apesar da SVM ter gerado um grande número de falsos positivos, obtendo a

menor acurácia, para uma aplicação onde o usuário possui risco de segurança, é aceitável

que hajam falsos positivos ocasionalmente para que se tenha maior taxa de acerto quando

este estiver sonolento. Já para os sinais de TPEEG, podemos perceber algumas diferen-

ças na performance. Ainda assim, o RF apesar de ter perdido acurácia e especificidade

se mostrou robusto em relação a sensibilidade, praticamente mantendo a taxa de acertos.

Assim como, a SVM que se manteve com a maior sensibilidade, porém perdeu acurácia.

Já o KNN manteve a acurácia, mas perdeu performance de sensibilidade. O threshold,

assim como a MLP, obteve menor sensibilidade, porém aumentou a especificidade, o que

sugere que o ruído possui características que influenciam o classificador a classificar como

acordado, o desbalanceamento de classes também pode influenciar neste cenário. Ainda

assim, o threshold possui melhor performance em relação a MLP.

Ainda, a Fig. 5.1 (b) exibe as mesmas métricas, porém para os sinais do grupo de

validação. Neste, a SVM segue com a maior sensibilidade e o RF com maior acurácia e

praticamente a mesma especificidade para TPBANCO e TPEEG. Além disso, o threshold

e a MLP mostraram novamente um comportamento similar, sendo que o threshold obteve

42

Figura 5.1 – A figura mostra os resultados de sensibilidade, especificidade e acurácia paraos sinais do grupo de teste e validação para cada classificador. Os resultados com o sufixo"_EEG" correspondem ao experimento TPEEG.

(a) Grupo de Teste(%).

(b) Grupo de Validação(%).

Fonte: Autora.

43

melhor sensibilidade.

5.2 ANÁLISE DO SINAL DO EEG VESTÍVEL

A diferença encontrada entre as performances dos sinais classificados em TP-

BANCO e TPEEG, possui duas principais razões. Os testes simulam um cenário real,

onde inevitavelmente, o sinal será afetado pelo ruído do ambiente, consequentemente,

prejudicando a classificação. Além disso, a partir de parte do sinal do sujeito 5, na Fig.

5.2 percebemos algumas distorções no sinal após a leitura pelo EEG vestível. O primeiro

gráfico mostra a FFT do sinal antes (TPBANCO) e depois (TPEEG) de ser lido pelo EEG

vestível, o segundo mostra o sinal no tempo e o último uma aproximação de uma pequena

parte do sinal no tempo. Como consequência da resposta em frequência do EEG vestível

percebe-se que o sinal é atenuado em certas frequências. Presume-se que a atenuação

tanto nas altas quanto nas baixas frequências seja um aspecto do EEG vestível, já que

esta característica é comum a todos os sujeitos, o que faz com que parte da informação

dos ritmos cerebrais seja perdida. É possível verificar este fato pela Fig. 5.3, onde é mos-

trado os ritmos Teta, Alfa, Beta e Gama para o mesmo sinal citado, antes e depois do sinal

ser adquirido. Podemos perceber que o ritmo Teta, por aparecer nas baixas frequências, é

o mais afetado.

5.3 PERFORMANCE PARA TODAS AS AMOSTRAS E TAMANHOS DE ÉPOCAS

Devido ao experimento realizado para processar os sinais em tempo real (TPEEG),

não foi possível utilizar todo o conjunto de amostras disponível. O número total de épo-

cas para os grupos de teste e validação, é apresentado no quadro 5.1. Já a tabela 5.1

mostra os tempos médios de processamento de uma época de 30 s para cada classifica-

dor. Além disso, as Figuras 5.4 (a) e 5.4 (b) mostram, respectivamente, os resultados dos

classificadores para os grupos completos de teste e validação. Com isto, podemos avaliar

a performance da metodologia de processamento do sinal e comparar os classificadores

com um maior número de amostras. A partir disso, encontrou-se que a maior sensibilidade

foi da SVM, sendo seguida bem próximo pelo threshold, e o RF obteve melhor especifici-

dade e acurácia, para o grupo de teste. Para o grupo de validação, a RF seguiu com a

maior especificidade e acurácia e o threshold obteve maior sensibilidade.

No grupo de validação foi identificado um sujeito, o qual todos os classificadores,

com exceção do LDA, obtiveram as piores acurácias e especificidades, ambos os arquivos

SC4171 e SC4172 correspondem ao sujeito 17. Além disso, o MLP, KNN e o RF obti-

44

Figura 5.2 – A figura mostra parte do sinal do primeiro dia de gravação do sujeito 5. Oprimeiro gráfico compara a FFT do sinal original e, este após ser lido pelo EEG vestível.O segundo gráfico mostra o sinal no domínio do tempo. E o último gráfico mostra umaaproximação do anterior.

Fonte: Autora.

Figura 5.3 – A figura mostra os ritmos cerebrais Teta, Alfa, Beta e Gama, para parte dosinal do primeiro dia de gravação do sujeito 5. A primeira linha de gráficos mostra cadaritmo para o sinal original do banco de dados e a segunda, o mesmo sinal após aquisiçãopelo EEG vestível

Fonte: Autora.

45

Tabela 5.1 – Tempo médio de processamento para cada época de 30 segundos.

Classificador Épocas de treinoÉpocas de teste e

validaçãoTempo total (s)

Tempo poramostra (s)

MLP 51767 38694 0.5747060776 0.00001485KNN 51767 38694 0.6377301216 0.00001648LDA 51767 38694 0.6480760574 0.00001675RF 51767 38694 0.5844721794 0.00001510

SVM 51767 38694 0.6769809723 0.00001749

Fonte: Autora.

Tabela 5.2 – Tempo médio de processamento para cada época de 10 s com janela desli-zante de 5s.

Classificador Épocas de treinoÉpocas de teste e

validaçãoTempo total (s)

Tempo poramostra (s)

RF 310589 232186 2.887809992 0.00001244SVM 310589 232186 364.7498729 0.00157094

Fonte: Autora.

veram as piores sensibilidades com os sinais do paciente 3 (SC4031 e SC4032). Estes

resultados sugerem que os pacientes, em especial o paciente 17, possuem características

que diferem dos sujeitos utilizados para treino, gerando, assim, baixa performance pelos

classificadores. Todos os resultados por sujeito podem ser encontrados no APÊNDICE A.

Ainda, para um aplicação de detecção de sonolência em tempo real, é necessário

que o sujeito seja monitorado constantemente, assim uma época de 30 segundos pode

representar um tempo muito grande para sua segurança. Por isso, novos resultados de

performance foram gerados para os três classificadores com melhor performance geral

(mais detalhes na seção 5.4), o RF, SVM e o threshold com os tamanhos de época de

10 segundos (s), 5 s e de 10 s com janelas deslizantes de 1 s e de 5 s. Os melhores

resultados foram encontrados para uma época de 10 s com uma janela deslizante de 5 s

(Tab.5.3), ou seja, a primeira época levará em torno de 10 s para ser predita, porém para

as próximas o sujeito será monitorado a cada 5 segundos. A Tab. 5.2 mostra os tempos

médios de processamento para esta configuração. Além disso, os resultados para outros

tamanhos de épocas podem ser encontrados no APÊNDICE B.

Quadro 5.1 – Número de épocas de 30 s para os grupos de teste e validação.

Grupo de Teste Grupo de TreinoSonolência Acordado Sonolência Acordado

5054 13855 4931 14502

Fonte: Autora.

46

Figura 5.4 – As figuras mostram os resultados de sensibilidade, especificidade e acuráciapara cada um dos classificadores, com todas as amostras dos grupos de teste e validação.

(a) Grupo de Teste(%).

(b) Grupo de Validação(%).

Fonte: Autora.

47

Tabela 5.3 – A tabela mostra os resultados de acurácia, sensibilidade e especifici-dade para uma época de 10 segundos com uma janela deslizante de 5 segundos.

RF SVM Threshold

Paciente Acc Sen Esp Acc Sen Esp Acc Sen EspSC4191 0.880 0.783 0.945 0.859 0.859 0.859 0.852 0.815 0.877SC4192 0.924 0.913 0.927 0.863 0.932 0.842 0.866 0.844 0.872SC4121 0.930 0.957 0.923 0.848 0.997 0.806 0.905 0.995 0.880SC4122 0.883 0.948 0.870 0.740 1.000 0.685 0.870 0.987 0.845SC4051 0.977 0.955 0.980 0.939 0.981 0.934 0.908 0.943 0.903SC4052 0.950 0.937 0.955 0.875 0.990 0.828 0.839 0.967 0.786SC4021 0.975 0.911 0.996 0.980 0.955 0.988 0.955 0.889 0.977SC4022 0.963 0.944 0.969 0.915 0.982 0.895 0.852 0.964 0.817SC4171 0.813 0.995 0.780 0.648 0.997 0.584 0.419 0.999 0.313SC4172 0.844 0.873 0.831 0.764 0.911 0.698 0.483 0.995 0.254SC4041 0.951 0.895 0.980 0.953 0.941 0.959 0.907 0.800 0.962SC4042 0.938 0.782 0.995 0.958 0.883 0.985 0.928 0.764 0.988SC4031 0.962 0.831 0.998 0.972 0.889 0.995 0.955 0.863 0.980SC4032 0.978 0.887 0.998 0.986 0.946 0.996 0.956 0.784 0.995SC4011 0.956 0.929 0.966 0.921 0.949 0.911 0.907 0.894 0.911SC4012 0.973 0.959 0.979 0.941 0.969 0.929 0.918 0.953 0.904Média 0.931 0.906 0.943 0.885 0.949 0.868 0.845 0.904 0.829

Fonte: Autora.

5.4 DISCUSSÃO

De modo geral, pode-se observar o mesmo comportamento encontrado tanto para

os testes das Figuras 5.1 (a) e 5.1 (b), quanto para um maior número de amostras (Fig.

5.4). A partir disso, percebemos que a MLP e o threshold proposto demostraram um com-

portamento semelhante, sendo que o último obteve melhor performance utilizando menos

atributos. Além disso, KNN obteve ótima performance, porém devido a este guardar todas

as amostras de treino ao invés de gerar um modelo, o consumo de memória pode ser alto.

A SVM obteve menor acurácia quando comparada ao RF, devido aos falsos positivos, ou

seja, a geração de alertas ao usuário quando este não estava sonolento. Além disso, pe-

las Tab. 5.1 e 5.2 percebemos que a SVM se tornou mais complexa e, em consequência,

mais lenta para classificação, quando o número de amostras para treino aumentou. Apesar

disso, esta obteve maior sensibilidade, na maioria dos testes, o que demostra uma robus-

tez para identificar a sonolência. Embora o RF não tenha obtido a melhor sensibilidade, em

ambos os testes da Fig. 5.1, este obteve menor perda de performance após a aquisição

com o EEG vestível para identificar sonolência, o que demostra que o ruído externo não

prejudicou significativamente sua performance, além de que, atingiu a melhor acurácia e

especificidade.

A Tab. 5.4 detalha os resultados encontrados para RF, SVM e o Threshold, utili-

48

zando uma época de 10 s com janela deslizante de 5 s e, compara com os resultados dos

trabalhos relacionados. Nem todos os trabalhos disponibilizaram seus dados para haver

uma comparação justa de performance. Ainda assim, a metodologia proposta utiliza me-

nos atributos. Além disso, os trabalhos que utilizaram os sinais do banco de dados para

suas análises (KAYIKCIOGLU; MALEKI; EROGLU, 2015; BELAKHDAR et al., 2018), não

realizaram uma análise do comportamento do sistema em uma situação real, adicionando

os ruídos do ambiente.

Por fim, as análises realizadas mostram que os resultados dos classificadores RF

e SVM são complementares, enquanto a SVM se mostrou robusta para detectar a sono-

lência, o RF obteve ótimos resultados para a classe acordado. Este aspecto dos resul-

tados sugere a possibilidade da criação de um ensemble para associação de ambos. Já

o threshold, obteve resultados muito próximos utilizando apenas dois atributos. Este se

mostrou suscetível ao ruído, em alguns momentos, uma das razões para isto, é que o

treinamento dos classificadores e do threshold foram realizados previamente e utilizando

os dados tratados do banco de dados, enquanto que o teste foi realizado com os sinais

sendo capturados pelo EEG vestível. Este fato adiciona erro a predição, o ideal é que o

treino seja feito com dados mais próximos da realidade daquela aplicação, o que pode ser

alcançado com o ajuste periódico deste threshold, ou seja, realizar um aprendizado semi-

supervisionado auxilia tanto no problema de ruído externo quanto na variabilidade inter e

intrapessoal. Apesar disso, os resultados encontrados para a análise em tempo real se

mostraram satisfatórios, já que obteve-se 95% de sensibilidade (capacidade de detectar

sonolência) com a SVM e 94% de especificidade com o RF. Além disso, considerando os

ruídos do próprio experimento (TPEEG), do ambiente externo, além do treinamento dos

classificadores ter ocorrido com os sinais ideais do banco, e da possibilidade do EEG ves-

tível ter atenuado algumas frequências, os resultados apresentados nas Fig. 5.1 (a) e 5.1

(b) mostram que, principalmente, o RF e a SVM obtiveram performances semelhantes para

ambas as análises.

49

Tabela 5.4 – São apresentadas as principais características dos trabalhos relacionadose, os resultados encontrados para RF, SVM e o Threshold, utilizando uma época de 10s com janela deslizante de 5 s.

Ref Sujeitos Eletrodos Atributos Classificador Performance

1 6, 18 Fp1Atenção,

MeditaçãoKNN

Sen= 68.31%,Esp= 90.43%

2 3 Fp1Média,

Desvio Padrãode α, β

Threshold Acc=81%

3 59 Fp1

21 atributos doPSD,

Wavelet Packet eDomínio do Tempo

DBN Acc= 98.86%

4 7 Pz-Cz22 AR coef.de θ, α, β

PLS Acc= 91%

5 10 C3-O1Potência Média em 3,4,

IAF, [3− 4]/α, θ/αANN

Sono= 89%,Emb.= 84.29%

- 19 2Theta, Beta,

Alpha, GammaRF

Acc= 93%,Sen = 91%,Esp = 94%

- 19 2Theta, Beta,

Alpha, GammaSVM

Acc= 88%,Sen = 95%,Esp = 87%

- 19 2 Theta, Beta ThresholdAcc= 84%,Sen = 90%,Esp = 83%

1 (HE et al., 2014)2 (HAL et al., 2014)3 (LI; JIANG; SU, 2016)4 (KAYIKCIOGLU; MALEKI; EROGLU, 2015)5 (BELAKHDAR et al., 2018)

Fonte: Autora.

6 CONCLUSÃO

Neste trabalho foi proposta uma metodologia para detecção de sonolência em tempo

real, utilizando um EEG vestível. Para isto, sinais de EEG de 19 sujeitos de um banco de

dados público foram utilizados para treino, teste e validação. A metodologia de processa-

mento proposta extrai Alfa, Teta, Beta e Gama com uma transformada Wavelet de Haar e,

em seguida, compara as performances dos classificadores: MLP, KNN, LDA, RF, SVM e

um Threshold.

Para uma análise mais próxima da realidade, onde o ruído externo é inevitável, parte

dos sinais do banco de dados foram separados e através de um experimento, adquiridos

pelo EEG vestível. A partir disso, foram realizadas análises do sinal lido e avaliadas as

performances dos classificadores para este sinal. Com isso, foi constatado que uma porção

do espectro de frequência, correspondente a Teta, estava sendo atenuada na aquisição

pelo EEG vestível. Considerando estas atenuações e que o treino do classificador foi

realizado utilizando sinais ideias do banco, as performances antes e após a leitura do

sinal com o EEG vestível foram semelhantes, e por isso os resultados foram considerados

satisfatórios.

O RF e a SVM se mostraram complementares para detecção das classes. O pri-

meiro obteve melhor performance para detectar quando o sujeito estava acordado e o

segundo para detectar sonolência, o que sugere que uma combinação de ambos em um

ensemble deve alcançar resultados ainda melhores. Além disso, o Threshold obteve resul-

tados razoáveis em relação aos classificadores analisados, algumas vezes com a mesma

performance. Todos os classificadores se mostraram, em algum grau, suscetíveis ao ruído

externo, porém isto pode ser amenizado realizando o treino com sinais previamente adqui-

ridos pelo EEG vestível e não, como citado anteriormente, utilizando os sinais ideais.

6.1 TRABALHOS FUTUROS

A partir das análises realizadas percebeu-se que para o progresso do trabalho os

seguintes passos são recomendados:

• A criação de um banco de dados com os sinais do EEG vestível;

• Adaptar o algoritmo da transformada de Haar para decomposição de sinais adquiri-

dos à 512 Hz;

• Avaliar a performance para os ritmos extraídos diretamente pelo EEG vestível;

• Avaliar métodos semi-supervisionados para detecção de sonolência.

REFERÊNCIAS BIBLIOGRÁFICAS

ABN. Dirigir com sono causa 20% dos acidentes de trânsito. 2017.Http://www.saopaulo.sp.gov.br/spnoticias/dirigir-com-sono-causa-20-acidentes.

ABOALAYON, K. A.; OCBAGABIR, H. T.; FAEZIPOUR, M. Efficient sleep stage classifi-cation based on eeg signals. In: IEEE. IEEE Long Island Systems, Applications andTechnology (LISAT) Conference 2014. [S.l.], 2014. p. 1–6.

ACHARYA, U. R. et al. Automated diagnosis of epileptic eeg using entropies. BiomedicalSignal Processing and Control, Elsevier, v. 7, n. 4, p. 401–408, 2012.

AGGARWAL, C. C. DATA CLASSIFICATION: ALGORITHMS AND APPLICATIONS. 1. ed.[S.l.]: CHAPMAN AND HALL/CRC, 2014. (CHAPMAN E HALL/CRC DATA MINING ANDKNOWLEDGE DISCOVERY SERIES). ISBN 978-1-4665-8675-8,978-1-4665-8674-1.

AHN, S. et al. Exploring neuro-physiological correlates of drivers’ mental fatigue causedby sleep deprivation using simultaneous eeg, ecg, and fnirs data. Frontiers in humanneuroscience, Frontiers, v. 10, p. 219, 2016.

AL-GEELANI, N. A.; PIAH, M. A. M.; BASHIR, N. A review on hybrid wavelet regroupingparticle swarm optimization neural networks for characterization of partial discharge acous-tic signals. Renewable and Sustainable Energy Reviews, Elsevier, v. 45, p. 20–35, 2015.

ARNIN, J. et al. Wireless-based portable eeg-eog monitoring for real time drowsiness de-tection. In: IEEE. 2013 35th Annual International Conference of the IEEE Engineeringin Medicine and Biology Society (EMBC). [S.l.], 2013. p. 4977–4980.

ASSARI, M. A.; RAHMATI, M. Driver drowsiness detection using face expression recogni-tion. In: IEEE. 2011 IEEE International Conference on Signal and Image ProcessingApplications (ICSIPA). [S.l.], 2011. p. 337–341.

BAJAJ, V.; PACHORI, R. B. Automatic classification of sleep stages based on the time-frequency image of eeg signals. Computer methods and programs in biomedicine, El-sevier, v. 112, n. 3, p. 320–328, 2013.

BALANDONG, R. P. et al. A review on eeg-based automatic sleepiness detection systemsfor driver. IEEE Access, IEEE, v. 6, p. 22908–22919, 2018.

BALDISSERA, F. B. DETECTOR DE SONOLÊNCIA EM TEMPO REAL UTILIZANDO ATRANSFORMADA HAAR EM UM CANAL DE EEG PARA IMPLEMENTAÇÃO EM FPGA.2015. Monografia (Trabalho de Conclusão de Curso) — Engenharia de Elétrica, a Univer-sidade Federal de Santa Maria, SANTA MARIA, 2015.

BELAKHDAR, I. et al. Single-channel-based automatic drowsiness detection architecturewith a reduced number of eeg features. Microprocessors and Microsystems, Elsevier,v. 58, p. 13–23, 2018.

BHARDWAJ, A.; ALI, R. Image compression using modified fast haar wavelet transform.World Applied Sciences Journal, v. 7, n. 5, p. 647–653, 2009.

BODY, V. Human anatomy atlas 7. [S.l.]: Argosy Publishing Inc., Newton, MA. URL: www.visiblebody. com, 2015.

52

BOONNAK, N.; KAMONSANTIROJ, S.; PIPANMAEKAPORN, L. Classification of drowsi-ness in eeg records based on energy distribution and wavelet-neural network. In: IEEE.2014 IEEE 17th International Conference on Computational Science and Engineering.[S.l.], 2014. p. 1664–1668.

BOOSTANI, R.; KARIMZADEH, F.; NAMI, M. A comparative review on sleep stage classifi-cation methods in patients and healthy individuals. Computer methods and programs inbiomedicine, Elsevier, v. 140, p. 77–91, 2017.

BREIMAN, L. Random forests. KLUWER ACADEMIC PUBLISHERS. MANUFACTUREDIN THE NETHERLANDS., v. 45, p. 5–32, 2001.

CARSKADON, M. A.; DEMENT, W. C. et al. Normal human sleep: an overview. Principlesand practice of sleep medicine, Saunders Philadelphia, v. 4, p. 13–23, 2005.

CORREA, A. G.; OROSCO, L.; LACIAR, E. Automatic detection of drowsiness in eeg re-cords based on multimodal analysis. Medical engineering & physics, Elsevier, v. 36, n. 2,p. 244–249, 2014.

CVETKOVIC, D.; ÜBEYLI, E. D.; COSIC, I. Wavelet transform feature extraction from humanppg, ecg, and eeg signal responses to elf pemf exposures: A pilot study. Digital signalprocessing, Elsevier, v. 18, n. 5, p. 861–874, 2008.

DAVIS, J. V. et al. Information-theoretic metric learning. In: ACM. Proceedings of the 24thinternational conference on Machine learning. [S.l.], 2007. p. 209–216.

DIETTERICH, T. G. An experimental comparison of three methods for constructing ensem-bles of decision trees: Bagging, boosting, and randomization. Machine learning, Springer,v. 40, n. 2, p. 139–157, 2000.

DIYKH, M.; LI, Y. Complex networks approach for eeg signal sleep stages classification.Expert Systems with Applications, Elsevier, v. 63, p. 241–248, 2016.

EBRAHIMI, F. et al. Automatic sleep stage classification based on eeg signals by usingneural networks and wavelet packet coefficients. In: IEEE. 2008 30th Annual InternationalConference of the IEEE Engineering in Medicine and Biology Society. [S.l.], 2008. p.1151–1154.

FABIANI, G. E. et al. Conversion of eeg activity into cursor movement by a brain-computerinterface (bci). IEEE transactions on neural systems and rehabilitation engineering,IEEE, v. 12, n. 3, p. 331–338, 2004.

FAUST, O. et al. Wavelet-based eeg processing for computer-aided seizure detection andepilepsy diagnosis. Seizure, Elsevier, v. 26, p. 56–64, 2015.

FRAIWAN, L. et al. Classification of sleep stages using multi-wavelet time frequency entropyand lda. Methods of information in Medicine, Schattauer GmbH, v. 49, n. 03, p. 230–237,2010.

. Automated sleep stage identification system based on time–frequency analysis ofa single eeg channel and random forest classifier. Computer methods and programs inbiomedicine, Elsevier, v. 108, n. 1, p. 10–19, 2012.

GALAR, M. et al. A review on ensembles for the class imbalance problem: bagging-,boosting-, and hybrid-based approaches. IEEE Transactions on Systems, Man, and Cy-bernetics, Part C (Applications and Reviews), IEEE, v. 42, n. 4, p. 463–484, 2011.

53

GARDNER, M. W.; DORLING, S. Artificial neural networks (the multilayer perceptron)areview of applications in the atmospheric sciences. Atmospheric environment, Elsevier,v. 32, n. 14-15, p. 2627–2636, 1998.

GOLDBERGER, A. L. et al. Physiobank, physiotoolkit, and physionet: components of a newresearch resource for complex physiologic signals. Circulation, Am Heart Assoc, v. 101,n. 23, p. e215–e220, 2000.

GUGER, C. et al. How many people are able to operate an eeg-based brain-computerinterface (bci)? IEEE transactions on neural systems and rehabilitation engineering,IEEE, v. 11, n. 2, p. 145–147, 2003.

. Rapid prototyping of an eeg-based brain-computer interface (bci). IEEE Transac-tions on Neural Systems and Rehabilitation Engineering, IEEE, v. 9, n. 1, p. 49–58,2001.

HAL, B. V. et al. Low-cost eeg-based sleep detection. In: IEEE. 2014 36th Annual Inter-national Conference of the IEEE Engineering in Medicine and Biology Society. [S.l.],2014. p. 4571–4574.

HASSAN, A. R.; BASHAR, S. K.; BHUIYAN, M. I. H. Automatic classification of sleep stagesfrom single-channel electroencephalogram. In: IEEE. 2015 annual IEEE India conference(INDICON). [S.l.], 2015. p. 1–6.

HE, J. et al. A noninvasive real-time driving fatigue detection technology based on left pre-frontal attention and meditation eeg. In: IEEE. 2014 International Conference on Multi-sensor Fusion and Information Integration for Intelligent Systems (MFI). [S.l.], 2014.p. 1–6.

HSU, K.-l.; GUPTA, H. V.; SOROOSHIAN, S. Artificial neural network modeling of therainfall-runoff process. Water resources research, Wiley Online Library, v. 31, n. 10, p.2517–2530, 1995.

HU, J.; MIN, J. Automated detection of driver fatigue based on eeg signals using gradientboosting decision tree model. Cognitive neurodynamics, Springer, v. 12, n. 4, p. 431–440,2018.

JAIN, R. Simple tutorial on svm and parameter tuning in python and r. 2017.URL https://www. hackerearth. com/blog/machine-learning/simple-tutorial-svm-parameter-tuning-python-r/. Visited, v. 20, 2018.

JALILIFARD, A.; PIZZOLATO, E. B. An efficient k-nn approach for automatic drowsinessdetection using single-channel eeg recording. In: IEEE. 2016 38th Annual InternationalConference of the IEEE Engineering in Medicine and Biology Society (EMBC). [S.l.],2016. p. 820–824.

KARTSCH, V. et al. A wearable eeg-based drowsiness detection system with blink durationand alpha waves analysis. In: IEEE. 2017 8th International IEEE/EMBS Conference onNeural Engineering (NER). [S.l.], 2017. p. 251–254.

KAYIKCIOGLU, T.; MALEKI, M.; EROGLU, K. Fast and accurate pls-based classification ofeeg sleep using single channel data. Expert Systems with Applications, Elsevier, v. 42,n. 21, p. 7825–7830, 2015.

KERMIT, M. et al. Treatment of obstructive sleep apnea syndrome by monitoring patientsairflow signals. Pattern Recognition Letters, Elsevier, v. 21, n. 3, p. 277–281, 2000.

54

KIM, S. M. et al. Characteristics of vertex wave during light sleep according to age. Journalof Korean Sleep Research Society, Korean Sleep Research Society, v. 9, n. 1, p. 5–9,2012.

KO, L.-W. et al. Single channel wireless eeg device for real-time fatigue level detection. In:IEEE. 2015 International Joint Conference on Neural Networks (IJCNN). [S.l.], 2015.p. 1–5.

KOLEY, B.; DEY, D. An ensemble system for automatic sleep stage classification usingsingle channel eeg signal. Computers in biology and medicine, Elsevier, v. 42, n. 12, p.1186–1195, 2012.

LAL, S. K.; CRAIG, A. A critical review of the psychophysiology of driver fatigue. Biologicalpsychology, Elsevier, v. 55, n. 3, p. 173–194, 2001.

LEE, B.-G.; LEE, B.-L.; CHUNG, W.-Y. Mobile healthcare for automatic driving sleep-onsetdetection using wavelet-based eeg and respiration signals. Sensors, Multidisciplinary Digi-tal Publishing Institute, v. 14, n. 10, p. 17915–17936, 2014.

LI, G.; CHUNG, W.-Y. Estimation of eye closure degree using eeg sensors and its applica-tion in driver drowsiness detection. Sensors, Multidisciplinary Digital Publishing Institute,v. 14, n. 9, p. 17491–17515, 2014.

LI, G.; LEE, B.-L.; CHUNG, W.-Y. Smartwatch-based wearable eeg system for driver drow-siness detection. IEEE Sensors Journal, IEEE, v. 15, n. 12, p. 7169–7180, 2015.

LI, P.; JIANG, W.; SU, F. Single-channel eeg-based mental fatigue detection based on deepbelief network. In: IEEE. 2016 38th Annual International Conference of the IEEE Engi-neering in Medicine and Biology Society (EMBC). [S.l.], 2016. p. 367–370.

LU, J. et al. A putative flip–flop switch for control of rem sleep. Nature, Nature PublishingGroup, v. 441, n. 7093, p. 589, 2006.

MARCOS, J. V. et al. Automated detection of obstructive sleep apnoea syndrome fromoxygen saturation recordings using linear discriminant analysis. Medical & biological en-gineering & computing, Springer, v. 48, n. 9, p. 895–902, 2010.

MONS, T. L. U. of. The dreams sleep spindles database. In: . [S.l.: s.n.], 2015.

MOSER, D. et al. Sleep classification according to aasm and rechtschaffen & kales: effectson sleep scoring parameters. Sleep, Oxford University Press, v. 32, n. 2, p. 139–149, 2009.

MU, Z.; HU, J.; MIN, J. Driver fatigue detection system using electroencephalography sig-nals based on combined entropy features. Applied Sciences, Multidisciplinary Digital Pu-blishing Institute, v. 7, n. 2, p. 150, 2017.

MULCAHY, C. Image compression using the haar wavelet transform. Spelman Scienceand Mathematics Journal, Citeseer, v. 1, n. 1, p. 22–31, 1997.

MYNDPLAY. MyndBand BLE EEG Brainwave Headset. 2011. Acesso em 13 jan. 2020.Disponível em: <https://store.myndplay.com/products.php?prod=48>.

NAVOT, A. et al. Nearest neighbor based feature selection for regression and its applicationto neural activity. In: Advances in Neural Information Processing Systems. [S.l.: s.n.],2006. p. 996–1002.

55

NHTSA. Traffic safety facts: crash and stats. In: . [S.l.]: NHTSAs National Center for Statis-tics and Analysis, 2017.

OGINO, M.; MITSUKURA, Y. Portable drowsiness detection through use of a prefrontalsingle-channel electroencephalogram. Sensors, Multidisciplinary Digital Publishing Insti-tute, v. 18, n. 12, p. 4477, 2018.

OMS. Global status report on road safety 2018. [S.l.]: World Health Organization, 2018.

OPITZ, D.; MACLIN, R. Popular ensemble methods: An empirical study. Journal of artifi-cial intelligence research, v. 11, p. 169–198, 1999.

PATRICK, K. C. et al. An algorithm for automatic detection of drowsiness for use in wea-rable eeg systems. In: IEEE. 2016 38th Annual International Conference of the IEEEEngineering in Medicine and Biology Society (EMBC). [S.l.], 2016. p. 3523–3526.

PECHENIZKIY, M. et al. Class noise and supervised learning in medical domains: The ef-fect of feature extraction. In: IEEE. 19th IEEE Symposium on Computer-Based MedicalSystems (CBMS’06). [S.l.], 2006. p. 708–713.

PURVES, D. et al. Neuroscience, 6th Ed. [S.l.]: Addison-Wesley, 2017. v. 1.

QIAN, D. et al. Drowsiness detection by bayesian-copula discriminant classifier based oneeg signals during daytime short nap. IEEE Transactions on Biomedical Engineering,IEEE, v. 64, n. 4, p. 743–754, 2016.

RASCHKA, S.; MIRJALILI, V. Python machine learning. [S.l.]: Packt Publishing Ltd, 2017.

RAVIRAJ, P.; SANAVULLAH, M. The modified 2d-haar wavelet transformation in imagecompression. Middle-East Journal of Scientific Research, Citeseer, v. 2, n. 2, p. 73–78,2007.

RETAMAL, G. R. IMPLEMENTAÇÃO FPGA DE UM PROCESSADOR WAVELET HAARAPLICADO A DETECÇÃO DE SONOLÊNCIA A PARTIR DE UM ÚNICO CANAL DE EEG.2018. Monografia (Trabalho de Conclusão de Curso) — Engenharia de Computação, aUniversidade Federal de Santa Maria, SANTA MARIA, 2018.

RODRÍGUEZ-SOTELO, J. et al. Automatic sleep stages classification using eeg entropyfeatures and unsupervised pattern analysis techniques. Entropy, Multidisciplinary DigitalPublishing Institute, v. 16, n. 12, p. 6573–6589, 2014.

SAHAYADHAS, A.; SUNDARAJ, K.; MURUGAPPAN, M. Hypothalamic regulation of sleepand circadian rhythms. Nature, Nature, v. 437, n. 7063, p. 1257–1263, 2005.

. Detecting driver drowsiness based on sensors: a review. Sensors, MultidisciplinaryDigital Publishing Institute, v. 12, n. 12, p. 16937–16953, 2012.

SAMIEE, K. et al. Sleep stage classification using sparse rational decomposition of sin-gle channel eeg records. In: IEEE. 2015 23rd European Signal Processing Conference(EUSIPCO). [S.l.], 2015. p. 1860–1864.

SANEI, S.; CHAMBERS, J. A. Eeg signal processing. Wiley Online Library, 2007.

SCHOMER, D.; SILVA, F. H. Niedermeyer’s Encephalography, 6th Ed. [S.l.]: LippincottWilliams & Wilkins, 2011. v. 1.

56

SCHOMER, D. L.; SILVA, F. L. D. Niedermeyer’s electroencephalography: basic princi-ples, clinical applications, and related fields. [S.l.]: Lippincott Williams & Wilkins, 2012.

SHARMA, R.; PACHORI, R. B.; UPADHYAY, A. Automatic sleep stages classification basedon iterative filtering of electroencephalogram signals. Neural Computing and Applicati-ons, Springer, v. 28, n. 10, p. 2959–2978, 2017.

SILVEIRA, T. d.; KOZAKEVICIUS, A. d. J.; RODRIGUES, C. R. Drowsiness detection forsingle channel eeg by dwt best m-term approximation. Research on Biomedical Engine-ering, SciELO Brasil, v. 31, n. 2, p. 107–115, 2015.

ŠUŠMÁKOVÁ, K. Human sleep and sleep eeg. Measurement science review, Citeseer,v. 4, n. 2, p. 59–74, 2004.

TAN, S. Neighbor-weighted k-nearest neighbor for unbalanced text corpus. Expert Sys-tems with Applications, Elsevier, v. 28, n. 4, p. 667–671, 2005.

THEODORIDIS, S.; KOUTROUMBAS, K. et al. Pattern recognition. IEEE Transactions onNeural Networks, IEEE INSTITUTE OF ELECTRICAL AND ELECTRONICS, v. 19, n. 2,p. 376, 2008.

VIDAKOVIC, B.; MUELLER, P. Wavelets for kids. Instituto de Estadística, Universidad deDuke, 1994.

VISA, S. et al. Confusion matrix-based feature selection. MAICS, v. 710, p. 120–127, 2011.

WALBER. Sensitivity and specificity. 2014. Disponível em: <https://en.wikipedia.org/wiki/Sensitivity_and_specificity>.

WANG, L. Support vector machines: theory and applications. [S.l.]: Springer Science& Business Media, 2005. v. 177.

YAO, Z.; RUZZO, W. L. A regression-based k nearest neighbor algorithm for gene functionprediction from heterogeneous data. In: BIOMED CENTRAL. BMC bioinformatics. [S.l.],2006. v. 7, n. 1, p. S11.

YAZICIOGLU, R. F. et al. A 200 µw eight-channel eeg acquisition asic for ambulatory eegsystems. IEEE Journal of Solid-State Circuits, IEEE, v. 43, n. 12, p. 3025–3038, 2008.

ZHU, G.; LI, Y.; WEN, P. P. Analysis and classification of sleep stages based on differencevisibility graphs from a single-channel eeg signal. IEEE journal of biomedical and healthinformatics, IEEE, v. 18, n. 6, p. 1813–1821, 2014.

APÊNDICE A – RESULTADOS PARA TODAS AS AMOSTRAS

Tabela A.1 – Resultados de acurácia, sensibilidade e especificidade para todos os classificadores e todos dados.

GRUPO DE TESTE GRUPO DE VALIDAÇÃO

PACIENTE VP VN FP FN ACC SEN ESP VP VN FP FN ACC SEN ESP PACIENTE

SC4191 697 1330 97 254 0.852 0.733 0.932 346 1214 701 3 0.689 0.991 0.634 SC4171

SC4192 447 1605 102 59 0.927 0.883 0.940 644 1050 432 87 0.781 0.881 0.736 SC4172

SC4121 511 1714 95 0 0.959 1.000 0.947 666 1501 33 120 0.934 0.847 0.978 SC4041

SC4122 404 1670 249 4 0.891 0.990 0.870 MLP 511 1766 7 140 0.939 0.785 0.996 SC4042

SC4051 253 2186 72 8 0.968 0.969 0.968 297 2006 1 249 0.902 0.544 1.000 SC4031

SC4052 726 1645 135 4 0.945 0.995 0.924 296 1955 2 149 0.937 0.665 0.999 SC4032

SC4021 575 1899 8 64 0.972 0.900 0.996 600 1766 90 71 0.936 0.894 0.952 SC4011

SC4022 524 524 524 524 0.965 0.894 0.987 725 1759 65 27 0.964 0.964 0.964 SC4012

Média 0.935 0.921 0.946 0.885 0.822 0.907 Média

SC4191 757 1303 124 194 0.866 0.796 0.913 348 1328 587 1 0.740 0.997 0.693 SC4171

SC4192 449 1637 70 57 0.943 0.887 0.959 659 1245 391 72 0.804 0.902 0.761 SC4172

SC4121 505 1689 120 6 0.946 0.988 0.934 682 1508 26 104 0.944 0.868 0.983 SC4041

SC4122 405 1709 210 3 0.908 0.993 0.891 KNN 512 1768 5 139 0.941 0.786 0.997 SC4042

SC4051 246 2192 66 15 0.968 0.943 0.971 336 2001 6 210 0.915 0.615 0.997 SC4031

SC4052 714 1564 216 16 0.908 0.978 0.879 306 1956 1 139 0.942 0.688 0.999 SC4032

SC4021 565 1902 5 74 0.969 0.884 0.997 604 1788 68 67 0.947 0.900 0.963 SC4011

SC4022 549 1803 59 37 0.961 0.937 0.968 723 1771 53 29 0.968 0.961 0.971 SC4012

Média 0.934 0.926 0.939 0.900 0.840 0.921 Média

58

GRUPO DE TESTE GRUPO DE VALIDAÇÃO

PACIENTE VP VN FP FN ACC SEN ESP VP VN FP FN ACC SEN ESP PACIENTE

SC4191 1 1421 6 950 0.598 0.001 0.996 0 1592 323 349 0.703 0.000 0.831 SC4171

SC4192 0 1700 7 506 0.768 0.000 0.996 87 899 737 644 0.417 0.119 0.550 SC4172

SC4121 0 1807 2 511 0.779 0.000 0.999 4 1531 3 782 0.662 0.005 0.998 SC4041

SC4122 0 1918 1 408 0.824 0.000 0.999 LDA 0 1766 7 651 0.729 0.000 0.996 SC4042

SC4051 1 2020 238 260 0.802 0.004 0.895 430 1920 87 116 0.920 0.788 0.957 SC4031

SC4052 50 1472 308 680 0.606 0.068 0.827 138 1932 25 307 0.862 0.310 0.987 SC4032

SC4021 80 1905 2 559 0.780 0.125 0.999 0 1855 1 671 0.734 0.000 0.999 SC4011

SC4022 0 1861 1 586 0.760 0.000 0.999 77 1805 19 675 0.731 0.102 0.990 SC4012

Média 0.740 0.025 0.964 0.720 0.166 0.913 Média

SC4191 770 1374 53 181 0.902 0.810 0.963 346 1515 400 3 0.822 0.991 0.791 SC4171

SC4192 456 1640 67 50 0.947 0.901 0.961 629 1348 288 102 0.835 0.860 0.824 SC4172

SC4121 498 1697 112 13 0.946 0.975 0.938 694 1516 18 92 0.953 0.883 0.988 SC4041

SC4122 393 1754 165 15 0.923 0.963 0.914 RF 503 1768 5 148 0.937 0.773 0.997 SC4042

SC4051 246 2239 19 15 0.987 0.943 0.992 346 2006 1 200 0.921 0.634 1.000 SC4031

SC4052 676 1724 56 54 0.956 0.926 0.969 344 1956 1 101 0.958 0.773 0.999 SC4032

SC4021 571 1902 5 68 0.971 0.894 0.997 619 1806 50 52 0.960 0.923 0.973 SC4011

SC4022 536 1846 16 50 0.973 0.915 0.991 718 1795 29 34 0.976 0.955 0.984 SC4012

Média 0.951 0.916 0.966 0.920 0.849 0.945 Média

PACIENTE VP VN FP FN ACC SEN ESP VP VN FP FN ACC SEN ESP PACIENTE

SC4191 847 1291 136 104 0.899 0.891 0.905 348 1177 738 1 0.674 0.997 0.615 SC4171

SC4192 475 1530 177 31 0.906 0.939 0.896 651 1188 448 80 0.777 0.891 0.726 SC4172

SC4121 511 1526 283 0 0.878 1.000 0.844 731 1483 51 55 0.954 0.930 0.967 SC4041

SC4122 408 1436 483 0 0.792 1.000 0.748 SVM 566 1764 9 85 0.961 0.869 0.995 SC4042

59

GRUPO DE TESTE GRUPO DE VALIDAÇÃO

SC4051 254 2166 92 7 0.961 0.973 0.959 355 2003 4 191 0.924 0.650 0.998 SC4031

SC4052 723 1525 255 7 0.896 0.990 0.857 368 1955 2 77 0.967 0.827 0.999 SC4032

SC4021 593 1897 10 46 0.978 0.928 0.995 645 1724 132 26 0.937 0.961 0.929 SC4011

SC4022 576 1783 79 10 0.964 0.983 0.958 732 1730 94 20 0.956 0.973 0.948 SC4012

Média 0.909 0.963 0.895 0.894 0.887 0.897 Média

SC4191 818 1299 128 133 0.890 0.860 0.910 349 527 1388 0 0.387 1.000 0.275 SC4171

SC4192 444 1526 181 62 0.890 0.877 0.894 730 291 1345 1 0.431 0.999 0.178 SC4172

SC4121 510 1658 151 1 0.934 0.998 0.917 656 1488 46 130 0.924 0.835 0.970 SC4041

SC4122 405 1738 181 3 0.921 0.993 0.906 THRESHOLD 513 1755 18 138 0.936 0.788 0.990 SC4042

SC4051 252 2085 173 9 0.928 0.966 0.923 487 1987 20 59 0.969 0.892 0.990 SC4031

SC4052 726 1434 346 4 0.861 0.995 0.806 372 1954 3 73 0.968 0.836 0.998 SC4032

SC4021 578 1887 20 61 0.968 0.905 0.990 606 1730 126 65 0.924 0.903 0.932 SC4011

SC4022 563 1613 249 23 0.889 0.961 0.866 727 1678 146 25 0.934 0.967 0.920 SC4012

Média 0.910 0.944 0.901 0.809 0.902 0.782 Média

APÊNDICE B – RESULTADOS PARA DIFERENTES TAMANHOS DE ÉPOCAS

Tabela B.1 – A tabela mostra os resultados de acurácia, sensibilidade e especificidade para cinco tamanhos de épocas diferentes,utilizando o RF.

30 s 5 s 10 s 10 s com janela de 1 s 10 s com janela de 5 s

Paciente Acc Sen Esp Acc Sen Esp Acc Sen Esp Acc Sen Esp Acc Sen EspSC4191 0.905 0.823 0.959 0.843 0.713 0.929 0.702 0.516 0.800 0.849 0.755 0.913 0.880 0.783 0.945SC4192 0.947 0.901 0.960 0.889 0.920 0.880 0.704 0.570 0.729 0.873 0.932 0.855 0.924 0.913 0.927SC4121 0.945 0.977 0.936 0.907 0.895 0.911 0.710 0.342 0.855 0.898 0.930 0.889 0.930 0.957 0.923SC4122 0.919 0.963 0.909 0.848 0.926 0.831 0.683 0.420 0.764 0.831 0.954 0.805 0.883 0.948 0.870SC4051 0.988 0.950 0.992 0.967 0.951 0.968 0.696 0.224 0.772 0.958 0.960 0.958 0.977 0.955 0.980SC4052 0.957 0.930 0.967 0.929 0.888 0.946 0.676 0.515 0.772 0.930 0.922 0.933 0.950 0.937 0.955SC4021 0.973 0.897 0.998 0.974 0.923 0.991 0.766 0.431 0.935 0.975 0.933 0.989 0.975 0.911 0.996SC4022 0.975 0.923 0.991 0.940 0.954 0.936 0.719 0.470 0.835 0.935 0.957 0.928 0.963 0.944 0.969SC4171 0.823 0.991 0.793 0.809 0.993 0.776 0.709 0.560 0.747 0.780 0.995 0.741 0.813 0.995 0.780SC4172 0.844 0.870 0.832 0.847 0.868 0.837 0.535 0.333 0.677 0.831 0.874 0.812 0.844 0.873 0.831SC4041 0.953 0.888 0.986 0.944 0.891 0.971 0.710 0.574 0.822 0.949 0.910 0.969 0.951 0.895 0.980SC4042 0.936 0.768 0.997 0.933 0.770 0.993 0.677 0.406 0.828 0.941 0.804 0.991 0.938 0.782 0.995SC4031 0.928 0.667 1.000 0.959 0.839 0.992 0.769 0.420 0.908 0.974 0.895 0.996 0.962 0.831 0.998SC4032 0.953 0.751 0.999 0.976 0.881 0.997 0.744 0.368 0.867 0.982 0.915 0.997 0.978 0.887 0.998SC4011 0.961 0.925 0.974 0.954 0.940 0.959 0.729 0.499 0.855 0.951 0.951 0.951 0.956 0.929 0.966SC4012 0.977 0.953 0.987 0.967 0.957 0.971 0.725 0.475 0.885 0.965 0.963 0.965 0.973 0.959 0.979Média 0.936 0.886 0.955 0.918 0.894 0.931 0.704 0.445 0.816 0.914 0.916 0.918 0.931 0.906 0.943

Fonte: Autora.

61

Tabela B.2 – A tabela mostra os resultados de acurácia, sensibilidade e especificidade para cinco tamanhos de épocas diferentes,utilizando a SVM.

30 s 5 s 10 s 10 s com janela de 1 s 10 s com janela de 5 s

Paciente Acc Sen Esp Acc Sen Esp Acc Sen Esp Acc Sen Esp Acc Sen EspSC4191 0.899 0.891 0.905 0.785 0.875 0.725 0.645 0.872 0.527 0.802 0.846 0.773 0.859 0.859 0.859SC4192 0.906 0.939 0.896 0.804 0.930 0.766 0.615 0.654 0.608 0.815 0.934 0.780 0.863 0.932 0.842SC4121 0.878 1.000 0.844 0.792 0.997 0.735 0.627 0.696 0.600 0.810 0.997 0.757 0.848 0.997 0.806SC4122 0.792 1.000 0.748 0.654 0.998 0.580 0.511 0.638 0.472 0.680 0.999 0.612 0.740 1.000 0.685SC4051 0.961 0.973 0.959 0.902 0.984 0.893 0.596 0.301 0.643 0.911 0.983 0.903 0.939 0.981 0.934SC4052 0.896 0.990 0.857 0.849 0.992 0.791 0.605 0.692 0.554 0.853 0.991 0.797 0.875 0.990 0.828SC4021 0.978 0.928 0.995 0.969 0.952 0.975 0.768 0.516 0.894 0.970 0.956 0.975 0.980 0.955 0.988SC4022 0.964 0.983 0.958 0.840 0.991 0.793 0.655 0.615 0.673 0.856 0.985 0.816 0.915 0.982 0.895SC4171 0.674 0.997 0.615 0.586 0.997 0.511 0.467 0.814 0.377 0.606 0.997 0.535 0.648 0.997 0.584SC4172 0.777 0.891 0.726 0.730 0.928 0.641 0.455 0.572 0.373 0.741 0.919 0.661 0.764 0.911 0.698SC4041 0.954 0.930 0.967 0.939 0.938 0.939 0.723 0.656 0.778 0.943 0.941 0.945 0.953 0.941 0.959SC4042 0.961 0.869 0.995 0.955 0.885 0.980 0.696 0.536 0.785 0.956 0.886 0.981 0.958 0.883 0.985SC4031 0.924 0.650 0.998 0.971 0.915 0.986 0.727 0.505 0.815 0.978 0.927 0.992 0.972 0.889 0.995SC4032 0.967 0.827 0.999 0.983 0.946 0.991 0.722 0.418 0.822 0.983 0.945 0.992 0.986 0.946 0.996SC4011 0.937 0.961 0.929 0.904 0.943 0.890 0.704 0.593 0.765 0.908 0.943 0.895 0.921 0.949 0.911SC4012 0.956 0.973 0.948 0.910 0.963 0.888 0.708 0.589 0.783 0.920 0.965 0.901 0.941 0.969 0.929Média 0.901 0.925 0.896 0.848 0.952 0.818 0.639 0.604 0.654 0.858 0.951 0.832 0.885 0.949 0.868

Fonte: Autora.

62

Tabela B.3 – A tabela mostra os resultados de acurácia, sensibilidade e especificidade para cinco tamanhos de épocas diferentes,utilizando o Threshold.

30 s 5 s 10 s 10 s com janela de 1 s 10 s com janela de 5 s

Paciente Acc Sen Esp Acc Sen Esp Acc Sen Esp Acc Sen Esp Acc Sen EspSC4191 0.890 0.860 0.910 0.824 0.780 0.854 0.676 0.675 0.676 0.823 0.780 0.851 0.852 0.815 0.877SC4192 0.890 0.877 0.894 0.848 0.809 0.860 0.694 0.602 0.711 0.847 0.808 0.858 0.866 0.844 0.872SC4121 0.934 0.998 0.917 0.881 0.988 0.850 0.691 0.688 0.692 0.882 0.989 0.852 0.905 0.995 0.880SC4122 0.921 0.993 0.906 0.834 0.982 0.802 0.635 0.513 0.672 0.838 0.982 0.808 0.870 0.987 0.845SC4051 0.928 0.966 0.923 0.893 0.918 0.890 0.692 0.263 0.761 0.890 0.919 0.887 0.908 0.943 0.903SC4052 0.861 0.995 0.806 0.821 0.942 0.771 0.636 0.627 0.641 0.821 0.939 0.773 0.839 0.967 0.786SC4021 0.968 0.905 0.990 0.944 0.871 0.969 0.754 0.555 0.854 0.944 0.871 0.969 0.955 0.889 0.977SC4022 0.889 0.961 0.866 0.831 0.961 0.790 0.679 0.612 0.711 0.826 0.954 0.786 0.852 0.964 0.817SC4171 0.387 1.000 0.275 0.445 0.999 0.344 0.400 0.910 0.269 0.445 0.999 0.345 0.419 0.999 0.313SC4172 0.431 0.999 0.178 0.520 0.988 0.311 0.492 0.894 0.211 0.519 0.987 0.309 0.483 0.995 0.254SC4041 0.924 0.835 0.970 0.893 0.772 0.954 0.701 0.557 0.819 0.893 0.777 0.953 0.907 0.800 0.962SC4042 0.936 0.788 0.990 0.920 0.740 0.986 0.696 0.487 0.813 0.919 0.739 0.985 0.928 0.764 0.988SC4031 0.969 0.892 0.990 0.944 0.845 0.971 0.742 0.498 0.839 0.944 0.844 0.971 0.955 0.863 0.980SC4032 0.968 0.836 0.998 0.949 0.767 0.990 0.731 0.359 0.853 0.948 0.767 0.989 0.956 0.784 0.995SC4011 0.924 0.903 0.932 0.894 0.868 0.904 0.707 0.569 0.782 0.893 0.871 0.901 0.907 0.894 0.911SC4012 0.934 0.967 0.920 0.901 0.936 0.887 0.708 0.601 0.777 0.903 0.936 0.890 0.918 0.953 0.904Média 0.860 0.923 0.842 0.834 0.885 0.821 0.665 0.588 0.693 0.834 0.885 0.820 0.845 0.904 0.829

Fonte: Autora.