proceedings of xi workshop de visão computacional - wvc 2015 · almir olivette artero, marco...

6
Vehicles Classification Using Optical Flow Fernando de Souza Castro, Francisco Assis da Silva, Danillo Roberto Pereira Universidade do Oeste Paulista Unoeste/FIPP Presidente Prudente/SP, Brasil [email protected], {chico, danilopereira}@unoeste.br Almir Olivette Artero, Marco Antonio Piteri, Universidade Estadual Paulista Unesp/FCT Presidente Prudente/SP, Brasil {almir, piteri}@fct.unesp.br AbstractNowadays, supervise the vehicles traffic is a very hard task that represents a challenge for solutions that can help control the traffic on the roads and highways. In this work we used the Lucas and Kanade optical flow algorithm to track and identify the vehicles of a video frame by frame. For each frame, the vehicles found were classified by its size: small, medium and large. The results of this work can be applied in counting systems of vehicles in highways. Another application would be to construct of intelligent traffic light that controls the outflow based on the flow of vehicles. Keywordsoptical flow; track to vehicles; vehicles counting; intelligent traffic lights I. INTRODUÇÃO Com o grande aumento da frota de veículos nas vias das cidades e rodovias, o controle viário é cada vez mais complexo. O uso de semáforos que não utilizam nenhum tipo de controle para interromper ou liberar a passagem dos veículos, limitando-se apenas ao tempo pré-estabelecido, geralmente, causam enormes engarrafamentos, e, como consequência, transtornos para todos os motoristas, além de dificultarem a circulação de viaturas de saúde e segurança. De fato, para se obter um controle adequado do tráfego, é preciso que se faça um monitoramento das demandas. A contagem de veículos em uma rodovia não pedagiada também apresenta dificuldades, quando feita manualmente [2], dificultando o planejamento dos órgãos públicos. Segundo Chen et al. [3], nos últimos anos, os sistemas de vigilância de tráfego precisam ser discutidos e estudados, pois podem fornecer informações significativas e úteis, tais como excesso de velocidade e violação no trânsito. Ao analisar esses problemas espera-se melhorar a mobilidade e reduzir os congestionamentos. Segundo Tannús et al. [16], o caos observado no trânsito da maioria das cidades ainda apresenta outros efeitos, como o aumento da poluição e do número de acidentes. Uma das soluções mais apontadas para resolver os problemas do trânsito é utilizar a Visão Computacional para identificar e rastrear veículos, de modo a interromper ou liberar a passagem de veículos, conforme as necessidades observadas. Pelo uso de câmeras de vídeo, o sistema computacional pode contar o número de veículos e aumentar o tempo de abertura do semáforo para aquela via, diminuindo o engarrafamento. Outro exemplo em que o monitoramento pode ser aplicado é em rodovias não pedagiadas, na contagem de veículos que passam em um determinado trecho da rodovia, classificando-os por tamanho (pequeno, médio ou de grande porte). Sobral [14] afirma que o rastreamento de objetos apresenta como dificuldade estimar a trajetória de um determinado objeto, ou múltiplos objetos numa sequência de frames de um vídeo, ou seja, o algoritmo utilizado para o rastreamento precisa garantir que o objeto tenha identidade única nos diferentes frames. O rastreamento é fundamental para estimar o comportamento do objeto analisando sua trajetória, porém antes de rastreá-lo é necessário que o sistema conheça sua forma para saber qual será o objeto a ser rastreado. Ao rastrear um objeto, muitas vezes é necessário adotar uma representação ou modelo, que descreva a forma ou características que o definem. Com isso, espera-se que o recurso de fluxo óptico seja mais adequado para o rastreamento de veículos, em que é feita uma comparação entre frames consecutivos, que por sua vez são mapeados em um vetor de deslocamentos [14]. Devido às dificuldades de se obter um sistema totalmente confiável, usando apenas imagens, é comum o emprego de sensores para determinar o posicionamento dos veículos. Um sensor muito usado para isto é chamado de sensor de eixo, que consiste em um par de tubos de borracha, estendidos de forma transversal ao fluxo de trânsito, e dentro destes tubos existem válvulas pneumáticas que são acionadas quando os veículos passam sobre elas. Este trabalho apresenta uma metodologia para classificar e rastrear veículos utilizando apenas recursos de Visão Computacional, sem auxílio de sensores. Para a consecução destes objetivos foi utilizada a técnica de fluxo óptico de Lucas e Kanade [7], para rastrear veículos e na sequência categorizá- los como: pequeno, médio ou de grande porte, sendo assim possível quantificar os veículos em cada uma dessas classes. Existem diversas abordagens para obtenção do fluxo óptico, contudo Lukas e Kanade [7] possui reduzido custo computacional se comparado com os demais métodos. A necessidade da aplicação ser executada em tempo real foi o fator crucial para a escolha do algoritmo de Lukas e Kanade. As demais seções deste trabalho estão organizadas da seguinte maneira: na Seção II, são descritos alguns trabalhos relacionados; na Seção III são introduzidos os fundamentos teóricos da proposta apresentada; enquanto na Seção IV é feita uma descrição da metodologia proposta. Por sua vez, a Seção V relata os experimentos realizados e os resultados obtidos; Por fim, a Seção VI faz uma síntese das conclusões do trabalho. Proceedings of XI Workshop de Visão Computacional October 05th07th, 2015 310

Upload: trinhtram

Post on 19-Dec-2018

237 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Proceedings of XI Workshop de Visão Computacional - WVC 2015 · Almir Olivette Artero, Marco Antonio Piteri, Universidade Estadual Paulista – Unesp/FCT . Presidente Prudente/SP,

Vehicles Classification Using Optical Flow

Fernando de Souza Castro, Francisco Assis da Silva,

Danillo Roberto Pereira

Universidade do Oeste Paulista – Unoeste/FIPP

Presidente Prudente/SP, Brasil [email protected], {chico, danilopereira}@unoeste.br

Almir Olivette Artero, Marco Antonio Piteri,

Universidade Estadual Paulista – Unesp/FCT

Presidente Prudente/SP, Brasil {almir, piteri}@fct.unesp.br

Abstract—Nowadays, supervise the vehicles traffic is a very

hard task that represents a challenge for solutions that can help

control the traffic on the roads and highways. In this work we

used the Lucas and Kanade optical flow algorithm to track and

identify the vehicles of a video frame by frame. For each frame,

the vehicles found were classified by its size: small, medium and

large. The results of this work can be applied in counting systems

of vehicles in highways. Another application would be to

construct of intelligent traffic light that controls the outflow

based on the flow of vehicles.

Keywords—optical flow; track to vehicles; vehicles counting;

intelligent traffic lights

I. INTRODUÇÃO

Com o grande aumento da frota de veículos nas vias das cidades e rodovias, o controle viário é cada vez mais complexo. O uso de semáforos que não utilizam nenhum tipo de controle para interromper ou liberar a passagem dos veículos, limitando-se apenas ao tempo pré-estabelecido, geralmente, causam enormes engarrafamentos, e, como consequência, transtornos para todos os motoristas, além de dificultarem a circulação de viaturas de saúde e segurança. De fato, para se obter um controle adequado do tráfego, é preciso que se faça um monitoramento das demandas. A contagem de veículos em uma rodovia não pedagiada também apresenta dificuldades, quando feita manualmente [2], dificultando o planejamento dos órgãos públicos.

Segundo Chen et al. [3], nos últimos anos, os sistemas de vigilância de tráfego precisam ser discutidos e estudados, pois podem fornecer informações significativas e úteis, tais como excesso de velocidade e violação no trânsito. Ao analisar esses problemas espera-se melhorar a mobilidade e reduzir os congestionamentos. Segundo Tannús et al. [16], o caos observado no trânsito da maioria das cidades ainda apresenta outros efeitos, como o aumento da poluição e do número de acidentes.

Uma das soluções mais apontadas para resolver os problemas do trânsito é utilizar a Visão Computacional para identificar e rastrear veículos, de modo a interromper ou liberar a passagem de veículos, conforme as necessidades observadas. Pelo uso de câmeras de vídeo, o sistema computacional pode contar o número de veículos e aumentar o tempo de abertura do semáforo para aquela via, diminuindo o engarrafamento. Outro exemplo em que o monitoramento pode ser aplicado é em rodovias não pedagiadas, na contagem de veículos que passam em um determinado trecho da rodovia, classificando-os por tamanho (pequeno, médio ou de grande porte).

Sobral [14] afirma que o rastreamento de objetos apresenta como dificuldade estimar a trajetória de um determinado objeto, ou múltiplos objetos numa sequência de frames de um vídeo, ou seja, o algoritmo utilizado para o rastreamento precisa garantir que o objeto tenha identidade única nos diferentes frames. O rastreamento é fundamental para estimar o comportamento do objeto analisando sua trajetória, porém antes de rastreá-lo é necessário que o sistema conheça sua forma para saber qual será o objeto a ser rastreado.

Ao rastrear um objeto, muitas vezes é necessário adotar uma representação ou modelo, que descreva a forma ou características que o definem. Com isso, espera-se que o recurso de fluxo óptico seja mais adequado para o rastreamento de veículos, em que é feita uma comparação entre frames consecutivos, que por sua vez são mapeados em um vetor de deslocamentos [14].

Devido às dificuldades de se obter um sistema totalmente confiável, usando apenas imagens, é comum o emprego de sensores para determinar o posicionamento dos veículos. Um sensor muito usado para isto é chamado de sensor de eixo, que consiste em um par de tubos de borracha, estendidos de forma transversal ao fluxo de trânsito, e dentro destes tubos existem válvulas pneumáticas que são acionadas quando os veículos passam sobre elas.

Este trabalho apresenta uma metodologia para classificar e rastrear veículos utilizando apenas recursos de Visão Computacional, sem auxílio de sensores. Para a consecução destes objetivos foi utilizada a técnica de fluxo óptico de Lucas e Kanade [7], para rastrear veículos e na sequência categorizá-los como: pequeno, médio ou de grande porte, sendo assim possível quantificar os veículos em cada uma dessas classes.

Existem diversas abordagens para obtenção do fluxo óptico, contudo Lukas e Kanade [7] possui reduzido custo computacional se comparado com os demais métodos. A necessidade da aplicação ser executada em tempo real foi o fator crucial para a escolha do algoritmo de Lukas e Kanade.

As demais seções deste trabalho estão organizadas da seguinte maneira: na Seção II, são descritos alguns trabalhos relacionados; na Seção III são introduzidos os fundamentos teóricos da proposta apresentada; enquanto na Seção IV é feita uma descrição da metodologia proposta. Por sua vez, a Seção V relata os experimentos realizados e os resultados obtidos; Por fim, a Seção VI faz uma síntese das conclusões do trabalho.

Proceedings of XI Workshop de Visão Computacional ‐ October 05th‐07th, 2015

310

Page 2: Proceedings of XI Workshop de Visão Computacional - WVC 2015 · Almir Olivette Artero, Marco Antonio Piteri, Universidade Estadual Paulista – Unesp/FCT . Presidente Prudente/SP,

II. TRABALHOS RELACIONADOS

Brito [2] apresenta um trabalho com o objetivo de descrever quadro a quadro a trajetória dos veículos. Inicialmente, é obtida a imagem de fundo e, em seguida, o fundo é subtraído do frame atual, resultando apenas nos veículos da imagem. Para identificar os veículos, foram sobrepostos sobre eles templates associados à região de cada veículo na imagem. Para realizar o rastreamento dos pontos foi utilizada a técnica de Lucas e Kanade [7]. Segundo o autor, foi possível acompanhar a trajetória completa dos veículos. Entretanto, o algoritmo tem como desvantagem a necessidade de se carregar, previamente na memória, a imagem de fundo.

Sobral [14] apresenta uma proposta baseada em um contexto global, objetivando classificar o estado do trânsito como baixo, médio ou de alto congestionamento. Em seu trabalho, o primeiro passo consiste em definir uma região de interesse no vídeo, escolhendo uma área que apresenta a maior concentração de movimento. Para segmentar o congestionamento dos veículos, também utiliza a técnica de subtração de fundo e, em seguida, estima a densidade de veículos, contando os pixels não nulos da máscara de primeiro plano, obtida na subtração de fundo. O rastreamento da densidade de veículos é feito usando o método de Lucas e Kanade [7]. Algumas limitações deste sistema são: a necessidade do uso de câmeras estáticas; utilizar apenas uma via de trânsito; não utilizar o sistema em ambientes noturnos.

Tannús et al. [16] desenvolveram um algoritmo para contar os veículos que trafegam pelas vias. Para segmentar as imagens utilizaram o modelo de misturas gaussianas com o propósito de dividir a imagem em dois tipos de regiões: cenário e objetos móveis. A quantificação dos objetos no cenário é realizada por meio do primeiro plano. Uma linha horizontal é posicionada na metade do frame e quando o objeto cruza essa linha os pixels do objeto são identificados.

III. REFERENCIAL TEÓRICO

A. Fluxo Óptico

Fluxo óptico é a distribuição 2D da velocidade de cada pixel associado a um vetor de velocidade, em que a utilização da diferença entre tons de cinza em duas imagens permite identificar se houve movimento [1][7][10][6][12]. Segundo Oliveira-Neto [11], fluxo óptico é definido como uma técnica para estimar movimento por meio de intensidades com os mesmos padrões, podendo assim identificar objetos em outra imagem.

Segundo Minetto [9], existem três situações que podem acarretar uma definição errada do fluxo óptico: problema de oclusão, ambiguidade na correspondência óptica e incoerência espacial. O problema de oclusão é quando um ponto identificado em uma imagem não é encontrado na imagem seguinte. Por exemplo, um ponto P em um frame I é visível e não aparece no frame I+1, como mostra a Fig. 1.

Fig. 1. Problema de oclusão de pontos [9].

A ambiguidade na correspondência óptica, também conhecida como problema de abertura, é quando um mesmo ponto tem ambiguidades no frame seguinte. Isto quer dizer que um ponto a no frame I pode ter vários pontos no frame I+1. Essa multiplicidade pode ser unidimensional (pontos encontrados estão na mesma linha) ou bidimensional (pontos encontrados em linhas diferentes) (Fig. 2 (a)).

(a) (b)

Fig. 2. Problema de a) ambiguidade e b) incoerência espacial dos pontos [9].

Incoerência espacial ocorre quando pontos distintos de um mesmo objeto seguem um fluxo incomum em relação ao deslocamento do objeto. Por exemplo, um objeto com deslocamento para a direita possuindo alguns pontos com fluxo diferente (Fig. 2 (b)).

B. Algoritmo de Lucas e Kanade

Lucas e Kanade [7] descrevem o método como uma técnica em que uma imagem (frame) é dividida em regiões, e o fluxo óptico é calculado para cada uma delas (Fig. 3).

Fig. 3. Ilustração do processo de divisão de uma imagem [7].

Lucas e Kanade [7] assumem por hipótese que num vídeo a ser analisado, pixels diferentes em quadros diferentes representam o mesmo ponto de um objeto que esteja em movimento, possuindo intensidades equivalentes, isto é, possuem brilho, contraste e cor com pouca variação. Em geral, a taxa de captura de câmeras de vídeo (frames por segundo) é maior que a velocidade dos objetos. Isto faz com que o movimento dos objetos seja relativamente pequeno entre frames consecutivos [2]. Dada uma região dentro de uma imagem descrita por uma função F(x), que representa o valor do pixel e a sua posição, se em uma segunda imagem, a mesma região é representada por outra função G(x), então existe um valor h tal que [5]:

𝐹(ℎ + 𝑥) = 𝐺(𝑥) (1)

Devido a possibilidade de existir ruídos nas imagens, faz-se necessário estimar o erro (Ɛ), conforme a Eq. (2).

𝜀 = ∑ |𝐹(ℎ + 𝑥) − 𝐺(𝑥)|𝑋𝜖ℝ ² (2)

Pontos de um mesmo objeto

Proceedings of XI Workshop de Visão Computacional ‐ October 05th‐07th, 2015

311

Page 3: Proceedings of XI Workshop de Visão Computacional - WVC 2015 · Almir Olivette Artero, Marco Antonio Piteri, Universidade Estadual Paulista – Unesp/FCT . Presidente Prudente/SP,

O cálculo do fluxo óptico segundo a proposta de Lucas e Kanade [7] é definida pela Eq. (3).

h=[ ∑ (∂F(x)

∂x)

T

.[G(x)-F(x)]].[R ∑ (∂F(x)

∂x)T.(

∂F(x)

∂x)]R

-1

(3)

C. Algoritmo de Kanade, Lucas e Tomasi (KLT)

O algoritmo KLT utiliza pirâmides em sua implementação, analisando imagens menores do mesmo frame e selecionando os pontos com melhores características [13]. Minetto [9] afirma que o algoritmo KLT calcula o fluxo óptico em múltiplas escalas de resolução, começando com a resolução mais baixa até chegar à resolução original. A coleção de imagens obtidas é chamada de pirâmide. De acordo com Rocha [13] uma mesma cena fornece um conjunto de imagens que são calculadas recursivamente. Partindo de uma imagem inicial I no nível mais alto da piramide (Lm), de modo que o próximo nível seja calculado a partir do nível anterior e assim sucessivamente, ou seja, o fluxo óptico é computado no nível Lm da pirâmide obtendo o vetor de fluxo óptico 𝑣→𝐿 = [𝑢𝐿𝑣𝐿]𝑇, onde u é vetor de velocidade em x, e v é o vetor de velocidade em y. Esses vetores são utilizados como valor inicial no nível Lm–1. Por sua vez, os vetores obtidos nesse nível são utilizados no nível Lm–2, e assim sucessivamente. Para o nível inicial Lm os vetores u e v são nulos (Fig. 4).

D. Algoritmo Good Features to Track

Uma boa escolha dos pontos a serem analisados faz com que o algoritmo tenha maior desempenho e menor custo computacional, geralmente esses pontos são os cantos e arestas de uma imagem [8]. O algoritmo Good Features to Track é baseado no algoritmo de Shi e Tomasi [15] e segundo Dihl [4] utiliza seleção de características pontuais, o rastreamento desses pontos é feito pela similaridade em uma pequena região, tanto no frame atual quanto no frame seguinte. O KLT pode detectar os pontos de uma maneira rápida, desde que o deslocamento dos pontos analisados não seja grande de um frame para outro.

Fig. 4. Utilização dos vetores u, v no algoritmo KLT.

IV. METODOLOGIA

O Fluxograma da Metodologia proposta neste trabalho para a identificação e o rastreamento de veículos, pode ser visualizado na Fig. 5.

Fig. 5. Fluxograma da Metodologia desenvolvida.

Os frames do vídeo são manipulados sempre aos pares, de modo a possibilitar a aplicação da técnica de fluxo óptico. Após a obtenção dos frames é realizada a etapa de pré-processamento, que redimensiona os frames a uma razão de 1:4 (por exemplo, um frame com resolução de 1280 x 1024 pixels é redimensionado para 320 x 256 pixels). Ainda nesta etapa, os frames são convertidos em escala de cinza. A redução dos frames e a conversão para escala de cinza reduz consideravelmente o custo computacional, permitindo assim o processamento em tempo real. Em seguida, para identificar os melhores pontos a serem rastreados é utilizado o algoritmo de Shi e Tomasi [15], que segundo Sobral [14] é um bom extrator de características para selecionar os melhores pontos (pixels) a serem rastreados em um quadro do vídeo.

A técnica de Shi e Tomasi [15] é utilizada no primeiro frame de cada par usado no processo, até o vídeo terminar. A Fig. 6 ilustra os melhores pontos a serem rastreados num frame. Na sequência é realizado o cálculo do fluxo óptico, que tem a finalidade de encontrar no frame subsequente, os pontos correspondentes, identificados previamente. Para o cômputo do fluxo óptico é utilizado o algoritmo Lucas e Kanade [7].

Fig. 6. Pontos rastreados pelo algoritmo de Shi e Tomasi [15].

A Fig. 7 ilustra o deslocamento dos pontos, em que o início da seta representa os pontos encontrados no primeiro frame, enquanto o final da seta indica os pontos encontrados pelo algoritmo de fluxo óptico.

Cálculo do Fluxo Óptico

Cálculo do Fluxo Óptico

Cálculo do Fluxo Óptico

Cálculo do Fluxo Óptico

u,v

u,v

u,v

Lm

Lm-1

Lm-2

Lm-3

𝐼3

𝐼1

𝐼0

𝐼2

𝐽3

𝐽2

𝐽1

𝐽0

Início

Abrir Vídeo

Vídeo Terminou?

Obter frame

Obter frame seguinte

Encontrar sombras dos veículos

Pré-processamento dos frames

Identificação dos melhores pontos a serem rastreados

Fim

Cálculo do Fluxo Óptico

Descarte dos pontos encontrados que não

representam os veículos

Agrupar os pontos que sobraram por veículo

Classificar veículo

Proceedings of XI Workshop de Visão Computacional ‐ October 05th‐07th, 2015

312

Page 4: Proceedings of XI Workshop de Visão Computacional - WVC 2015 · Almir Olivette Artero, Marco Antonio Piteri, Universidade Estadual Paulista – Unesp/FCT . Presidente Prudente/SP,

Fig. 7. Deslocamento de um ponto entre frames subsequentes. Os pontos

amarelos destacados representam a correspondência entre dois frames.

A etapa seguinte consiste em encontrar as sombras pertencentes aos veículos, de modo que estas não interfiram no cálculo das áreas dos mesmos. Para eliminar as sombras, a metodologia proposta primeiramente encontra a imagem de fundo (segundo plano) e considera o frame atual como primeiro plano. Por fim, as imagens são convertidas no espaço de cor HSV, com o intuito de auxiliar na remoção de sombras, como mostra a Fig. 8 (a) e (b).

(a) (b)

Fig. 8. a) Segundo b) primeiro plano no espaço de cor HSV.

A partir do modelo HSV das imagens de primeiro e segundo plano, utiliza-se apenas a informação de luminosidade (Value). Sobre a imagem resultante da divisão do canal Value, apresentada na Fig. 9, é realizada a normalização em cada posição da imagem e os valores encontrados na faixa entre 0.2 e 0.9 são considerados como sombra, enquanto os demais são desconsiderados (valores obtidos empiricamente). A Fig. 10 ilustra a sombra encontrada.

Fig. 9. Imagem resultante da divisão do canal Value das duas imagens.

Fig. 10. Sombra do veículo detectado.

A próxima etapa da metodologia utiliza técnicas básicas de processamento de imagens para eliminar as sombras dos

veículos detectados, que é feita por meio da subtração entre frames consecutivos da imagem de vídeo. A Fig. 11(a) e (b) mostra um exemplo de par de frames sendo analisado, enquanto que na Fig. 11(c) é exibido o resultado da subtração desses dois frames.

(a) (b)

(c)

Fig. 11. a) Primeiro; e b) segundo frame de um par; c) Diferença entre os dois frames.

O passo seguinte nessa etapa encontra uma imagem que representa o veículo sem a sombra (Fig. 12), sendo ela utilizada na etapa de classificação dos veículos. Para isso, foi realizada a subtração da imagem que mapeia as sombras do veículo (Fig. 10) com a imagem que o representa, inclusive sua sombra (Fig. 11 (c)). O resultado da subtração das imagens é apresentado na Fig. 12. A Fig. 13 mostra o resultado da dilatação morfológica aplicada no resultado da subtração das imagens. Para a operação de dilatação foi usado um elemento estruturante 15 x 15 na forma de um quadrado com o ponto de origem na posição central.

Fig. 12. Subtração das imagens que correspondem a sombra (Fig. 10) com a

imagem resultado da subtração dos dois frames de um par (Fig. 11 (c)).

Fig. 13. Aplicação da operação de dilatação na imagem da Fig. 12.

Na sequência, a metodologia proposta realiza o descarte

dos pontos que não representam os veículos. Neste processo

são eliminados os pontos por onde os veículos não trafegam,

Proceedings of XI Workshop de Visão Computacional ‐ October 05th‐07th, 2015

313

Page 5: Proceedings of XI Workshop de Visão Computacional - WVC 2015 · Almir Olivette Artero, Marco Antonio Piteri, Universidade Estadual Paulista – Unesp/FCT . Presidente Prudente/SP,

como os canteiros da rodovia e, também é verificada a

coerência dos deslocamentos dos pontos restantes. Durante

este processo, a maior dificuldade consiste em manter apenas

os pontos encontrados, que estão localizados somente sobre a

rodovia. Isto porque, em cada linha que o carro se movimenta

na imagem, a coluna que representa a margem da rodovia

também se altera. Isto ocorre em função do fato de que a

margem da rodovia nem sempre forma um ângulo de 90 graus

com a base da imagem. A solução proposta para resolver esse

problema faz uso do cálculo de interseção das retas associadas

às margens da rodovia, com uma reta perpendicular a elas no

plano da rodovia (Eqs. 4, 5 e 6). Os pontos de interesse que

estiverem entre ambas às margens são considerados, conforme

ilustrado na Fig. 14.

𝑃1𝑥 =𝑃1𝑦−𝑏

𝑎 (4)

𝑏 = 𝑃2𝑦 − (𝑎. 𝑃2𝑥) (5)

𝑎 =𝑃2𝑦−𝑃3𝑦

𝑃2𝑥−𝑃3𝑥 (6)

onde b é coeficiente linear e a é o coeficiente angular.

Fig. 14. Delimitação das margens da rodovia.

Para eliminar os pontos que não pertencem ao veículo, é analisada a direção de deslocamento dos pontos e todos aqueles com direções diferentes da direção que o veículo trafega são eliminados. A Fig. 15 mostra o resultado depois de aplicado o descarte dos pontos que não estão na rodovia e eliminados os pontos que não pertencem ao veículo.

Fig. 15. Resultado depois de eliminar os pontos sem interesse.

Para classificar os veículos, primeiramente foram agrupados os pontos que estão mais próximos, por meio da métrica euclidiana. Cada um dos conjuntos de pontos restantes representa um veículo, em que foi estabelecido um retângulo mínimo ao seu redor. Porém, essa técnica não enquadra corretamente o veículo, como pode ser visto na Fig. 16. Isso foi corrigido redimensionando os lados do retângulo a fim de enquadrar toda a parte branca, conforme pode ser observado na Fig.17.

Fig. 16. Enquadramento incorreto do veículo.

Fig. 17. Resultado do enquadramento do veículo.

Após o retângulo ter sido enquadrado corretamente sobre o

veículo, quando seu lado horizontal inferior coincidir com a

linha vermelha fixa transversalmente sobre a rodovia (Fig.

18), então, sua área é computada e o veículo finalmente é

classificado nas categorias: pequeno, médio ou de grande

porte. É importante observar que a linha vermelha utilizada foi

estabelecida empiricamente, por ser nessa região da imagem

que o número de acertos na classificação dos veículos foi

maximizado.

Fig. 18. Classificação do veículo.

V. EXPERIMENTOS REALIZADOS

Foi realizada a gravação de um vídeo na rodovia Raposo

Tavares na cidade de Presidente Prudente/SP durante o

período de 12 minutos e 22 segundos, com uma resolução de

1920 x 1080 pixels e 30 frames por segundo, num dia

ensolarado e a favor do sol, de modo que a qualidade das

imagens obtidas fosse a melhor possível. Entretanto, para os

testes realizados foi utilizada apenas uma região do vídeo

(1280 x 720 pixels) para a melhor visualização dos veículos. O

tempo de duração do vídeo foi reduzido para 5 minutos, pois

existiam momentos onde não ocorria o tráfego.

Para realização dos experimentos foi utilizado um

computador com processador i5-2467M, 4 GB de memória

RAM e placa de vídeo integrada Intel HD Graphics 3000. O

tempo total de processamento de cada frame na metodologia

ilustrada na Fig. 5 foi aproximadamente 210 milissegundos.

No vídeo analisado, trafegaram pela rodovia 45 veículos. Um

deles, de médio porte não foi identificado, e outro classificado

Proceedings of XI Workshop de Visão Computacional ‐ October 05th‐07th, 2015

314

Page 6: Proceedings of XI Workshop de Visão Computacional - WVC 2015 · Almir Olivette Artero, Marco Antonio Piteri, Universidade Estadual Paulista – Unesp/FCT . Presidente Prudente/SP,

erroneamente como de grande porte, ao invés de médio porte.

A Tabela I e II mostram os resultados dos experimentos.

TABELA I. RESULTADOS DOS EXPERIMENTOS REALIZADOS.

Total Acertos Erros

Veículo de Pequeno Porte 7 7 0

Veículo de Médio Porte 28 27 1

Veículo de Grande Porte 10 9 1

Total 45 43 2

TABELA II. MATRIZ DE CONFUSÃO DOS EXPERIMENTOS.

Pequeno Médio Grande Não Classificado

Pequeno 7 0 0 1

Médio 0 27 1 0

Grande 0 0 9 0

O veículo de médio porte não foi classificado porque o

mesmo estava no acostamento, e, quando este ultrapassou a

região onde são realizadas as classificações (linha vermelha da

Fig. 19), ele se encontrava em baixa velocidade e os pontos

encontrados durante o cálculo do fluxo óptico não foram

suficientes para classificá-lo.

Fig. 19. Veículo não classificado.

No momento da classificação, o veículo que não foi

classificado corretamente, trafegava muito próximo a outro

veículo, de médio porte e, assim, ambos foram classificado

como sendo um único veículo de grande porte, como pode ser

visto na Fig. 20.

Fig. 20. Dois veículos muito próximos, classificados como um único veículo

de grande porte.

VI. CONCLUSÕES

Os resultados preliminares obtidos a partir da metodologia

proposta se mostram promissores, além de ter um tempo de

processamento relativamente baixo. Entretanto, nesta fase

inicial não foi tratado o problema de oclusão de veículos, que

ocorre quando eles estão próximos entre si. Provavelmente, a

altura em que a câmera foi posicionada para a realização dos

registros das imagens não era a mais adequada. A velocidade

média dos veículos que trafegaram pela rodovia durante a

filmagem foi de 90 Km/h, não sendo possível realizar

experimentos com veículos em alta velocidade, já que este é o

limite da via. Embora os tempos de processamento da

abordagem metodológica proposta possam ser considerados

razoáveis, é importante considerar para um trabalho futuro a

possibilidade de se usar o poder de processamento paralelo das

placas de vídeo, como, por exemplo, a plataforma CUDA,

objetivando obter um processamento próximo do tempo real.

Por fim, outra atividade/tarefa que merece maior investigação

é testar diferentes alternativas algorítmicas [17], para a

extração de pontos característicos que serão posteriormente

usados para a detecção de movimentos.

REFERÊNCIAS

[1] R.L. Barbosa, R.B.A. Gallis, J F.C. Silva, M.M. Junior. A computação do fluxo óptico em imagens obtidas por um sistema móvel de mapeamento terrestre. Revista da Sociedade Brasileira de Cartografia, Geodésia, Fotogram. e Senso. Remoto-SBC, v.57/2, pp.72-78, 2005.

[2] G.R. Brito. Desenvolvimento de algoritmo para tracking de veículos. 2011. 45f. Trabalho de conclusão de curso (Bacharel) - Escola Politécnica da USP de São Paulo, Dep. Eng. Elétrica. São Paulo – SP.

[3] T. Chen, Y. Lin, T. Chen. Intelligent vehicle counting method based on blob analysis in traffic surveillance. In: 2th Inter. Conf. on Innovative Computing, Information and Control, ICICIC’07, pp. 238-242, 2007.

[4] L.L. Dihl. Ratreamento de objetos usando descritores estatísticos. 2009. 69f. Dissertação (Mestrado). Universidade do Vale do Rio dos Sinos, São Leopoldo – RJ.

[5] J.R. Kuiaski. Segmentação de movimento por fluxo ótico. 2012. 90f. Dissertação (mestrado) - Universidade Tecnológica Federal do Paraná, Programa de Pós Graduação em Engenharia Elétrica e Informática Industrial, Curitiba - PR.

[6] A.C. Lara. Segmentação de movimento para aplicações de vigilância eletrônica. 2006. 38f. Dissertação (Mestrado) - Departamento de Ciências da Computação e Instituto de Matemática e Estatística da Universidade de São Paulo, São Paulo – SP.

[7] B.D. Lucas, T. Kanade. An iterative image registration technique with an application to stereo vision. In: Proceedings of the 7th International Joint Conf. on Artificial Intelligence (IJCAI ’81), 1981, pp. 674–679.

[8] S.V.M. Macedo. Aplicação do teste kens para detecção de outliers em fluxo óptico. 2013. 51f. Dissertação (Mestrado) - Universidade Federal de Pernambuco. Fortaleza – CE.

[9] R. Minetto. Detecção robusta de movimento de câmera em vídeos por análise de fluxo óptico Ponderado. 2007. 61f. Dissertação (Mestrado) - Universidade Estadual de Campinas, Campinas – SP.

[10] V.F. Mota. Tensor baseado em fluxo ótico para descrição global de movimentos em vídeos. 2011. 179f. Dissertação apresentada ao programa de pós-graduação para obtenção de grau mestre - Universidade Federal de Juiz de Fora. Juiz de Fora – MG.

[11] V.J. Oliveira-Neto, D.M. Gomes. Comparação de métodos para localização de fluxo óptico em sequências de imagens. In: 27th Conf. on Graphics, Patterns and Images (Sibgrapi), pp. 298-303, 2014.

[12] I. N. S. Oliveira. Metodologia para detecção rápida de movimento em sequências de imagens. 2003. 180f. Dissertação (Doutorado) – Instituto de Física da Universidade de São Paulo. São Carlos - SP

[13] T. Rocha. Uma proposta para classificação de ações humanas baseada nas características do movimento em redes neurais artificiais. 2012. 83f. Dissertação (Mestrado) – Universidade Federal de Brasília - DF.

[14] A.C. Sobral. Classificação automática do estado do trânsito baseada em contexto global. 2012. 94 f. Dissertação (Mestrado) – Universidade Federal da Bahia, Escola Politécnica. Salvador - BA.

[15] J. Shi, C. Tomasi. Good features to track. In: IEEE Computer Society Conf. Comp. Vision and Pattern Recog (CVPR'94), pp. 593-600, 1994.

[16] H.C. Tannús, V.C.V. Soares, R.M. Costa. Técnicas de processamento digital de imagens aplicadas na contagem volumétrica de veículos. In: VIII Work. de Visão Comp. (WVC 2012). Anais... Goiás: UFG, 2012.

[17] F.A. Silva, M.S.V. Paiva, A.O. Artero, M.A. Piteri. Evaluation of keypoint detectors and descriptors. In: VIII Workshop de Visão Computacional (WVC 2013). Anais... Rio de Janeiro: UFF, 2013.

Proceedings of XI Workshop de Visão Computacional ‐ October 05th‐07th, 2015

315