portada - pablo de olavide university · 2020. 2. 12. · aparatos se han ido integrando cada vez...

58

Upload: others

Post on 21-Nov-2020

0 views

Category:

Documents


0 download

TRANSCRIPT

Portada

Julio Ezequiel Pérez Carbajo

Logotipo y Título de la revista

Juan Manuel García Arcos, Rafael Hoyos Manchado y Rafael Iigo

Roció Escudero Ávila, Inés Maldonado Lasunción y Javier Revello Sánchez

Plantilla de la revista

Norberto Díaz Díaz

Editores de las secciones que aparecen en este número

MoleQla Informática: Norberto Díaz Díaz

MoleQla Celular: Guillermo López Lluch

MoleQla Patrimonio: María Pilar Ortiz Calderón

MoleQla Forense: Antonio Aguilar García

Responsable de Maquetación

Francisco Araque Frías

Información sobre todas las secciones de MoleQla en http://www.upo.es/MoleQla

Editores

Sofía Calero Díaz

Ana Paula Zaderenko Partida

Juan Antonio Anta Montalvo

Patrick J. Merkling

ISSN 2173-0903

Editado el 29 de enero de 2020

Universidad Pablo de Olavide, Sevilla, España

Sacamos hoy el número 36 de MoleQla, número de invierno y primero del 2020 con la misma ilusión de siempre y con

energías renovadas. Este número viene fuerte con artículos muy interesantes en las secciones de informática, celular,

patrimonio y forense. Veremos por ejemplo lo que es el luminol y cómo este compuesto puede ayudar a resolver un

crimen… y también cómo los cosméticos se pueden utilizar como evidencia forense.

También tenéis artículos muy interesantes en técnicas de análisis para identificar aglutinantes en pinturas, desarrollos de

aplicaciones móviles y videojuegos e incluso un par de artículos en ingles, en la sección de MoleQla Celular.

Esperamos que disfrutéis leyendo este número y os emplazamos para el siguiente, el 37 que saldrá ya en primavera

El equipo editorial de MoleQla os desea una placentera lectura y un agradable, aunque parece que fresquito invierno.

Sofía Calero

Editor de la Revista MoleQla

ÍNDICE

1. Moleqla Informática

1.1. El Internet de las cosas

1.2. Evolución del desarrollo de videojuegos

1.3. Desarrollo de aplicaciones móviles

1.4. Frameworks de desarrollo web back-end

1.5. Frameworks y lenguajes de desarrollo para frontend

2. Moleqla Celular

2.1. Thermodynamics of ATP synthesis in mitochondria

2.2. Ibuprofen versus prostaglandins synthesis

3. Moleqla Patrimonio

3.1. PIXE para el estudio de elementos sustentados en patrimonio gráfico y documental

3.2. Técnicas de análisis para la identificación de aglutinantes en la pintura de caballete

4. Moleqla Forense

4.1. Luminol, El Compuesto Químico que arroja luz sobre la escena del Crimen

4.2. El proceso de Eutrofización

4.3. El uso de cosméticos como evidencia forense

4.4. Falsos positivos al volante

4.5. Plaguicidas: Un Riesgo latente

4.6. Análisis de drogas de abuso en el humor vítreo

El internet de las cosas Adrián Vázquez Barrera

Resumen—— En este artículo se hace un análisis de las ventajas e inconvenientes del internet de las cosas.

Palabras Claves— Internet, Comunicación, Digitalización, Instrucciones, Salud, Seguridad informática, Ciudad, Transporte,

Hogar, Optimización.

—————————— ◆ ——————————

1. INTRODUCCIÓN

nternet es, sin duda uno de los inventos más importan-

tes en la vida contemporánea, su uso masivo ha marca-

do una transición clara entre generaciones y cambiado

para siempre nuestra forma de comunicar, trabajar e in-

cluso enseñar. De algún u otro modo, todo se ha digitali-

zado.

Hasta hace bien poco, nuestra relación con internet era

y (en muchos casos) sigue siendo bastante imperativa.

Para enviar un mensaje, subir algún archivo o reproducir

un vídeo necesitamos indicarle expresamente al dispositi-

vo a que servicio o aplicación web queremos acceder.

Evidentemente, a medida que pasa el tiempo, nuestros

aparatos se han ido integrando cada vez más, a tal punto

que muchos de ellos no pueden siquiera funcionar sin

conexión. Esta brutal integración con internet está llegan-

do a objetos y servicios de nuestra vida cotidiana, lo que

se conoce como “El Internet de las cosas” (IoT por sus

siglas en inglés) [1].

2. BENEFICIOS DEL IOT.

Los ejemplos más claros, actuales y realistas del uso de

IoT son los siguientes:

2.1. Hogar y ciudad.

Probablemente la cara más “visible” de este sector [2]. Es

muy común hoy en día ver robots aspiradora y de cocina,

cámaras de vigilancia, bombillas y televisores conectados.

Este tipo de aplicaciones han servido para mejorar nota-

blemente la eficiencia energética, comodidad y accesibili-

dad en el hogar. Siempre será más fácil poner a calentar la

comida, activar el aire acondicionado y aspirar el salón a

golpe de dedo y a distancia desde tu teléfono que hacer

dicha configuración con cada electrodoméstico manual-

mente. Una completa odisea en caso de tener alguna dis-

capacidad que afecte a su movilidad. A demás, una casa

conectada permite automatizar todos estos procesos para

que se hagan simultáneamente y con un poco de ingenio

es posible programar dichos comportamientos para que

se hagan a una hora o cuando se den una serie de varia-

bles determinadas. Por ejemplo, cuando no haya nadie en

casa o en un horario donde el kW/h sea más barato.

En la misma línea, una ciudad entera [3] puede beneficiar-

se a gran escala de los mismos beneficios como: automa-

tización del alumbrado, gestión óptima del tráfico y

transporte público que hoy están sincronizados solo por

franjas horarias determinadas. La iluminación debería

adaptarse a las situaciones de niebla y no solo a intervalos

noche/día. En muchas ocasiones hay oleadas de peatones

que no pueden cruzar cuando no hay vehículos cerca y

viceversa, aquí los semáforos actuales son tremendamen-

te ineficientes. El transporte público necesita adaptarse

mejor a las necesidades actuales de los ciudadanos, es

habitual subirse en un autobús con un aforo para el que

no estaba preparado, la demanda en este sector es muy

variable y podría adaptarse mejor si los ciudadanos pue-

den (a través de una aplicación) pagar y confirmar plaza

por adelantado, de ese modo, si el vehículo alcanza su

máximo aforo permitido, es más fácil tomar medidas a

tiempo y enviar refuerzos.

2.2. Wearables y salud.

Está claro que, nosotros como especie, siempre estamos

tratando de mejorar nuestra calidad de vida. En el último

lustro, han aparecido numerosas noticias relacionadas con

relojes o pulseras inteligentes y la detección precoz de

patologías, sobre todo ligadas al corazón [4]. Estos apara-

tos “vestibles” se han hecho muy populares en EE. UU. ya

que permite hacer un seguimiento de los pacientes a par-

tir de los datos recopilados por el dispositivo [5].

Los wearables no sólo monitorizan nuestra salud, también

tienen su nicho en la ingeniería. Algunas empresas están

empezando a utilizar gafas de realidad aumentada conec-

tadas a internet para hacer mucho más visual proyectos

grandes y altamente complejos de forma cómoda. Así

como también supone un gran avance en la forma en la

que entenderemos el entretenimiento en un futuro no

muy lejano.

2.3. Transporte y logística.

Monitorizar el tráfico para evitar congestiones en tiem-

po real es algo con lo que ya contamos hoy. La mayoría

de los coches modernos con mapas y conexión a internet,

así como todos los que utilizamos el móvil como GPS,

tienden a compartir con un servidor los datos de su geo-

posicionamiento y destino para evitar los atascos y guiar a

sus clientes en el menor tiempo posible [6].

————————————————

Adrián Vázquez Barrera. Escuela Politécnica Superior, Universidad Pablo de Olavide. [email protected].

I

1

3. SEGURIDAD Y USABILIDAD.

Aunque son incontables los beneficios que aporta. El

internet de las cosas es una tecnología que necesita ma-

durar sobre todo en materia de seguridad y usabilidad.

El viernes 21 de octubre de 2016, se llevó a cabo un

ataque masivo que dejó gran parte de internet inutilizable

[7]. Para lograrlo, el atacante tomó el control de miles de

dispositivos conectados a internet y redirigió su tráfico

para que hicieran peticiones masivamente a Dyn, uno de

los proveedores de DNS más importantes del mundo. Al

registrar tal cantidad de peticiones, el servicio colapsó.

Esto significa que al intentar acceder a una página web no

pudiera cargarse, debido a que nuestros aparatos no eran

capaces de traducir la dirección introducida a una direc-

ción IP entendible por los mismos. Quiere decir que al

teclear “www.google.es” nos arrojaba un error de DNS,

mientras que al usar “216.58.213.163”, nos abría la página

del buscador sin problema.

Según el Instituto nacional de ciberseguridad [8], en

2018 la mayoría de las vulnerabilidades en dispositivos

IoT fueron:

➢ Uso de contraseñas por defecto, cortas, co-

munes y/o fácilmente descifrables

➢ Servicios conectados en red superfluos que se

ejecutan en segundo plano y realmente no

necesitamos. Se debe restringir el uso de estos

servicios a aquellos que realmente demos uso.

Cuantos más se utilicen, más oportunidades

tiene un posible atacante de entrar en nuestra

red y más difícil será de mantenerlos todos ac-

tualizados.

➢ Nulo control, filtro y/o encriptación de la in-

formación.

➢ Accesos a la nube sin proteger.

A menos que seas una persona hábil con la tecnología,

para el resto de las personas es todo un desafío tener va-

rias aplicaciones de diferentes marcas para controlar obje-

tos que se encuentren en la misma habitación. No existe

una estándar al que atenerse, lo que genera en muchos

casos, confusión e irritación a partes iguales. Ante esta

situación algunas empresas como Apple o Google crearon

sus propias aplicaciones para sus sistemas operativos. No

obstante, esto obliga a los fabricantes de IoT a programar

implementaciones específicas para iOS y/o Android res-

pectivamente. Esta medida no solo no culmina con la eli-

minación de aplicaciones específicas para cada aparato,

sino que además refuerza la dependencia de los usuarios

hacia sendos sistemas y permite a estas compañías perpe-

tuar su duopolio.

REFERENCIAS

[1] Web de SAP. www.sap.com/spain/trends/internet-of-things.html

(Enlace web)

[2] Web de THREEPOINTS.

www.threepoints.com/es/actualidad/ejemplos-de-aplicaciones-

iot-reales-y-actuales (Enlace web)

[3] Web de SIEMENS. www.ciudadesdelfuturo.es/5-aplicaciones-

del-internet-las-cosas-vida-cotidiana.php (Enlace web)

[4] Web del periódico “ABC”.

www.abc.es/tecnologia/informatica/soluciones/abci-apple-

watch-salva-vida-hombre-avisarle-fuera-urgencias-

201805042114_noticia.html (Enlace web)

[5] Web del periódico “El Mundo”.

www.elmundo.es/tecnologia/2018/05/04/5aeb29c0468aeb664a

8b45a6.html (Enlace web)

[6] Web de Microsoft fracttal. www.fracttal.com/2018/10/10/9-

aplicaciones-importantes-iot/ (Enlace web)

[7] Web de Gizmodo. es.gizmodo.com/el-ataque-ddos-que-hoy-

tumbo-internet-es-el-inicio-de-u-1788089613 (Enlace web)

[8] Web de INCIBE. www.incibe.es/protege-tu-

empresa/blog/equipamiento-oficinas-inteligentes (Enlace web)

Adrián Vázquez Barrera. Estudiante de Inge-niería informática en sistemas de información en la Universidad Pablo de Olavide. Desde su eta-pa en la ESO, se interesó por la programación y cómo esta disciplina es capaz de darle vida a las matemáticas y controlar aquellas maquinas que tanto nos facilitan la vida.

2

Evolución del desarrollo de videojuegos Jose Joaquín Barneto del Río

Resumen— Desde hace 10 años a la actualidad ha habido un cambio significativo en el paradigma de desarrollo de los

videojuegos, los juegos físicos limitados a las consolas, con un modelo de negocio de juego como producto, han dado paso al

juego como servicio: en constante evolución, multiplataforma y online.

Palabras Claves— Desarrollo, Videojuegos, ESports, Online, Multiplataforma.

—————————— ◆ ——————————

1. INTRODUCCIÓN

n la actualidad, rara es la persona que no haya proba-

do alguna vez en su vida, si tiene acceso a ellos, un

videojuego. Los hay para los más pequeños para ver

cómo reaccionan a estímulos, para los más mayores para

que no dejen de ejercitar la mente con versiones virtuales

de juegos clásicos. También se están comenzando a intro-

ducir en las aulas en algunos métodos de educación inno-

vadores, para ayudar con enfermedades como el autismo

y, cómo no, para simplemente divertirnos.

La variedad de usos y usuarios que existe en los video-

juegos provoca cambios constantes y hace que los desa-

rrolladores de videojuegos tengan que superarse e inno-

var continuamente ante un público cada vez más exigen-

te.

2. PASADO, 10 AÑOS ATRÁS.

2.1. Consolas y juegos físicos

Si miramos hacia un pasado cercano, el desarrollo de vi-

deojuegos se centraba en el concepto de juego como

producto. Cuando un título salía a la venta, estaba total-

mente completo. Prácticamente sólo probadores profe-

sionales de juego tenían acceso a ellos antes de que salie-

ran a la venta.

La financiación del videojuego se centraba en el desa-

rrollo y el marketing de lanzamiento, y los ingresos eran

casi exclusivamente las ventas realizadas.

En 2009 en Estados Unidos, el 80% de las ventas de vi-

deojuegos y contenido extra eran ventas físicas.[1]

La mayor parte de los videojuegos en estos años se

desarrollaban para videoconsolas y ordenadores, y co-

menzaron a crecer fuertemente las videoconsolas portáti-

les (PSP, Nintendo DS).

Empezaban a distribuirse entonces los primeros conte-

nidos descargables, extras de los nuevos juegos y remas-

terizaciones de juegos antiguos para las nuevas consolas

a precios más económicos.

2.2. Quiénes juegan a videojuegos

El número de personas que juega no ha parado de crecer

desde principios de siglo. En 2008 se jugaba a videojue-

gos en un 65% de los hogares de Estados Unidos [2]. Y no

solo niños, porque la edad media del jugador era de 35

años. Sorprende también que encontramos un número

similar de jugadores menores de 18 años que mayores de

50, como vemos en la figura 1.

Fig. 1. Distribución de jugadores por edades en EE. UU. en 2008 [2]

Este dato es bastante relevante a la hora de desarrollar, ya

que nos enfrentamos a un público muy variado y con exi-

gencias totalmente diferentes a la hora de encontrarse

con un juego por primera vez.

2.3. “Juego como servicio”

Con la llegada y consolidación de los smartphones, en

torno a 2012-2013 comienza un cambio en el paradigma

del desarrollo de los videojuegos, ya no hace falta com-

prar un dispositivo expresamente para jugar, usamos

nuestro propio teléfono.

Esto, junto con el crecimiento de internet y los juegos

online, va a provocar dos cambios fundamentales a la

hora de desarrollar videojuegos: la compatibilidad con

una gran cantidad de dispositivos y el impulso definitivo

al nuevo modelo de negocio de “juego como servicio” [3].

El concepto de juego clásico comienza a cambiar, aho-

ra se oferta un juego en constante evolución, lanzado

“incompleto”, lo que provoca que sean muy baratos e in-

cluso comiencen a predominar los juegos gratuitos.

El desarrollo deja de tener un fin conocido a priori,

desde la primera versión del juego hay contacto directo

con el consumidor y esto va a marcar la evolución del

juego. El juego como servicio se adapta perfectamente a

————————————————

Jose Joaquín Barneto del Río. Escuela Politécnica Superior, Universidad Pablo de Olavide. [email protected].

E

3

una metodología SCRUM ya que periódicamente se van a

realizar nuevas versiones del juego tanto por manteni-

miento, ya que los juegos pasan a estar a disposición de

los jugadores desde la versión beta, como por creación de

nuevo contenido.

El ascenso de los móviles va a provocar también una

drástica caído del desarrollo de videojuegos para consolas

portátiles como podemos ver en la figura 2, ya que ¿por

qué comprar un dispositivo cuando puedo acceder a con-

tenido similar en el móvil?

Fig. 2. Ingresos por dispositivos en Francia, Reino Unido, Alemania y

España [4]

El juego como servicio provoca, además, que las ventas

predominantes de videojuegos y contenido comience a

ser de tipo digital.

3. PRESENTE

3.1. Demografía

El último informe anual de la ESA (asociación comercial de

la industria de los videojuegos de Estados Unidos) [5] nos

muestra que sigue aumentando el número de jugadores,

mientras que el porcentaje de hogares sigue siendo simi-

lar (un 65%) ahora la media es de 2 personas que juegan

a videojuegos por hogar, y un 60% lo hace diariamente.

El 56% de estos gamers prefieren los juegos multijuga-

dor, predominando el juego online. El crecimiento de los

modos y juegos online hace que el desarrollo actual se

centre en gran parte en esta faceta. El prototipo más co-

mún de juego hoy en día es: un juego online, multijuga-

dor, y con contenido extra y compras dentro del propio

juego. Estas compras no suelen ser claves para el éxito en

el juego, lo que se crítica comúnmente como pay-to-win si no contenido estético o mejoras para poder acceder al

mismo contenido que un jugador que no haga compras,

pero en menos tiempo.

El gasto en juegos y contenido digital le ha dado la

vuelta total al físico en 10 años, como vemos en la figura

3.

Fig. 3. Comparativa del gasto físico y digital de videojuegos [5]

3.2. Dispositivos

En cuanto a dispositivos, el 41% juega en ordenador, un

36% en smartphones, otro 36% en videoconsolas y un

24% en tablets. Lo que provoca que muchos juegos ten-

gan que sacar a la venta versiones para todos los disposi-

tivos, algo que ha incrementado la importancia de desa-

rrolladores multiplataforma, y hace más complejo el desa-

rrollo.

3.3. Competiciones de videojuegos, eSports

Las competiciones de videojuegos también están provo-

cando cambios en el proceso de desarrollo, muchos jue-

gos, además de la propia jugabilidad, están implemen-

tando modos “espectador” para que el usuario no juegue

directamente, si no que vea a otros jugar. Cada vez están

dedicando más utilidades a estos modos para facilitar las

retransmisiones, permitir las repeticiones de las jugadas

más impactantes y poder acceder a las pantallas de un

jugador en concreto, a gusto del espectador.

Las competiciones están cobrando cada vez más rele-

vancia, en los últimos juegos asiáticos (Yakarta 2018) hubo

torneos de algunos de los principales videojuegos del

momento a modo de exhibición [6] y los juegos olímpicos

están comenzando a estudiar la posibilidad de incluirlos

en futuras ediciones. Algo que provoca que el desarrollo

del videojuego tenga que estar pulido al máximo, porque

llama mucho la atención cuando en una partida que están

viendo millones de espectadores se detecte un defecto

visual, de jugabilidad o de sonido.

4. FUTURO

Si hay algo que está claro, es que el uso del smartphone

para jugar ha venido para quedarse, cada vez salen a la

venta menos cantidad de videojuegos para las grandes

consolas; aunque las grandes empresas siguen dándole

provecho a las grandes sagas de videojuegos de toda la

vida y sorprendiendo con nuevos títulos de juegos com-

pletos.

Un sector que está cogiendo mucha fuerza es el de la

realidad virtual, un 24% de los desarrolladores se estaba

dedicando a este sector en 2018 [7], aunque los primeros

resultados estuvieron bastante lejos de las estimaciones

de las grandes compañías, el desarrollo para la realidad

virtual sigue en evolución y será probablemente una de

4

las claves de diferenciación de los desarrolladores en el

futuro.

Además de la realidad virtual, la realidad aumentada,

las Smart TV y los nuevos dispositivos como los relojes

inteligentes marcarán la línea de desarrollo.

5. CONCLUSIONES

El mundo de los videojuegos está más vivo que nunca y

con expectativas de seguir creciendo año tras año, y no

sólo en cantidad, si no en variedad: más dispositivos, más

jugadores de todas las edades, nuevas formas de juego,

usuarios que disfrutan viendo a otros jugar como si se

tratase de cualquier deporte clásico. El desarrollo tiene

que estar preparado para los cambios que puedan venir,

sin descuidar nunca a los usuarios que quieran seguir dis-

frutando del tipo de contenido que les atrae, el tiempo

que quieran y sea cual sea.

REFERENCIAS

[1] Entertainment Software Association. (2012). Essential Facts

About the Computer and Video Game Industry 2012, p. 11. Re-

cuperado de: https://library.princeton.edu/sites/default/files/20

12.pdf

[2] Entertainment Software Association. (2008). Essential Facts

About the Computer and Video Game Industry 2008, p. 2. Re-

cuperado de: https://library.princeton.edu/sites/default/files/20

08.pdf

[3] Bagga, Atul (October 10–13, 2011). Emerging Trends in Games-

as-a-Service. Game Developers Conference. https://www.gdcva

ult.com/play/1015035/Emerging-Trends-In-Games-as

[4] Web de la ISFE (Europes Video Games Industry)

https://www.isfe.eu/isfe-key-facts/

[5] Entertainment Software Association. (2018). Essential Facts

About the Computer and Video Game Industry 2018. Recupera-

do de: http://www.theesa.com/wp-content/uploads/2018/05/EF

2018_FINAL.pdf

[6] Web de la ESAHK (Esports Association Hong Kong)

http://www.esahk.org/en/asiangames2018

[7] 2019 Video Game Industry Statistics, Trends & Data

https://www.wepc.com/news/video-game-statistics

Jose Joaquín Barneto del Rio estudiante del Grado en Ingeniería Informática en Sistemas de Información en la Universidad Pablo de Olavide, además de Técnico Superior en Desarrollo de Aplicaciones Multiplataforma, cursado en el centro Nuevas Profesiones de la Cámara de Comercio de Sevilla. También es programador web en Green Slope SL una pequeña empresa sevillana, que proporciona a la Federación Andaluza de Golf soporte infor-

mático y la herramienta de gestión de competiciones Nextcaddy a la propia federación y a todos los clubes de Andalucía. Además, es un apasionado de los videojuegos y de los emergentes eSports (depor-tes electrónicos).

5

Desarrollo de aplicaciones móviles Ana Bautista Sánchez

Resumen—Estas instrucciones aportan unas nociones básicas a la hora de desarrollar una aplicación móvil.

Palabras Claves— Desarrollo, Software, Aplicación, Móvil.

—————————— ◆ ——————————

1. INTRODUCCIÓN

n este artículo se tratará el mercado y las necesidades

específicas del desarrollo de aplicaciones móviles, así

como su planificación.

Actualmente, millones de aplicaciones están disponibles

en diferentes tiendas en línea para los usuarios de te-

léfonos inteligentes. Las aplicaciones móviles más exitosas

se han descargado más de cien millones de veces y cada

día se lanzan nuevas aplicaciones al mercado móvil. Es tal

el alcance de las apps móviles, que hoy en día, em-

prendedores, consultores independientes, organizaciones

y empresas de todo tipo, integran en su plan estratégico

la implementación de aplicaciones, conscientes de que

gran parte del acceso a las mismas se hace a través de

dispositivos móviles.

El crecimiento de las apps móviles ha dado lugar a que

sus desarrolladores adapten metodologías de desarrollo o

surjan nuevas propuestas que permitan cumplir con las

particularidades que implica el desarrollo de apps

móviles.

2. NECESIDADES Y PROBLEMAS DEL MERCADO

2.1. Identificación del Problema a resolver

Es necesario buscar un problema que pueda tener el usu-

ario para darle una solución a través de la aplicación. Es

importante tener una idea que pueda satisfacer una nece-

sidad, definir los objetivos que se persiguen y las ventajas

competitivas que tiene tu aplicación frente a las demás.

2.2. ¿Qué Aplicación Queremos Desarrollar?

Se pueden dar dos alternativas a la hora de desarrollar

una aplicación, elegir entre una app que estaría bien tener

o una app que necesitamos.

2.3. Identificación del Nicho de Mercado

No es fácil crear una aplicación que use todo el mundo,

por este motivo, a veces es mejor apuntar a grupos de

usuarios restringidos, a los cuales sea fácil llegar para que

usen la aplicación. Hay que pensar en los usuarios y en

cómo usarán la aplicación.

2.4. Identificación de Necesidades

Empieza por ti mismo. ¿Qué les falta a las aplicaciones

que tienes?, ¿qué te gustaría tener?, ¿existen aplicaciones

que lleven a cabo tus intereses?...

Además, puedes continuar preguntando a familiares o

amigos, quizás ellos tengan la idea que haga que tu

aplicación triunfe.

2.5. Analiza la Competencia

Por su puesto, antes de empezar a desarrollar la idea hay

que tener en cuenta si esa aplicación o una similar ya ex-

iste en el mercado. Sabiendo cómo funciona y cuál es su

coste podría interesar mejorarla o cambiar de idea.

Existen muchas formas de analizar la competencia, pero la

más rápida y sencilla es a través de las tiendas de aplica-

ciones. Busca las más populares, pruébalas, lee las críticas

y pregunta a tus allegados [1], [3].

3. NECESIDADES ESPECÍFICAS DEL DESARROLLO

DE APLICACIONES MÓVILES

Unas de las medidas a tener en cuenta es la plataforma en

la que queremos desarrollar nuestra aplicación. No es

sencillo desarrollar para varias plataformas y requiere ten-

er recursos para todas.

También tendremos que tener en cuenta el tamaño de la

pantalla, la resolución, los sensores, la limitación del

hardware y otras limitaciones como pueden ser la batería,

la conectividad y el posicionamiento.

3.1. Desarrollo de Aplicaciones Móviles Nativas

Una aplicación nativa es diseñada específicamente para

un sistema operativo. Las aplicaciones nativas están dis-

ponibles en las principales tiendas. Una vez descargada la

aplicación, ésta se instala en el dispositivo móvil. Tras la

instalación y primera ejecución realizada por el usuario,

sin necesidad de contenedor o intermediario alguno, la

aplicación se conecta con el sistema operativo del dis-

positivo móvil.

El desarrollo de aplicaciones nativas implica que sus de-

sarrolladores, tras la escritura del código fuente, crean el

ejecutable en formato binario que se pueda empaquetar

junto con el resto de los recursos, como audio, imágenes,

videos, y diferentes tipos de archivos declarados para el

OS. Para todo esto, se requiere de herramientas, archivos

y suministros específicos provistos por el distribuidor del

OS. (Tabla1).

Además, con las aplicaciones nativas y su desarrollo es

esencial señalar que este tipo de apps acceden libremente

a las APIs, interfaz para un componente de software que

————————————————

Ana Bautista Sánchez. Escuela Politécnica Superior, Universidad Pablo de Olavide. [email protected].

E

6

puede ser invocado a una distancia a través de una red de

comunicaciones utilizando tecnologías basadas en

estándares, disponibles por parte del OS, logrando hacer

uso de funciones propias del SO.

3.2. Desarrollo de Aplicaciones Móviles Web

Las aplicaciones móviles web se ejecutan dentro de un

navegador del dispositivo móvil y se construyen en base a

tres tecnologías esenciales: HTML, que permite visualizar

el contenido, tanto imágenes como texto; CSS, que per-

mite definir el estilo con el que contará la primera

tecnología mencionada, y finalmente JavaScript, que se

encarga de lograr realizar y presentar animaciones y la

interacción misma del usuario con la aplicación móvil

web.

Al ingresar a sitios web que cuenta con una versión web,

el sitio reconoce que el acceso se realiza desde un dispos-

itivo, por lo que presentan páginas HTML diseñadas para

una mejor experiencia en pantallas de varios tamaños,

que generalmente hoy en día son táctiles. Y es gracias a

herramientas JavaScript como Sencha Touch o jQuery

Mobile, que los desarrolladores logran construir interfaces

de usuario similares a las aplicaciones nativas.

Por otra parte, las aplicaciones web permiten el soporte

para múltiples plataformas, hecho que se refleja en el bajo

coste del desarrollo, convirtiéndose éste en su punto de

robustez. Sin embargo, este punto se ve algo opacado si

nos referimos a APIs. Las APIs libres y disponibles para las

aplicaciones web son escasas, por lo que varias de sus

funcionalidades son parciales o no accesibles para las

apps web. Esto podría cambiar a futuro gracias a los

avances que presente HTML.

3.2. Desarrollo de Aplicaciones Móviles Híbridas

La combinación de las apps web y apps nativas, da como

resultado las aplicaciones híbridas, que presentan código

nativo y web, y hacen uso de APIs propios del dispositivo.

Para los desarrolladores esto implica menos trabajo,

puesto que no necesitan escribir una aplicación para cada

plataforma móvil. Y todo esto sin que el usuario note la

diferencia con una aplicación nativa, puesto que una app

híbrida está disponible en tiendas de aplicaciones para su

posterior descarga y almacenamiento en el dispositivo

móvil.

Una app híbrida presenta en su totalidad o gran por-

centaje la interfaz de usuario en el navegador, comple-

mentándose con código nativo que proporcione acceso a

las APIs del dispositivo. Las APIs de los sistemas opera-

tivos a las cuales accede la parte nativa de una app híbri-

da, permite conectar al navegador y las APIs del disposi-

tivo móvil a través de un motor de búsqueda HTML.

La aplicación híbrida cuenta con una página web, conjun-

to de archivos HTML, JavaScript, CSS y recursos audiovis-

uales; ya sea que resida en un servidor o incorporados en

el código de la aplicación.

Debido a las grandes ventajas de este tipo de aplica-

ciones, los desarrolladores de apps híbridas pueden optar

por codificar su puente, entre la parte web y nativa; o bien

aprovechar soluciones ya construidas, conocidas como

frameworks.

Existen varios marcos de trabajo para el desarrollo de

aplicaciones móviles híbridas, y es importante identificar

que tecnologías se usarán, si este es de código abierto, si

se desea que la apariencia de la app se asemeje a una app

nativa o más bien a una página web, el rendimiento que

brinde o la plataforma en la que se desea desplegar la

app; y a partir de las necesidades identificadas, discernir

entre los frameworks existentes.

4. PLANIFICACIÓN DEL DESARROLLO DE

APLICACIONES

Para llevar a cabo la realización de un sistema, es indis-

pensable contar con una serie de pasos, que permita ob-

tener un excelente producto o el mejor, si fuera posible.

Estos pasos en conjunto ordenados son denominados

proceso de software. Un proceso de software se ajusta

según las necesidades y características del proyecto a

llevarse a cabo, por los ingenieros de software o líderes de

proyecto. Al final, este proceso amoldado será la referen-

cia de todo el equipo de trabajo, incluyendo a quienes

han solicitado el sistema.

4.1. Modelos y Metodologías No Ágiles de

Desarrollo de Aplicaciones Móviles

Los métodos no ágiles se enfocan en la planificación

global del proyecto, y una vez que se ha especificado,

inicia el ciclo de desarrollo del software. Estos métodos se

centran en el control del proceso mediante el estableci-

miento de roles, actividades, herramientas, y artefactos

como modelado y documentación. Estos esquemas

"tradicionales" han demostrado abordar correctamente el

desarrollo de software que requiere amplia cantidad de

tiempo y recursos.

Sin embargo, estos métodos no resultan adecuados a

proyectos que, deseando mantener un proceso de alta

calidad, cuentan con entornos volubles y limitaciones

drásticas para los tiempos de desarrollo. Esta falta de flex-

ibilidad y restricción de recursos que presentan las

metodologías no ágiles conllevan dificultades a los equi-

pos de desarrollo.

4.2. Modelos y Metodologías Ágiles de Desarrollo de Aplicaciones Móviles

Los métodos ágiles nacen como respuesta a potenciar el

desarrollo de software, en lugar de su planificación. Estos

métodos dan mayor importancia a la capacidad de

respuesta, en lugar del seguimiento estricto de un plan.

Estas propuestas nacieron puesto que se requiere en mu-

chos proyectos de mayor flexibilidad, de permitir cambios

sin que implique un costo excesivo.

Las metodologías ágiles ofrecen un desarrollo más ligero

y rápido. Han logrado un alto nivel de popularidad y el

éxito en la industria de software reconociendo que una

buena relación cliente / desarrollador es crucial para el

éxito en el desarrollo de software [2].

7

5. CONCLUSIONES

Seleccionar un tipo de desarrollo de aplicación móvil

requiere del previo análisis de los objetivos de la aplica-

ción, del escenario en el que se desarrollará y desen-

volverá, e incluso el tipo de usuarios finales a los cuales se

desea llegar; todo esto a fin de que se elija un tipo de

aplicación acorde a los recursos con los que se cuenta y

con la funcionalidad requerida.

REFERENCIAS

[1] https://www.cooperativaonline.com/pasos-para-disenar-

una-app-movil/

[2] https://iconline.ipleiria.pt/bitstream/10400.8/3171/1/disert

aciondoc_lizzchandiargoti.pdf

[3] Rubén Fuentes Fernández. Facultad de Informática, Univer-

sidad Complutense de Madrid. http://www.ucm.es

Ana Bautista Sánchez estudiante de segun-do curso de Ingeniería Informática en Siste-mas de Información en la Universidad Pablo de Olavide. Ha recibido los certificados de los cursos “Apps móviles” por la Universidad Complutense de Madrid e “Introducción al desarrollo web: HTML y CSS” por el Instituto de Economía Internacional de la Universidad de Alicante.

8

Frameworks de desarrollo web back-end Nerea Márquez Egea

Resumen— Este artículo constará de una introducción a los diferentes frameworks de desarrollo web back-end junto con las

ventajas y desventajas de usarlo y con el lenguaje de programación en el que se apoya.

Palabras Claves—Aplicaciones web, Aprendizaje, Documentación, Framework, Lenguaje de programación.

—————————— ◆ ——————————

1. INTRODUCCIÓN

n el desarrollo web actual intervienen muchos roles en el desarrollo de aplicaciones. Lo más escuchados son “desarrollador front-end” y “desarrollador back-

end”. Nos centraremos en la parte más cercana al funcio-namiento de la página web, es decir, back-end. Por tanto, cada vez que alguien haga una petición a la página, el servidor actuará y proporcionará la información solicita-da, de eso se encarga el desarrollador back-end. Con otras palabras, el desarrollador se encarga de interactuar con las bases de datos y verificar el manejo de sesiones de usuarios. [1]

Fig. 1. Frontend vs Backend.

La tecnología empleada como back-end se encargará de elaborar una respuesta al usuario. A continuación, un listado de las tecnologías más representativas del desarro-llo back-end:

1. Java (Spring) 2. Ruby (Ruby on Rails) 3. PHP (Laravel) 4. Python (Django) 5. JavaScript (Node.js) Lo que primero se menciona es el lenguaje de progra-

mación en el que está, posteriormente, el framework se-leccionado para hablar de él a continuación.

2. JAVA

2.1. Java como lenguaje de programación

Se trata de un lenguaje de programación orientado a obje-tos, por lo que su principal intención es poder “escribir” aplicaciones que se ejecuten en cualquier dispositivo. A partir del 2012 es unos de los lenguajes más populares

para el desarrollo de aplicaciones web con aproximada-mente 10 millones de usuarios. [2]

Fig. 2. Framework más usado de Java.

2.2. Spring como framework

Spring proporciona un modelo de programación y confi-guración completa para las aplicaciones empresariales modernas basadas en Java. [3]

2.3. Ventajas de Spring

➢ Uso de POJO (Plain Old Java Object): usar POJO

para desarrollar aplicaciones tiene el beneficio de

no necesitar un servidor para que funcione. Por

ello, Spring es un framework bastante liviano.

➢ No necesita ser reinventado: al usar tecnologías

conocidas como JDK timers o Java EE entre otros,

los desarrolladores no necesitan aprender nuevas

tecnologías ni frameworks para poder desarrollar

en Spring.

➢ Framework de desarrollo bien diseñado: Spring

está diseñado por un modelo MVC, el cual puede

servir para que otro framework web lo use. [4]

2.4. Desventajas de Spring

➢ Complejidad: como tiene muchas clases y herra-

mientas distintas, Spring puede llegar a ser un

framework difícil de aprender.

➢ Muchos mecanismos de paralelismo: el paralelis-

mo puede ser de gran ayuda si el desarrollador

conoce a la perfección qúe métodos y clases serían

útiles para un caso en particular, sin embargo, si

no tiene dominio de esto, la complejidad incre-————————————————

Nerea Márquez Egea. Escuela Politécnica Superior, Universidad Pablo de Olavide. [email protected].

E

9

mentaría.

➢ Gran cantidad de XML: para trabajar con Spring,

ha de tener soltura con XML, así que, si se quiere

desarrollar una aplicación con dicho framework,

hay que estar preparado para los XML.

3. RUBY

3.1. Ruby como lenguaje de programación

Combina una sintaxis inspirada de Python y Perl (Practial Extracting and Reporting Language). Al igual que Py-thon, es un lenguaje de alto nivel, lo que hace más fácil y rápido de aprender. Ruby fue originalmente creado para hacer de la programación algo divertido. Se popularizó en el mundo del desarrollo web gracias al framework del que hablaremos a continuación.

Fig. 3. Framework más usado de Ruby.

3.2. Ruby on Rails como framework

Ruby on Rails (RoR) está enfocado en crear sitios y aplica-ciones web. De hecho, combina Ruby con HTML, CSS y JavaScript, siendo las dos primeras frameworks de front-end. [5] 3.3. Ventajas de Ruby on Rails

➢ Gran y activa comunidad: según Builtwith, este

framework está en el top 3 de herramientas de

desarrollo web más usados, lo que significa que

muchas personas en el mundo usan este frame-

work para crear un software. Debido a esto, exis-

ten muchos fragmentos de código(“gemas”), que

pueden ser usados para tu propio proyecto, y así

poder centrarse en tareas más difíciles.

➢ Tiempo de eficiencia: hay miles de herramientas

que pueden acelerar y simplificar tu experiencia

frente al código, pudiendo invertir más tiempo en

otras tareas.

➢ Popularidad entre las grandes compañías: muchas

de las grandes compañías como Twitch, GitHub o

Airbnb deciden usar RoR, ya que las herramientas

que proporciona este framework son sólidas y fia-

bles. [6]

3.4. Desventajas de Ruby on Rails

➢ Está en continua evolución: este framework al es-

tar cambiando en todo momento, puede llegar a

ser difícil mantener tu código, por lo que habrá

que estar al día de esas novedades.

➢ Velocidad de arranque: quien haya trabajado con

este framework sabrá que, debido a las depen-

dencias y librerías usadas, puede demorarse el

arranque del sistema.

➢ Escasez de documentación propia: es difícil en-

contrar pautas sobre dicho framwork, bien se

puede pedir ayuda a la comunidad gracias a la

experiencia de muchos o bien encontrar casos

particulares e intentar entender su funcionalidad

para adaptarlo a tu propio código. [7]

4. PHP

4.1. PHP como lenguaje de programación

El primero que consiguió que las páginas pasaran de ser estáticas a dinámicas fue PHP. Ha sido capaz de adap-tarse a la actualidad, desde programación orientada a objetos como a gestión de imágenes. Lo utilizan grandes empresas como Wikipedia y Facebook. En estos momen-tos, está de moda desarrollar a través del siguiente fra-mework. [8]

Fig. 4. Framework más usado de PHP.

4.2. Laravel como framework

Laravel tiene todo lo que puedas necesitar para hacer cualquier tipo de web. Además, tiene una comunidad enorme y excelente documentación, lo cual es una ventaja frente a los dos frameworks mencionado anteriormente.

4.3. Ventajas de Laravel

➢ Fácil de entender: ya que los documentos son muy legibles y están bien explicados, este framework es de fácil aprendizaje.

➢ Uso de MVC framework: evita las arquitecturas tradicionales donde los desarrolladores solían es-cribir todo en HTML y código PHP en el mismo fichero. [9]

➢ Reducción en el ciclo de desarrollo de un produc-to: minimiza considerablemente este ciclo gracias a que las integraciones son más rápidas.

4.4. Desventajas de Laravel

➢ Desempeño lento: necesita un gran número de consultas a la base de datos, lo cual ralentiza su

10

funcionamiento. ➢ No admite la función de pagos: debido a que

tendría que seguir una regulación y cumplimien-to del PCI (Payment Card Industry), es preferible diferir esta función a servicios como Paypal.

➢ A menudo no proporciona riqueza a aplicaciones móviles: al tener que regarcar páginas comple-tamente, en aplicaciones no es lo más recomen-dable, pero para páginas web no sería tan pesa-do.[10]

5. PHYTON

5.1. Phyton como lenguaje de programación Como se ha mencionado en Ruby, Python es un len-

guaje de programación de alto nivel. Debido a esto, es fácil de usar y leer bajo su filosofía de DRY (Don’t Repeat Yourself), fomentando la reutilización de código. Usado comúnmente para análisis de datos y machine learning.

Fig. 5. Framework más usado de Python.

5.2. Django como framework Django sería lo más cercano a Laravel en PHP o Ruby on Rails para Ruby. Se trata de un marco de trabajo com-pleto y eficiente para desarrollar aplicaciones web de una gran complejidad con un esfuerzo mínimo. Casi cualquier cosa que necesites posiblemente estará integrada. [11] 5.3. Ventajas de Django

➢ Rápido: ha sido desarrollado para ayudar a los desarrolladores a hacer una aplicación lo más rá-pido posible. Django ayuda tanto a que tenga un coste más efectivo como eficiente, por lo que se ahorra tiempo y aumenta la efectividad del desa-rrollador.

➢ Herramientas para todo: funciona de tal manera que incluye docenas de extras para ayudar al desarrollador con varias funcionalidades como la autenticación del usuario, mapas de situaciones, contenido para la administración, etc.

➢ Segura: el desarrollador no tiene que preocupar-se de cometer errores relacionados con la seguri-dad, ya que, por ejemplo, para garantizar el ma-nejo de usuarios y contraseñas está la autentica-ción del usuario mencionado anteriormente.[12]

5.4. Desventajas de Django ➢ Excesivamente rígido: tiene una estructura muy

fija, te direcciona hacia patrones que vienen da-dos por el framework, por lo que no da soltura a la creatividad del desarrollador.

➢ Capacidad de manejar más de una solicitud a la vez: para páginas web, suele ser la tarea más ne-cesaria y Django no está diseñado para ello.

➢ Incompatibilidad para actualizar versiones frente a la velocidad: tiene tendencia a ser cada vez más grande y pesada, por lo que la velocidad es im-portante, pero Django está más enfocado en la compatibilidad de versiones anteriores y no tanto en la velocidad.[13]

6. JAVASCRIPT

6.1. JavaScript como lenguaje de programación JavaScript es un lenguaje de programación que te permite realizar actividades complejas en una página web, como mostrar actualizaciones de contenido en el momento, interactuar con mapas, etc. Es la tercera capa de los estándares en las tecnologías para la web, dos de las cuales son HTML y CSS (front-end). [14] 6.2. Node.js como framework Node.js cuenta con frameworks para la creación rápida de APIs, servidores, aplicaciones de escritorio y tiene una vasta comunidad. [15] 6.3. Ventajas de Node.js

➢ Fácil de aprender: requiere menos esfuerzo y tiempo para aprender y trabajar con él, incluso para un programador Junior de JavaScript.

➢ Libertad de crear aplicaciones: da mucha más li-bertad y espacio de desarrollar tu software a tu manera, ya que es completamente tolerante, lo que significa el poder hacer todo desde un sim-ple boceto.

➢ Comunidad activa: gracias a la cooperación de programadores en JavaScript y su aportación al colectivo, podemos tener acceso a millones de so-luciones, código en GitHub y muchas más posibi-lidades. La comunidad está en constante cambio y sus miembros ayudan a otros con soluciones mejores y fiables.

6.4. Desventajas de Node.js

➢ Escasez de consistencia: la API de Node.js cam-bia frecuentemente y esos cambios suelen hacer que no sea compatible con sus versiones anterio-res, por lo que los desarrolladores se ven forza-dos a realizar cambios en el código para que esté acorde con la última versión de la API.

➢ Más tiempo de desarrollo: que sea tolerante pue-de tener su desventaja, puesto que puede decre-cer la productividad, ralentizar el trabajo, etc.

➢ Herramientas “inmaduras”: aunque este frame-work sea estable, muchos de los paquetes de re-gistro NPM (manejador de paquetes) son aún de baja calidad o no han sido propiamente docu-mentados. Como cualquier persona puede acce-der a ello, muchas de las herramientas no han si-do supervisadas, por lo que puede ser pobre en calidad y puede no ajustarse a la normativa de código. [16]

11

CONCLUSIONES

Cada framework tiene sus pros y contras, dependiendo de lo que busques o puedas sacrificar de tu desarrollo web, elegirás uno u otro.

REFERENCIAS

[1] Web de diferencias entre front-end y back-end:

https://programacionymas.com/frontend-vs-backend (Enlace

web)

[2] Web sobre las definiciones de los lenguajes de programación:

https://platzi.com/blog/lenguajes-frameworks-librerias-backend-

2019/ (Enlace web)

[3] Web sobre Spring: https://www.springla.io/spring/spring-

framework/ (Enlace web)

[4] Web sobre las ventajas y desventajas de Spring: https://data-

flair.training/blogs/advantages-of-spring/ (Enlace web)

[5] Web sobre Ruby on Rails: http://blog.desafiolatam.com/11-

respuestas-a-ruby-on-rails/ (Enlace web)

[6] Web sobre las ventajas de Ruby on Rails: https://sloboda-

studio.com/blog/pros-and-cons-of-ruby-on-rails/ (Enlace

web)

[7] Web sobre las desventajas de Ruby on Rails:

https://www.madetech.com/blog/pros-and-cons-of-ruby-on-

rails (Enlace Web)

[8] Web sobre PHP: https://programadorwebvalencia.com/php-

vs-python-en-desarrollo-web/ (Enlace web)

[9] Web sobre las ventajas de Laravel:

https://lavalite.org/blog/laravel-pros-and-cons (Enlace web)

[10] Web sobre las desventajas de Laravel: https://www.software-

developer-india.com/advantages-and-disadvantages-of-

laravel/ (Enlace web)

[11] Web sobre Django:

https://programadorwebvalencia.com/que-aporta-python-

para-el-desarrollo-web/ (Enlace web)

[12] Web sobre las ventajas de Django:

https://hackernoon.com/advantages-and-disadvantages-of-

django-499b1e20a2c5 (Enlace web)

[13] Web sobre las desventajas sobre Django:

https://www.probytes.net/blog/advantages-disadvantages-

django/ (Enlace web)

[14] Web sobre JavaScript::

https://developer.mozilla.org/es/docs/Learn/JavaScript/Firs

t_steps/Qu%C3%A9_es_JavaScript (Enlace web)

[15] Web sobre Node.js:

https://programacion.net/articulo/lo_que_debes_aprender_e

n_2017_backend_y_frontend_1687 (Enlace web)

[16] Web sobre las ventajas y desventajas de Node.js:

https://www.netguru.com/blog/pros-cons-use-node.js-backend

(Enlace web) Nerea Márquez Egea, actualemente estu-diante de de la Escula Politécnica Superior de la Universidad Pablo de Olavide, el grado de Ingeniería Informática en Siste-mas de Información.

12

FRAMEWORKS Y LENGUAJES DE DESARROLLO PARA FRONTEND

Patricia Vázquez del Cerro

Resumen — A la hora de desarrollar una aplicación o una página web hay que tener en cuenta algunos elementos que forman

parte del mismo desarrollo, en este caso de los frameworks que pueden ser utilizados en la parte “interfaz” a la que se dedica

el frontend, al contrario que el backend que se basa en el interior del código.

Palabras Claves — Desarrollo, framework, lenguajes, informática, front-end, tecnología, back-end, programación.

—————————— ◆ ——————————

1. INTRODUCCIÓN

ste documento es un artículo de investigación en el que se explican las bases fundamentales para conocer el entorno de los Frameworks, que son, para que se

utilizan en el ámbito informático y las claves fundamenta-les para llevar a cabo un buen desarrollo de una aplica-ción o de una página web, así como la relación que tienen con el Front-end, es decir los lenguajes con los que se programa el diseño que el usuario ve al acceder a estos lugares. Asimismo se realiza una pequeña comparación entre el Backend y el Frontend y se comentaran las difer-necias principales.

2. FRAMEWORK

2.1. ¿Qué es?

La palabra Framework, se puede traducir como “marco de trabajo”, a partir de esta mera traducción podemos decir que el framework es un esquema o patrón tecnoló-gico que se usa en el entorno informático y contiene he-rramientas y librerías para el desarrollo o la implementa-ción de una nueva aplicación o web, además también nos permite mantener un orden concreto y preciso en el desa-rrollo de estas.

2.2. ¿Por qué se utiliza?

Los programadores de aplicaciones necesitaban de alguna forma realizar con más rapidez su tarea, y para ello se usan los frameworks. Existen cuatro puntos fundamenta-les por lo que utilizar un framework para programar:

1. Evita que los desarrolladores escriban código re-

petitivo: en la mayoría de las aplicaciones, exis-ten partes que son comunes para el buen funcio-namiento, como podría ser por ejemplo el acceso a la base de datos o la seguridad de la aplicación, por ello un framework evita que haya que pro-gramar este código y así hace que los desarrolla-dores se centren en lo importante.

2. Hace que utilicemos buenas prácticas: al estar basados en patrones software, como por ejemplo el MVC (Modelo-Vista-Controlador), ayuda a que todo esté mucho más ordenado, separa los datos y además mejora la interfaz del usuario con la lógica de negocio.

3. Permite realizar cosas más avanzadas: aunque el desarrollador tenga muchos conocimientos de programación, un framework siempre va a per-mitir realizar el desarrollo de una manera más fácil y segura, e incluso a aprender cosas que no se sabían anteriormente.

4. Desarrolla más rápido la aplicación: teniendo en cuenta todos los puntos anteriores, el punto fun-damental del framework es que a la hora de em-pezar a desarrollar una aplicación, si adquieres uno de ellos será bastante más sencillo, limpio y rápido.

3. FRONTEND

Tanto el frontend como el backend buscan la satisfación del usuario a la hora de navegar por la Web. El frontend hace uso de las tecnologías del lado del clien-te, trabaja como su propio nombre indica, sobre la “fa-chada” o la “interfaz”, es decir se enfoca en todo lo que el usuario puede ver o con lo que puede interactuar durante la navegación por internet. Como todo desarrollador de tecnología sabe, el usuario es atraído por dicha interfaz, lo que todos buscan es intentar dar una buena impresión y agradar al usuario una vez que acceda a la Web. Algunos de sus objetivos son:

1. Buena experiencia de usuario. 2. Diseño de interacción: saber colocar los ele-

mentos de tal forma que el usuario las pueda encontrar de forma rápida.

3. Gran usabilidad: si el usuario se encuentra con una Web que no tiene funcionalidad, procede-rá a buscar otra.

————————————————

Patricia Vázquez del Cerro. Estudiante de Ingeniería Informática, Universidad Pablo de Olavide. [email protected]

E

13

3.1. ¿Qué diferencia existe con el Backend?

A diferencia del frontend el backend se encuentra en el lado del servidor, se enfoca en lo que existe detrás de esa interfaz, es decir, en que el funcionamiento de la web o aplicación sea el correcto. Interactúa con la base de datos, verifica los inicios de sesión…etc. Además los lenguajes y herramientas utilizados para el desarrollo son diferentes entre sí, para el backend los más usados son lenguajes con una buena capacidad de respuesta, en los que la información se encuentra en constante cambio como:

1. Java. 2. PHP. 3. Python 4. Ruby, Javascript, C…etc.

Por último, cabe destacar que uno no funciona sin el otro, de manera que aunque haya desarrolladores que se especialicen en una de los dos, deben conocer como se debe programar el otro, ya que pueden aparecer pro-blemas a lo largo del desarrollo de un sistema que de-ban solucionar. En la imagen inferior podemos ver el funcionamiento y la relación entre estos dos mientras interactúa el usua-rio.

Fig 1. Representación de la relación entre frontend y

back end. [1].

4. LENGUAJES DE DESARROLLO PARA FRONTEND

Los lenguajes más utilizados para el desarrollo de Fron-tend son:

1. HTML: es el componente principal de la es-tructura de todas las páginas webs.

2. CSS: es lo que le proporciona estilo al HTML. 3. Javascript: con él hacemos que las páginas

web sean interactivas y no estáticas.

La principal relación que tiene un framework con el Frontend es, que para proceder a desarrollar el frontend de una web, disponemos y necesitamos de la ayuda de frameworks, los cuales contienen librerías y preproce-sadores que serán de gran ayuda para el desarrollo de la interfaz de una web.

Para un programador, el momento de decidir que fra-

mework usar puede ser determinante para el desarrollo de su aplicación, ya que escoger uno llamativo pero del cual no se tienen conocimientos puede acabar en un fra-caso. Los frameworks más usados para el desarrollo de front-end son los de Javascript, y hay que tener en cuenta es-tos puntos a la hora de escoger uno:

1. Disponibilidad de recursos de aprendizaje: es importante que un framework ofrezca al usuario la posibilidad de aprender sobre él, es decir, poder adquirir manuales, tener cur-sos…

2. Usabilidad: si es la primera vez que se utiliza este framework, lo mejor para familiarizarse con él es crear un “mini proyecto” y probar en él si facilita el trabajo o por el contrario, lo empeora.

3. Popularidad: este punto tiene bastante que ver con el primero, ya que cuanto más popu-lar sea el framework escogido, más informa-ción se podrá obtener para su desarrollo.

4. Facilidad de integración con otras bibliote-cas.

5. Funciones principales.

Los trabajadores de The State of JavaScript hicieron una encuesta anual a desarrolladores de todo el mundo y los resultados fueron estos:

Fig 2. Representación de una gráfica de los frameworks más

utilizados por desarrolladores [2].

Actualmente, como podemos visualizar en la gráfica los tres frameworks más usados son React, Angular y Vue.

React, fue creado por Facebook en 2013, el lenguaje que utiliza es Javascript y posee una comunidad muy extensa ya que es una librería muy popular, al igual que Vue es utilizado para la creación de interfaces, y tienen en común que son simples y fáciles de utilizar; en cambio, posee muchas extensiones de terceros y eso complica la tarea de

14

elegir una u otra ya que no siempre puede que lo elegido sea lo más eficiente.

Vue surgió de un ex-trabajador de Google y se centra en la creación de interfaces de usuario de fácil integración entre librerías y proyectos diferentes. Posee la curva de aprendizaje más pequeña de los tres y también utiliza Javascript; lo malo, al ser un lenguaje nuevo no tiene de-masiada comunidad por tanto puede llegar a dificultar el momento de buscar soluciones a un problema.

Por último, Google en 2016 creó la versión definitiva de su framework Angular 2 que actualmente ha renombrado a Angular, cuya característica principal es que está basado en módulos y utiliza un lenguaje de programación dife-rente a lo que suelen usar la mayoría de desarrolladores, como es TypeScript, un conjunto de Javascript y EC-MAScript que facilita bastante la velocidad del desarrollo. Asimismo, cuenta con una gran y consistente documenta-ción ya que toda la sintaxis y la manera de realizar el có-digo es la misma, al contrario que si se utiliza Javascript.

A diferencia de React y Veu, es bastante complejo y su curva de aprendizaje es larga; a parte almacena el código de interfaz y el de la lógica de negocio por separado, lo que nos aporta muchas ventajas a la hora de editar esos componentes del sistema. También, es una solución a lar-go plazo y con futuro ya que está pensado para que el desarrollador solo se tenga que preocupar de Angular y no de librerías de terceros como ocurriría con React.

Fig 3. Logos de los tres frameworks (Angular, React y Vue) [3]

5. CONCLUSIONES

Finalmente, cabe destacar que a pesar de que el Frontend no conlleve la mayor carga de trabajo en código de un sistema, tiene gran importancia debido a que la mayoría de los proyectos se basan en la interacción con el usuario. Por lo que hacer una interfaz totalmente correcta y atrac-tiva visualmente puede ser la clave a la hora de que el usuario escoja un sistema u otro, para ello nos ofrecen los frameworks un sistema que puede ayudar a desarrollar más rápidamente y con mayor orden nuestra aplicación o web.

AGRADECIMIENTOS

La autora agradece a Norberto Díaz-Díaz que le ha dado la oportunidad de escribir este artículo, así como a los docentes que le han enseñado durante estos años en el grado.

REFERENCIAS

[1] https://www.designquote.net/wp/back-end-versus-front-end-

great-ui/

[2] https://openwebinars.net/blog/los-5-frameworks-de-javascript-

para-frontend-mas-usados-en-2018/

[3] https://medium.com/zerotomastery/react-vs-angular-vs-vue-

who-wins-in-2019-5d9acd0843e8

Patricia Vázquez del Cerro estudia el segundo año del grado de Ingeniería Informática en Siste-mas de la información en la Universidad Pablo de Olavide.

15

Patricia Vázquez del Cerro�
.

Thermodynamics of ATP synthesis in

mitocondria

Mª de los Reyes Becerra Pérez

Summary— In 1978, Peter D. Mitchell described, for the first time, the way in which energy is

used within mitochondria to synthesize ATP. His discovery would soon be named the chemi-

osmotic theory, and it proves that there is a connection between the electron flow of the res-

piratory chain in mitochondria and the activity of the well-known ATP-synthase, situated in mi-

tochondrial inner membranes. In this article, we analyse this concept from the thermodynamic

point of view, going through the definition of proton motive force and the chemical potential

and voltages associated to proton-specific channels within the mitochondrial inner membrane.

Keywords - Chemical potential, voltage, free energy, mitochondria, membrane, respiration.

—————————— ◆ ——————————

1. INTRODUCTION

Mitochondria is the powerhouse of the cell, peo-

ple say. This statement would make allusion to

the ability of mitochondria to produce energy,

which is stored in highly-energetic bonds within

the molecular structure of ATP (adenosine tri-

phosphate). However, how does this happen?

In the mitochondrial matrix, respiratory chain re-

actions are given. There, an electron transport

chain takes place through the permanent reduc-

tion and oxidation of molecules. A donor mole-

cule will first donate an electron to an acceptor,

later becoming a second donor by giving up its

electron to a second acceptor, and so on. It is im-

portant to notice that this chain occurs thanks to

each molecule being more electronegative than

the previous one: the initial electron donors are

reducing power molecules such as NADH and

FADH2, whereas the final electron acceptor is a

molecule of oxygen, which ends up being re-

duced to a water molecule. All this process occurs

between different complexes that are anchored to

the mitochondrial inner membrane, a barrier that

mediates the transport of ions and substances be-

tween the mitochondrial intermembrane space

and the matrix. In these complexes, we can high-

light molecules like coenzyme Q and cytochrome

c as electron acceptor/donors.

2. THE CHEMIOSMOTIC THEORY

This theory, introduced by Peter D. Mitchell in

1978, aims to detail the relationship between the

Fig. 1. Diagram of the electron transport chain in the

mitochondria inner membrane. Image extracted

from Reference [2].

16

electron transport chain and the ability of mito-

chondria to produce ATP (adenosine tri-

phosphate), a molecule that is known to be the

“energy storage” unit in cells, since it contains a

high-energy bond that can be broken down in dif-

ferent cellular processes to release energy for

metabolic needs.

In complexes I, III and IV from the electron

transport chain, the oxidation of NADH and other

substances lead to the introduction of protons by

the complexes into the intermembrane space. This

occurrence ends up generating what is known as

the proton-motive force, an energy that arises fom

the electrochemical gradient across the inner mi-

tochondrial membrane and that induces the

transport of protons back into the matrix. In addi-

tion, there exists only one pathway for the pro-

tons to return, which is through a proton-specific

channel cleaved to the membrane named F0, also

commonly referred to as an ATP-synthase. This

channel is coupled to an F1 proteic complex, that

is able to catalyse the formation of ATP from ADP

(adenosine di-phosphate) and free phosphate. For

this reason, the electron flow from the electron

transport chain is inevitably related to the synthe-

sis of this energetic molecule.

Furthermore, experiments were carried out so as

to prove the relationship between the electron

flow and the ATP synthesis. When blocking the

F0 channel for protons to go back into the matrix

(using toxic substances that bind to this complex,

such as oligomycin or venturicidin), the electron

flow was observed to stop. As protons get

pumped into the intermembrane space by the dif-

ferent complexes of the electron transport chain,

the proton-motive force keeps increasing as the

gradient generated across the inner mitochondrial

membrane becomes higher. Then, a point is

reached where the energy released by the electron

transport chain is compensated or exceeded

thermodynamically by the free energy that is

needed so as to pump protons into the intermem-

brane space against its gradient. Once here, the

system is at thermodynamic equilibrium, as the

change in free energy turns into zero. Hence, the

electron flow stops.

3. EXAMPLE EXERCISE

To better explain the concepts mentioned in this

article, we proceed to solve a thermodynamic ex-

ercise:

The synthesis of ATP under standard conditions re-

quires 7.7 kcal·mol-1, and this is coupled to the move-

ment of two protons across a mitochondrial membrane.

What should be the pH difference across the inner mi-

tochondrial membrane needed to drive ATP synthesis

at 25 ºC?

3.1. DATA AND UNITS

We will start by organizing all the data given in

their proper units.

o The energy given by the problem constitutes

the chemical potential (Δµ), which is the free en-

ergy released or absorbed per mole of ion due

to a change in its particle number or absorbed

per mole of ion due to a change in its particle

number or state. In this problem, this energy is

associated to the transport of ions through the

inner mitochondrial membrane. We change its

units to joules:

17

o Given that the problem asks for the calcula-

tions in the movement of two protons, the

charge (z) with which we will work will be

+2.

o We will also need Faraday’s (F) and the ideal

gas (R) constants: F = 96500 C; R = 8.31J·mol-

1·K-1.

o The temperature (T) at which the process

takes place is 25ºC = 298 K.

o Finally, we will make use of research data.

In liver mitochondria, the inner membrane

voltage (ΔV) was measured to be 0.17 V

when the convention is (Vinter.space. - Vmatrix)

(Data extracted from Reference [2]). This

membrane voltage arises from the fact that

there are different concentrations of ions at

each side of the membrane, generated by

the free passing of these through ion chan-

nels as well as their active transport by

transmembrane proteins. Each side of the

membrane is charged with an electric po-

tential, and the voltage represents the dif-

ference in these. We also know that 1 V = 1

J·C-1.

3.2. FORMULAE

Once we have all our data in the corresponding

units, we find a formula that relates them be-

tween each other. It will be the following:

(Eq. 1)

In our case, instead of just any ion, we will treat

protons. We can write:

(Eq. 2)

If we take into consideration that pH = - log [H+]

and that Ln (x) = 2.3 log (x), we can express the

right side of Eq. 2 as:

(Eq. 3)

Combining the result obtained in Eq. 3 with Eq. 1,

we arrive to:

(Eq. 4)

Where the convention we use is ΔpH = (pHinter. space

- pHmatrix) and ΔV = (Vinter.space. - Vmatrix).

3.3. RESULTS AND CONCLUSIONS

We will introduce our data for the chemical po-

tential needed to produce one ATP molecule into

Eq. 4 and solve for ΔpH:

Looking at our final result and the convention

used for the change in pH, we arrive to the con-

clusion that in order to have two protons pumped

to produce one molecule of ATP, the intermem-

brane space must be 0.10 units of pH more acid

than the mitochondrial matrix.

Contrasting this result with experimental data

extracted from different text books (Reference 1

and 2), we found out that the real pH change in

the mitochondrial matrix is approximately 8,

whereas the real pH of the intermembrane space

is 7. This supports the idea that there exists an

18

active transport of protons between the mito-

chondrial matrix and the intermembrane space,

whereas on the other hand there is no active

transport between the intermembrane space and

the cell’s cytosol (across the outter mitochondrial

membrane), as there exists no gradient since both

compartments are at the same concentration of

protons (both at pH 7).

The result obtained in our exercise implies that

the slightest change in pH across the inner mito-

chondrial membrane would thrive the transport

of two protons. As explained previously, the pro-

ton-motive force generated by the gradient in the

concentration of protons across the inner mem-

brane drives the protons back into the matrix.

Since this is a process thermodynamically fa-

voured due to the system aiming to reach an

equilibrium across the membrane, even the

smallest change in pH will favour this transport

of protons. The crossing of protons through the

ATP-synthase will keep on going as long as the

electron transport chain keeps pumping protons

into the intermembrane space and the proton-

motive force is kept generated.

REFERENCES

[1] Haynie, D. (2008). Biological Thermodynam-

ics (2nd ed.). New York: Cambridge University

Press.

[2] Nelson, D., Cox, M., & Lehninger, A.

(2006). Lehninger principles of biochemistry (4th ed.,

p. 705).

[3] Alberts, B., Johnson, A., Lewis, J., Raff, M.,

Roberts, K., & Walter, P. (2019). The Mitochondri-

on. Retrieved from

https://www.ncbi.nlm.nih.gov/books/NBK26894/

Mª Reyes Becerra Pérez is currently enrolled in

the 2nd year of the Degree in Biotechnology in the

Universidad Pablo de Olavide. She is also mem-

ber of AsBAn (Andalusian Biotechnologists Asso-

ciation).

19

Ibuprofen versus prostaglandins synthesis Alejandro Cuenca Martagón

Summary—Enzymes are special proteins that catalyse most of biological processes in our body. Their activity is governed by

Michaelis-Menten mechanism which defines different parameters. Some of the enzymes can increase or decrease their activity

in presence of specific molecules, as inhibitors. This article discusses, in particular, the characterization of prostaglandins

formation enzymes and the effect of ibuprofen as an inhibitor of enzymes related to prostaglandins synthesis as

cyclooxygenases (COX).

Key words— Ibuprofen, COX, Michaelis-Menten, Inhibitors, Prostaglandins, Kmax, Vmax

—————————— ——————————

1. INTRODUCTION

nzymes are the foundations of most of the reactions in our body. Only inside of a human cell, there exists more than 1300 different types of enzymes. Hence,

they play an important role in our metabolism. In most cases, their activity rate is governed by Michaelis-Menten mechanism [1]. This model is valid when the substrate con-centration is larger than the enzyme concentration and as-suming steady-state conditions or pre-equilibrium. One mechanism to regulate the enzyme activity is using inhibitors. They are molecules that decrease the enzymatic activity. Therefore, they are used as models to fabricate drugs to treat diseases or decreasing the pain. Ibuprofen and the synthesis of prostaglandins are a good example of this model.

2. MICHAELIS-MENTEN MECHANISM

This mechanism describes how most of enzymes work. A substrate S combines with a molecule of enzyme E, form-ing the enzyme-substrate complex ES. After the catalytic process takes place, this complex breaks down into en-zyme and reaction products [2].

In 1913, Maud Menten and Leonor Michaelis developed

their theory and proposed an equation that explains the

kinetic behaviour of enzymes. They explained that the re-

action rate of enzymes (v) depends on:

- Vmax which it is the maximum rate achieved by the

system when all the enzymes are bound to a substrate

- [S] substrate concentration

- Km or Michaelis constant which represents the sub-

strate concentrations at which the reaction rate is half the

maximum rate.

𝑣 =𝑉𝑚𝑎𝑥 [𝑆]

[𝑆]+𝐾𝑚

3. TYPES OF INHIBITORS

Enzyme inhibitors are molecules that interfere with catal-

ysis, slowing or halting enzymatic reactions. There are two

main classes of enzymatic inhibitions: irreversible and re-

versible. In this article, we will focus on the latter one.

Depending on the structure at which this molecule binds

to, we can distinguish among three different types of re-

versible inhibitors:

E

Fig. 1. Scheme of the different types of reversible inhibitions [4]

(1)

(2)

20

3.1 How to distinguish the type of inhibition?

To distinguish among these three types of inhibition, we

use an analytical method using the double-reciprocal plot

(Lineweaver-Burk plot) supported by its graphical repre-

sentation.

Analytically, we use the apparent Vmax and apparent Km

as parameters to distinguish among the three types com-

paring them with a non-inhibited enzyme.

To obtain Lineweaver-Burk equation, we calculate the re-

ciprocal of the Michaelis Menten equation where the vari-

ables are th reciprocal of the substrate (1/[S[) and the re-

ciprocal of the the rate (1/v).

4. IBUPROFEN, SYNTHESIS OF PROSTAGLANDINS

AND PAIN

Prostaglandins are a class of fatty acid derivatives with a

variety of extremely potent actions on vertebrate tissues.

Prostaglandins are responsible for producing fever and in-

flammation and its associated pain. They are derived from

the 20-carbon fatty acid arachidonic acid in a reaction cat-

alysed by the enzyme COX. This enzyme uses oxygen to

convert arachidonic acid to PGG2, the immediate precur-

sor of many different prostaglandins.

Ibuprofen is a reversible inhibitor of COX. By inhibiting

the synthesis of prostaglandins, ibuprofen reduces inflam-

mation and pain.

4.1. Calculate Vmax and Km of the enzyme

TABLE 1

EXPERIMENTAL DATA OF THE ENZYME [6]

[Arachodonic acid] (mM)

Rate of formation of PGG

(mM/min)

Rate of formation of PGG with 10mg/ml ibuprofen

(mM/min)

0.5 23.5 16.67

1.0 32.2 25.25

1.5 36.9 30.49

2.5 41.8 37.04

3.5 44.0 38.91

To calculate this parameter, we use the Lineweaver-Burk

plot properties. It exists several ways to calculate these

parameters, yet we will use the slope to determine Km

and the y-intercept to obtain Vmax.

First, we calculate the reciprocal of all data that we have

been given.

TABLE 2

RECIPROCAL OF THE EXPERIMENTAL DATA OF THE ENZYME

1/[Arachodonic acid] (mM)

1/Rate of formation of PGG

(mM/min)

1/Rate of formation of PGG with 10mg/ml ibuprofen

(mM/min)

2.000 0.042 0.059

1.000 0.031 0.039

0.667 0.027 0.032

0.400 0.023 0.026

0.286 0.022 0.025

After that, we plot it using a plotting software, such as

Excel, and we obtain the graphic equation.

𝑦 = 0.0117𝑥 + 0.0188

The slope of the line corresponds to Km/Vmax and the y-

intercept to 1/Vmax.

Hence, we solve for Vmax and Km:

1

𝑉𝑚𝑎𝑥= 0.0188

𝑚𝑖𝑛

𝑚𝑀

𝑉𝑚𝑎𝑥 = 53.19𝑚𝑀

𝑚𝑖𝑛

Fig. 2. Lineweaver-Burk plot [5]

(3)

(4)

(5)

21

𝐾𝑚

𝑉𝑚𝑎𝑥= 0.0117 𝑚𝑖𝑛

𝐾𝑚 = 0.0177 min∗ 53.19𝑚𝑀

𝑚𝑖𝑛= 0.622 𝑚𝑀

4.2. Determination of the type of reversible inhibition

Depending on the relation between the apparent Km and

Vmax of the inhibited enzyme with respect to the non-in-

hibited enzyme, we can distinguish the type of inhibition.

Fistly, we plot using the data obtained in both cases.

Linear equations:

With ibuprofen: 𝑦 = 0.0202𝑥 + 0.0188

Without ibuprofen: 𝑦 = 0.0117𝑥 + 0.0188

As we can observe, in both cases the y-intercept remains

constant, however, the slope changes. Hence, since the

first parameter depends on the Vmax, the maximum rate

in both cases remains constant. Regarding Km, as the

slope changes and Vmax remains constant, we can con-

clude that Ibuprofen exerts a competitive inhibition on

prostaglandin endoperoxide synthase.

This is due to the fact that the binding site of the inhibitor

to the enzyme is the same as the substrate: the active site;

causing a competition between the inhibitor and the sub-

strate. Hence, the maximum rate will be reached, but it

will take more time to achieve it, provoking a rise of Km

(concentration of substrate which permits the enzyme to

achieve half Vmax)

5. CONCLUSIONS

Enzimatic reactions are complex processes that occur in-

side of living beings. Due to their difficulties to be studied

in a very precise way, scientists need general models to

predict their behaviour. Michaelis Menten equation pro-

vides a very accurate model which is fulfilled by most of

enzymatic reactions. Hence, it is considered one of the

main pillars of the enzymatic study.

ACKNOWEDGEMENTS

The author wishes to thank Juan Antonio Anta for his

help in editing and correcting this article.

REFERENCES

[1] Enzyme Science. https://enzyscience.com/pages/enzyme-faq

[2] Michaelis-Menten Mechanism and schemes. https:// goldbo ok.iu-

pac.org/plain/M03893-plain.html

[3] Michaelis Menten equation. https://calistry.org/calculat e/michaelis-

menten-Equation

[4] Inhibition scheme https://en.wikipedia.org/wiki/Enzyme _inhibi-

tor#/media/File:Types_of_inhibition_en.svg

[5] Lineweaver-Burk plot. https://en.wikipedia.org/wiki/Linew

eaver%E2%80%93Burk_plot#/media/File:Lineweaver-Burke_plot.svg

[6] David L. Nelson and Michael M. Cox, Lehninger, Principles of Biochemis-

try. Macmillan, pp. 239, 2013.

Fig. 3. Lineweaver-Burk plot of the enzyme in the presence and in the absence of ibuprofen

Alejandro Cuenca Martagón estu-diante de Biotecnología de segundo curso en la Univerdad Pablo de Ola-vide.

(6)

(7)

22

PIXE para el estudio de elementos sustentados en patrimonio gráfico y

documental Elena De La Rosa Regot

Resumen—Las técnicas de origen nuclear están ganando terreno en el análisis del patrimonio. En el caso de los documentos,

su principal uso se encuentra en el estudio de elementos sustentados, en especial de tintas metaloácidas. Su aplicación,

aunque con limitaciones, resulta de gran utilidad para conocer los elementos que componen estos materiales.

Palabras Claves— IBA, Patrimonio documental, PIXE, Técnicas de origen nuclear, Tintas metaloácidas.

—————————— ——————————

1. INTRODUCCIÓN

n el diagnóstico del Patrimonio Cultural, es de vital importancia el conocimiento de los materiales que lo conforman para poder adecuar los tratamientos y

métodos de conservación a cada objeto. Actualmente, las técnicas más utilizadas son aquellas que permiten un aná-lisis no destructivo de las obras de arte [1].

Las técnicas de origen nuclear o IBA (Ion Beam Analy-sis) [2] se han aplicado al conocimiento de materiales pa-trimoniales desde los años 90 del siglo XX [2], [3]. Ac-tualmente, se trata de técnicas bastante usadas a causa de su gran potencial [3], pese a sus limitaciones. Normal-mente se aplican de forma conjunta, ya que se comple-mentan fácilmente, incluso con otras técnicas de análisis no nucleares, como la Fluorescencia de Rayos X (FRX) [2].

2. TÉCNICAS DE ORIGEN NUCLEAR

Existen diferentes técnicas de origen nuclear. Todas ellas se basan en la interacción de un haz producido por un acelerador de iones con la materia a analizar [3]. Dicho haz está compuesto de iones ligeros —protones o helio— que pueden generar, con más facilidad que otras partícu-las, diferentes tipos de reacciones en el interior de los átomos que forman la materia [2], [3].

Según los fenómenos que se produzcan, se pueden ob-tener cuatro tipos de emisión, o radiación secundaria, por parte del material analizado y que son la base de diferen-tes técnicas analíticas [2], [3], como muestra la Figura 1: Rayos X: Particle Induced X-ray Emission (PIXE) Rayos γ: Particle Induced Gamma-ray Emission

(PIGE) Partículas: Rutherford Backscattering Spectrome-

try (RBS); Elastic Recoil Detection Analysis (ERDA); Nuclear Reaction Analysis (NRA)

Radiaciones ultravioleta (UV), infrarroja (IR) y vi-sible: ionoluminiscencia (IOL)

El hecho de que con un mismo haz de iones se puedan producir todas estas emisiones de forma simultánea con una sola exposición facilita el uso conjunto de estas técni-cas [3]. Para ello, serán necesarios diferentes detectores para cada radiación [2], [3]. Además, cada técnica propor-ciona diferentes datos, como la composición elemental, tanto de elementos pesados como ligeros, o su distribu-ción hacia el interior del material [2].

Sin embargo, entre las técnicas de origen nuclear, el uso de PIXE destaca por encima de las demás en el análi-sis de documentos [4], en especial de sus elementos sus-tentados [3], [5]. Ello se debe a que el fenómeno en el que se basa esta técnica es el que presenta una mayor probabi-lidad de ocurrir: la emisión de rayos X [3], [6].

3. PARTICLE INDUCED X-RAY EMISSION (PIXE)

3.1. Fundamentos

La excitación de los átomos se produce con la irradiación de iones con una energía entre 0,5 y 10 MeV. En patrimo-nio, la más empleada se suele situar entre 2 y 5 MeV [2], [3], si bien se han usado algunas más elevadas [1]. Así se consigue la expulsión de los electrones de las capas inter-nas [7], lo que produce la ionización del átomo [3]. La transición de los electrones de las capas superiores a las inferiores para ocupar esas vacantes genera rayos X carac-terísticos de cada elemento [7]. El uso de protones, en lugar de electrones, para producir rayos X genera menos

————————————————

Elena De La Rosa Regot. Restauradora de materiales celulósicos, bibliográficos y fotográficos. [email protected].

E

Fig. 1. Representación de los diferentes fenómenos y técni-cas de origen nuclear. [2]

23

ruido que pueda alterar la lectura de los espectros [6], [7]. La irradiación puede llevarse a cabo en una cámara de

vacío o con un haz externo [5]. Este segundo método es el más utilizado en patrimonio, ya que permite el análisis no destructivo de obras de cualquier forma y dimensión [2].

Para captar y discriminar los rayos X emitidos y sus in-tensidades [2] existen diferentes detectores, como los de germanio de alta pureza, de estado sólido de Si(Li) y de estado sólido enfriados por nitrógeno o efecto Peltier [2], [3]. Estos están compuestos por una ventana, un semi-conductor y una resistencia, que captan y transforman los rayos X en señales de voltaje. Estas se procesan de forma electrónica y se genera un espectro de rayos X [3].

3.2. Características

PIXE es una técnica de carácter multielemental [8], [9], no destructiva [4], [9] y, en principio, no invasiva [10]. Sin embargo, existen casos donde la exposición a PIXE ha originado cambios a nivel elemental, aunque han podido ser revertidos con luz UV [2], [6]. Así pues, debe minimi-zarse en lo posible la zona a analizar y la energía aplicada para su análisis [4], [8], [9].

Es una técnica muy precisa [4], [8] y sensible [7], [9], ya que permite el análisis de elementos traza de varias partes por millón (ppm) [3], [7]. Además, ofrece resultados tanto cualitativos como cuantitativos [2], [11]. Está considerada una técnica rápida, ya que sus tiempos se encuentran en-tre 3 y 15 minutos [3]. Además, PIXE permite su aplica-ción en análisis puntual, mapeado o escaneado en super-ficie [3], [6], [12] y en perfiles de concentración elemental —profundidad o alcance— [1], [3].

Por el contrario, su uso está limitado a elementos más pesados que el sodio [9] y por ello es ideal para el estudio de materiales inorgánicos [3], si bien su combinación con RBS o PIGE permite el análisis de materiales orgánicos [1], [3]. PIXE tampoco ofrece información molecular [9].

Sin embargo, el principal inconveniente de la técnica es el alto costo de su equipamiento, aunque si se dispone del mismo, el costo de los análisis puede ser parecido al de otras técnicas de uso más común [3]. Otro de sus incon-venientes es la necesidad de trasladar el objeto al labora-torio [3]. No obstante, su uso combinado con otras técni-cas que pueden usarse in situ —FRX, Raman, IR— permi-te elegir zonas de muestreo para su posterior traslado a las dependencias de PIXE [8].

3.3. Centros de investigación

Pese a su alto coste, muchos centros cuentan ya con un acelerador de iones que les permite realizar estos análisis. En Europa, por nombrar algunos, encontramos el Centro de Micro-Análisis de Materiales (CMAM) de la Universi-dad Autónoma de Madrid [2], [11], en España; el centro de investigación ENEA Frascati [1] o el Laboratorio di tecniche nucleari per i beni culturali (LABEC) [12], ambos en Italia; el Vienna Environmental Research Accelerator (VERA), en Austria [13]; el Microanalytical Centre del Jožef Stefan Institute, en Eslovenia [9], [10], [14]; el Cam-pus tecnológico e nuclear del Instituto Superior Técnico de Portugal [6] o el Accélérateur Grand Louvre d'Ana-lyses Elémentaires (AGLAE), en Francia [15].

4. APLICACIONES EN EL PATRIMONIO GRÁFICO Y

DOCUMENTAL

Al tratarse de una técnica en superficie [4], [10], el uso de PIXE se ha extendido en el análisis de documento, ya sea en soporte papel [6], [16], pergamino [3] o papiro [17]. Aunque no permite el análisis de dichos soportes, ya que se trata de materiales orgánicos, sí que permite conocer la presencia de impurezas en estos [9] o la composición de sus elementos sustentados [18], así como comprobar la eficacia de los tratamientos de restauración aplicados [3], [8]. Por ejemplo, en la Figura 2 se observan los cambios producidos después del tratamiento de estabilización de tintas metaloácidas en soporte papel mediante el trata-miento con fitato cálcico/bicarbonato cálcico [8]: el lavado preliminar por inmersión en agua reduce el contenido en azufre, ya que retira los sulfatos solubles presentes en las tintas; posteriormente se introduce en un baño de fitato cálcico, que tiene un efecto quelante; y por último se su-merge en una disolución de bicarbonato de calcio, cuyo residuo neutralizador produce el aumento de calcio.

Ello permite recabar información sobre el objeto para elaborar el diagnóstico y la propuesta de restauración, así como ampliar nuestros conocimientos sobre su historia y técnica [9] e, incluso, de su autoría [19] y cronología [20] mediante la identificación de los elementos presentes en su composición.

4.1. Elementos sustentados analizados

PIXE ha sido ampliamente utilizado para el estudio de los elementos sustentados aplicados en patrimonio gráfico y documental: tintas caligráficas [6], [19], iluminaciones [17], [21], técnicas pictóricas diversas [12], [13], [18], etc.

De todos ellos, las tintas metaloácidas han sido las más analizadas y las investigaciones que se han llevado a cabo han respondido a diferentes inquietudes. Como es bien sabido, las tintas metaloácidas pueden contener diferentes elementos en su composición [6], [7], [19] —se calcula que solamente en el ámbito europeo existen más de 250 rece-tas diferentes [8]— y, por tanto, su composición química diferirá de unos documentos a otros [6]. Estas diferencias, que PIXE es capaz de detectar [8], [22], permiten conocer aquellos elementos que han podido contribuir al mal (o buen) estado de los documentos [6], [8] —por ejemplo, el hierro y el cobre aceleran el deterioro [4] mientras que el zinc lo ralentiza [8]—; comparar las mezclas usadas en distintos documentos para establecer la autoría y crono-

Fig. 2. Espectro PIXE antes y después del tratamiento de las tintas metaloácidas. El tratamiento obtuvo resultados satisfactorios, tal y como

muestra la disminución de azufre (S) y el aumento de calcio (Ca). [8]

Energía de Rayos X (keV)

Inte

nsid

ad (c

ts)

--------- 1602019 - antes del tratamiento - - - - - 1704018 - después del tratamiento

24

logía de los mismos [3], [19]; comprobar la eficacia de los tratamientos de desacidificación [8], etc.

El análisis PIXE se ha aplicado principalmente a los pigmentos de las iluminaciones para conocer su composición química elemental [5], [21]. Este conocimiento es muy útil para evitar tratamientos que puedan degradar algunos pigmentos concretos. En algunos casos, también ha servi-do para comprobar si existía alguna relación entre los fragmentos de una colección [17]. Por otro lado, las tintas negras de carbón no pueden ser identificadas mediante esta técnica, ya que están formadas por carbono, que es un elemento ligero [9], [19].

Finalmente, de entre todas las técnicas pictóricas anali-zadas, cabe destacar los dibujos de punta metálica, ya que solamente hay dos técnicas de análisis no destructivas con la sensibilidad suficiente para caracterizarlas: PIXE y FRX por radiación sincrotrón (SFRX) [13]. Con ellas se puede diferenciar el material que componía el instrumento usa-do para la obra (cobre, zinc, plata, plomo, etc.) [12], [13].

5. CONCLUSIONES

Las técnicas nucleares, y en especial PIXE, están mostran-do el gran potencial que poseen para la caracterización de materiales. A pesar de algunas limitaciones —el elevado coste del equipamiento—, cada vez más centros poseen laboratorios capaces de llevar a cabo estas analíticas.

Por otro lado, las ventajas que presenta permiten un análisis multielemental, no destructivo, no invasivo y con una alta sensibilidad. Además, aunque no permite el aná-lisis de elementos más pesados que el sodio, es fácilmente acoplable a otras técnicas nucleares que sí permiten el análisis de materiales orgánicos, como PIGE.

No obstante, debe reducirse el área de análisis y la energía aplicada para evitar posibles cambios en el mate-rial analizado.

REFERENCIAS

[1] M. Vadrucci, G. Bazzano, F. Borgognoni, M. Chiari, A. Mazzinghi, L. Picardi, C. Ronsivalle, C. Ruberto, y F. Taccetti, “A new small-footprint external-beam PIXE facility for cultural heritage applications using pulsed proton beams,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 406, pp. 314–317, Sep. 2017.

[2] C. Gutiérrez, “Ventajas y limitaciones del análisis de los bienes culturales con PIXE: el caso de los vidrios romanos y de los pigmentos blancos en la pintura,” in La Ciencia y el Arte III, Ministerio de Educación, Cultura y Deporte, 2015, pp. 269–279.

[3] J.L. Ruvalcaba Sil, “Las Técnicas de Origen Nuclear: PIXE y RBS,” in La Ciencia y el Arte, Ministerio de Educación, Cultura y Deporte, 2008, pp. 151–172.

[4] M. Budnar, J. Simčič, Z. Rupnik, M. Uršič, P. Pelicon, J. Kolar, y M. Strlič, “In-air PIXE set-up for automatic analysis of historical document inks,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 219–220, pp. 41–47, Jun. 2004.

[5] T. Calderón, “La escritura como elemento artístico de interés científico,” in La Ciencia y el Arte, Ministerio de Educación, Cultura y Deporte, 2008, pp. 212–222.

[6] R. Viegas, V. Corregidor, M.T. Peña, E. Alves, y L.C. Alves, “Preliminary studies on iron gall inks composition using an external ion beam,” Int. J. Conserv. Sci., vol. 4, no. Special, pp. 593–602, 2013.

[7] D. M. Goltz, “A Review of Instrumental Approaches for Studying Historical Inks,” Anal. Lett., vol. 45, no. 4, pp. 314–329, Mar. 2012.

[8] J. Duh, D. Krstić, V. Desnica, y S. Fazinić, “Non-destructive study of iron gall inks in manuscripts,” Nucl. Instruments

Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 417, pp. 96–99, Feb. 2018.

[9] J. Vodopivec, M. Budnar, y P. Pelicon, “Application of the PIXE method to organic objects,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 239, no. 1–2, pp. 85–93, Sep. 2005.

[10] M. Budnar, M. Uršič, J. Simčič, P. Pelicon, J. Kolar, V. S. Šelih, y M. Strlič, “Analysis of iron gall inks by PIXE,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 243, no. 2, pp. 407–416, Feb. 2006.

[11] A. Zucchiatti, A. Climent-Font, O. Enguita, M.T. Fernandez-Jimenez, G. Finaldi, C. Garrido, y J.M. Matillas, “PIXE analysis of Italian ink drawings of the XVI century,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 240, no. 1–2, pp. 520–526, Oct. 2005.

[12] N. Grassi, L. Giuntini, P. A. Mandò, y M. Massi, “Advantages of scanning-mode ion beam analysis for the study of Cultural Heritage,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 256, no. 2, pp. 712–718, Mar. 2007.

[13] P. Milota, I. Reiche, A. Duval, O. Forstner, H. Guicharnaud, W. Kutschera, S. Merchel, A. Priller, M. Schreiner, P. Steier, E. Thobois, A. Wallner, B. Wünschek, y R. Golser, “PIXE measurements of Renaissance silverpoint drawings at VERA,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 266, no. 10, pp. 2279–2285, May 2008.

[14] M. Uršič, M. Budnar, J. Simčič, y P. Pelicon, “The influence of matrix composition and ink layer thickness on iron gall ink determination by the PIXE method,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 247, no. 2, pp. 342–348, Jun. 2006.

[15] M. Morelle, Y. El Masri, Ch. Heitz, R. Prieels, J. Van Mol, J.C. Dran, J. Salomon, T. Calligaro, y M. Dubus, “PIXE and RBS applied to cultural heritage objects: Complementarity and limitations,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 240, no. 1–2, pp. 600–605, Oct. 2005.

[16] M. Manso, M. A. Reis, J. Candeias, y M. L. Carvalho, “Portable energy dispersive X-ray fluorescence spectrometry and PIXE for elemental quantification of historical paper documents,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 298, pp. 66–69, Mar. 2013.

[17] T. Christiansen, D. Buti, K. N. Dalby, P. E. Lindelof, K. Ryholt, y A. Vila, “Chemical characterization of black and red inks inscribed on ancient Egyptian papyri: The Tebtunis temple library,” J. Archaeol. Sci. Reports, vol. 14, pp. 208–219, Aug. 2017.

[18] A. Zucchiatti, A. Climent-Font, J. Gómez-Tejedor, S. Martina, C. Muro García, E. Gimeno, P. Hernández, y N. Canelo, “Building a fingerprint database for modern art materials: PIXE analysis of commercial painting and drawing media,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 363, pp. 150–155, Nov. 2015.

[19] A. Zucchiatti, A. C. Font, y M. C. Galassi, “PIXE and IRR analysis of sixteenth-century ink drawings by Luca Cambiaso and his school,” Stud. Conserv., vol. 57, no. 3, pp. 131–141, Jul. 2012.

[20] P. Del Carmine, L. Giuntini, W. Hooper, F. Lucarelli, y P. A. Mandò, “Further results from PIXE analysis of inks in Galileo’s notes on motion,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 113, no. 1–4, pp. 354–358, Jun. 1996.

[21] O. Kakuee, V. Fathollahi, P. Oliaiy, M. Lamehi-Rachti, R. Taheri, y H. A. Jafarian, “External PIXE analysis of an Iranian 15th century poetry book,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 273, pp. 178–181, Feb. 2012.

[22] M. Aceto y E. Calà, “Analytical evidences of the use of iron-gall ink as a pigment on miniature paintings,” Spectrochim. Acta Part A Mol. Biomol. Spectrosc., vol. 187, pp. 1–8, Dec. 2017.

Elena De La Rosa Regot Licenciada en Bellas Artes y graduada en Conservación y Restaura-ción por la Universidad de Barcelona. Se ha especializado en materiales celulósicos y obje-tos fotográficos. Ha colaborado en instituciones como el Museo Nacional de Arte de Cataluña, el Archivo Nacional de Cataluña y el Museo Nacional Centro de Arte Reina Sofía, entre otros. Actualmente es jefa del equipo de res-tauración en el Taller de Restauración de Do-

cumento Gráfico del monasterio de Sant Pere de les Puel·les, en Barcelona, y cursa el Máster en Diagnóstico del Estado de Conser-vación del Patrimonio Histórico en la Universidad Pablo de Olavide de Sevilla.

25

Técnicas de análisis para la identificación de aglutinantes en la pintura de caballete

Daniel Morales Martín

Resumen— Los aglutinantes pictóricos en pintura de caballete presentan una compleja composición estructural. A pesar de

los tratados artísticos y de otras fuentes documentales, algunos de los componentes del medio pictórico siguen siendo

materiales desconocidos. Las técnicas analíticas permiten identificar gran parte de estas sustancias filmógenas, aportando

la información necesaria para abordar la metodología de conservación-restauración más apropiada a cada obra en particu-

lar de acuerdo a su naturaleza.

Palabras Claves— Aglutinantes, Cromatografía, Ensayo de tinción, FTIR, Pintura de caballete.

—————————— ◆ ——————————

1. INTRODUCCIÓN

a pintura de caballete es el resultado de una compleja

y delicada estructura heterogénea que da lugar a una

experiencia figurativa en dos dimensiones [1]. Bajo

esta definición se incluye toda aquella pintura ejecutada

sobre un soporte de carácter móvil como madera, tela,

vidrio, planchas metálicas, piel y marfil, entre otros. La

Pintura nace como un medio de representación y expre-

sión gráfica que queda sujeto a la experimentación creati-

va de los artistas, hecho que va a permanecer ligado a su

propia naturaleza desde su inicio hasta la actualidad con

el Arte Contemporáneo. La constante búsqueda expresiva

a través de la plasticidad de los materiales lleva a los artis-

tas a recurrir a multiples medios que van a determinar las

características estéticas de su trabajo. Junto a los diferen-

tes soportes y sus acabados, los aglutinantes son uno de

los principales factores que intervienen en este juego y, a

su vez, estos últimos van a determinar la técnica pictórica

utilizada [2], [3]. Gracias a los diferentes tratados, manua-

les y a los catálogos de materiales para bellas artes se

tiene constancia de este desarrollo técnico. No obstante,

dichas fuentes siguen generando incógnitas en el ámbito

práctico, ya que estos escritos no son estándares fijos,

sino que las fórmulas para preparar los aglutinantes y

otros medios pictóricos varían en función del artista, la

época y el entorno en el que se inscribe cada obra. Este

hecho constituye un punto de inflexión en la identidad,

estabilidad y comportamiento de las pinturas [2]. Aquí, las

técnicas de análisis adquieren un papel primordial al per-

mitir identificar la naturaleza y composición de los ligan-

tes empleados.

En este artículo se presentan los principales exámenes

que permiten abordar de forma científica el estudio y la

caracterización de los aglutinantes utilizados en pintura

de caballete a lo largo de la historia. De este modo, se

proporciona al lector una útil herramienta con la que ob-

tener la información necesaria para desarrollar un criterio

y una metodología de estudio e intervención apropiados

a las características técnicas de las obras; un hecho que

permite minimizar el riesgo de tratamientos de restaura-

ción como la limpieza de la superficie pictórica, interven-

ción irreversible y de alto riesgo debido al fenómeno de

lixiviación, ligado a la naturaleza del aglutinante [4].

2. AGLUTINANTES Y MEDIOS PICTÓRICOS

El aglutinante, definido como «sustancia que mantiene las

partículas tanto de los pigmentos como de las cargas

inertes, unidas entre sí, cohesionadas; y con el soporte o

la capa anterior» [5], es el responsable de las propiedades

físicas, químicas y estéticas de los estratos pictóricos [6].

Estos aspectos varían en función de la naturaleza del li-

gante, lo que a su vez deriva en alteraciones característi-

cas que se pueden ver acentuadas por la metodología de

aplicación del medio filmógeno [2], [7].

La composición de los aglutinantes es muy compleja,

teniendo en cuenta que se les puede incorporar aditivos

como secativos (pigmentos secantes), retardantes (aceites

esenciales) o estabilizantes (ceras y resinas), entre otros

[2], [3].

De forma general, se clasifican en función de su natu-

raleza, diferenciando entre dos grandes grupos: agluti-

nantes naturales y sintéticos. Dentro del primero se cuen-

ta con una subdivisión según su origen, que puede ser

animal, vegetal o mineral. Entre los aglutinantes naturales

de procedencia animal se encuentran las colas (proteínas),

el huevo entero o sus partes por separado (proteínas,

aceites y grasas), la caseína (proteínas), algunas ceras (és-

teres de ácidos grasos saturados) tales como la china o la

de abeja y ciertas resinas como la goma laca (ácido ses-

quiterpénico). Las gomas (polisacáridos), las dextrinas y el

almidón (polisacáridos), los aceites secantes (ácidos gra-

sos) y las resinas (compuestos terpénicos) son los princi-

pales medios pictóricos de origen vegetal. Un aglutinante

de naturaleza mineral es la cera de parafina (hidrocarbu-

ros alcanos) [2], [7], [8]. Todos estos materiales pueden

mezclarse formando emulsiones conocidas como temple

————————————————

Daniel Morales Martín. Máster en Diagnóstico del Estado de Conserva-ción del Patrimonio Histórico, Universidad Pablo de Olavide. [email protected]

L

26

graso o magro, dependiendo de la fase dispersante [2].

Entre los aglutinantes sintéticos más utilizados se encuen-

tran las resinas alquídicas (poliésteres saturados modifica-

dos con ácidos grasos), vinílicas (polivinilacetato), acrílicas

(derivados del ácido acrílico o metacrílico), el látex (natu-

ral o vinílico), el esmalte nitrocelulósico (éster de celulosa)

y los denominados óleos al agua (aceite secante emulsio-

nado en agua por la acción de un tensoactivo a base de

ácido graso) [2], [9]. La gran mayoría de los ligantes sinté-

ticos se presentan en dispersión, lo que implica la incor-

poración de aditivos de diversa índole, en parte descono-

cidos, para estabilizar las emulsiones [9].

Al igual que los aglutinantes tradicionales, los com-

temporáneos no son sustancias puras, lo que dificulta en

ambas categorías el conocimiento exacto de sus com-

ponentes [7].

3. TÉCNICAS DE ANÁLISIS PARA LA IDENTIFICACIÓN

DE AGLUTINANTES PICTÓRICOS

La caracterización de los materiales filmógenos que com-

ponen los estratos pictóricos es fundamental para abordar

tratamientos de conservación-restauración tales como la

limpieza y/o la eliminación de barnices y repintes, o la

consolidación. Este hecho permite seleccionar, de acuerdo

a los criterios de intervención actuales, los productos de

restauración más adecuados en función de su afinidad

con el material original garantizando al mismo tiempo la

inocuidad y la reversibilidad o la retratabilidad del proce-

so efectuado [10]. De igual modo, la identificación de los

aglutinantes permite interpretar parte de las alteraciones

sufridas en las obras y con ello buscar el criterio y ajustar

la metodología de intervención más apropiados [1]. Para

esta tarea contamos con varias técnicas analíticas basadas

en unos fundamentos fisicoquímicos determinados. Por

un lado, no todos los métodos de examen tienen un ca-

rácter versátil y universal que permita reconocer los mate-

riales por igual, siendo algunos imperceptibles para los

equipos de medida. Por otro lado, los analitos no son

muestras frescas, sino envejecidas, lo que conlleva cam-

bios en su estructura química que se han de tener en

cuenta para la identificación [7] (Tabla 1).

3.1. Cromatografía

Las técnicas instrumentales de separación por cromato-

grafía permiten conocer la compleja estructura de los

aglutinantes a partir de una pequeña muestra de donde

se liberan y separan los distintos componentes de la mis-

ma. Estos análisis se basan en las diferencias entre las

propiedades de los distintos componentes del analito. En

función de estas, se define el tipo de examen a realizar

[11].

La cromatografía de gases (GC) es una de las metodo-

logías de carácter universal ya que puede identificar una

gran variedad de compuestos naturales y sintéticos en

función de su volatilidad. El acoplamiento del espectró-

metro de masas (EM) al equipo permite la cuantificación

del resultado y su identificación sin necesidad de recurrir

a patrones modelo. El método de preparación de la mues-

tra puede ser la vaporización o la pirolisis, separando los

componentes por la acción de un disolvente o por ruputra

térmica, respectivamente [7], [11]. La sililación, método de

derivación para la vaporización por inyección, proporciona

de forma simultánea información sobre proteínas y grasas

mezcladas en una misma muestra. Si bien la reproducibi-

lidad del método se ve en cierta medida cuestionada por

algunos aspectos derivados del proceso de sililación [12].

La GC por vaporización permite identificar lípidos, proteí-

nas, resinas, ceras y polisacáridos, mientras que la GC pi-

rolítica detecta macromoléculas de alto peso molecular

como los aglutinantes oleosos y los de origen sintético,

entre ellos los alquídicos, polivinílicos, poliacrílicos y el

nitrato de celulosa [7].

La cromatografía líquida (LC) presenta diversas varian-

tes en función de la afinidad del analito con la fase esta-

cionaria. La cromatografía líquida en columna o de alta

resolución (HPLC) es la técnica más utilizada para la carac-

terización de aminoácidos (colas proteicas) y ácidos gra-

sos (aceites secantes). El uso de detectores ultravioleta-

visible (derivatización de la muestra con agentes cromófo-

ros) o de fluorescencia (modificación del analito con com-

puestos fluorógenos) permite realizar un análisis cuantita-

tivo. Sin embargo, la HPLC-Fluorescencia tiene mayor sen-

sibilidad, proporcionando una mejor resolución [7], [11].

Otros detectores como la espectroscopía de masas ofre-

cen un examen cuantitativo y cualitativo, además de iden-

tificar directamente, sin previa derivatización, los aminoá-

cidos [7]. Yendo más allá, una nueva tecnología denomi-

nada nanocromatografía líquida o nanoionización por

electrospray (nanoLC o nanoESI) permite identificar la es-

pecie animal de la que proceden las colas proteicas al

reconocer secuencias individuales de enlaces péptidos

[11]. La cromatografía de exclusión (SEC) separa los com-

puestos de la mezcla en función del tamaño de sus molé-

culas, que se filtran al pasar por la fase estacionaria. Este

método permite identificar resinas acrílicas y sustancias

derivadas del envejecimiento de los aceites. La cromato-

grafía líquida en capa fina (TLC) detecta los compuestos

en base al factor o índice de retención, lo que permite un

análisis cualitativo de lípidos, resinas naturales, polisacári-

dos y proteínas, siendo necesaria la hidrólisis previa de los

dos últimos [7], [11].

TABLA 1 TÉCNICAS PARA LA IDENTIFICACIÓN DE AGLUTINANTES

Técnicas de análisis Tipo Aplicación

Cromatografía de gases* Cualitativo/Cuantitativo Universal

Cromatografía líquida* Cualitativo/Cuantitativo Universal

Electroforesis capilar Cualitativo/Cuantitativo

Proteínas y ácidos

grasos

Espectroscopía infrarroja

transformada de Fourier Cualitativo Universal

Espetroscopía Raman Cualitativo

Proteínas y ácidos

grasos

Ensayo de tinción Cualitativo

Proteínas, polisa-

cáridos y ácidos

grasos

Análisis microquímico Cualitativo Ácidos grasos

* Las cualidades que se presentan en las columnas contiguas dependen del tipo

de detectores y de la preparación del analito.

27

3.2. Electroseparación

La electroforesis capilar (EC), basada en un principio elec-

troquímico (diferencia en el comportamiento de las espe-

cies iónicas ante el suministro de una corriente eléctrica),

permite identificar la sustancia aglutinante de acuerdo a la

separación de los iones según su relación carga-tamaño.

Esta técnica de análisis instrumental requiere una reducida

cantidad de muestra que ha de ser hidrolizada, salvo en el

caso de las resinas. Con el previo calibrado del equipo

mediante patrones se obtiene la caracterización de pro-

teínas, gomas vegetales, ceras, resinas y aceites secantes.

Los electroforegramas muestran una cuantificación de los

componentes [7], [11].

3.3. Espectroscopía FTIR y RAMAN

Estas técnicas de análisis permiten la caracterización de

los aglutinantes en base a la determinación de los grupos

funcionales [11]. Ambos métodos permiten identificar el

medio pictórico a través de su comparación con espectros

patrón recogidos en una base de datos y que deben reali-

zarse con los equipos utilizados para el estudio de la pin-

tura (Fig. 1). Las bandas características de cada compuesto

pueden variar en función de las propiedades del instru-

mento [13].

La espectroscopia infrarroja por transformada de Fou-

rier (FTIR) es un método de alta sensibilidad que permite

realizar el análisis cualitativo de la muestra a partir de una

cantidad mínima de la misma. Según las características del

analito se puede recurrir a la reflectancia difusa (DRIFT),

cuando se trata de muestras sólidas o pulverizadas (re-

quieren una mínima preparación previa), o a la reflectan-

cia total atenuada (ATR) para cualquier material (sin nece-

sidad de preparación). Además, el modo ATR permite rea-

lizar el análisis sin proceder a la toma de muestra [14].

Cuando se trata de sustancias muy complejas la resolu-

ción del espectro resulta difícil de interpretar. No obstan-

te, el método FTIR permite identificar cualquier tipo de

aglutinante [7], [11], [14].

La espectroscopía Raman se caracteriza por ser una

técnica no destructiva, acercándose más a los principios

éticos actuales que rigen el análisis de las obras de arte

que aquellas otras técnicas que requieren toma de mues-

tras del material original [15], [16]. Permite obtener un

análisis cualitativo de los componentes del aglutinante,

siendo aplicado en la identificación de ceras naturales,

proteínas, resinas y aceites secantes. Si bien los espectros

pueden presentar baja resolución debido a la fluorescen-

cia emitida por los biomateriales, aspecto que dificulta la

interpretación de los resultados [7], [11] (Fig. 2).

3.4. Ensayos de Tinción

Esta técnica se basa en la interacción del aglutinante con

una sustancia colorante diluida en un medio de pH ácido

o básico. El ensayo, que se realiza sobre una muestra de

corte transversal, cuenta con una serie de condicionantes.

Estos son la pureza y la concentración del reactivo, el pH

de la disolución, el tiempo de tinción y la temperatura

[17].

De forma general, los principales tipos de tinción per-

miten identificar ligantes protéicos, lípidos y amiláceos. La

determinación de los compuesto filmógenos se realiza,

bajo luz visible o ultravioleta, de acuerdo a la coloración

obtenida tras la aplicación del reactivo [18] (Tabla 2). La

mayor o menor intensidad de la tinción es considerada

como un factor para distinguir entre varios aglutinantes

de un mismo grupo. Según este parámetro con la Fucsina

ácida se puede diferenciar entre cola animal (color de tin-

ción rosa intenso) y caseina o huevo (color de tinción rosa

claro), y con el reactivo Aceite rojo O entre aceite (color

de tinción rojo intenso) y yema o huevo entero (color de

tinción rojo claro) [17]. Sin embargo, esta valoración que-

da sujeta a un principio subjetivo.

Fig. 2. Espectro Raman de una pintura al óleo del siglo XIX que presenta una baja resolución debido a la interferencia de la fluo-rescencia emitida por parte de los componentes de la muestra

analizada (fuente propia).

TABLA 2 RELACCIÓN ENTRE LOS REACTIVOS DE TINCIÓN, LA COLORA-

CIÓN RESULTANTE Y LA NATURALEZA DEL AGLUTINANTE

Reactivo de tinción Coloración Aglutinante

Fucsina ácida Rosa Proteíco

Rojo Ponceau S Naranja, rojo, rosa Proteíco

Negro de Amido AB2 Azul claro/oscuro Proteíco

Rodamina B Rojo, naranja* Lípido

Diclorofluoresceína Amarillo, rosa* Lípido

Negro Sudán B Azul claro/oscuro Lípido

Aceite rojo O Rojo Lípido

Lugol Azul/violeta Amiláceo

* Color bajo iluminación ultravioleta.

Fig. 1. Espectro FTIR-ATR de un temple magro del siglo XVI. En color negro (a) se presenta el espectro de la muestra pictórica anali-zada y en azul (b) el patrón de un aglutinante proteico (cola animal)

(fuente propia).

Longitud de onda cm-1

Inte

nsi

dad A

TR

Longitud de onda cm-1

Inte

nsi

dad R

am

an

28

Los ensayos de tinción son un método muy limitado, si

bien permiten caracterizar la superposición de estratos

cuyo material ligante es diferente, como sucede en las

técnicas mixtas [17], [2] (Fig. 3).

3.5. Análisis microquímico

Este último método, prácticamente desplazado por los

anteriores, identifica fundamentalmente aglutinantes gra-

sos. La caracterización se hace en base a la reactividad de

la muestra, previamente hidrolizada con una disolución de

amoniaco, ante un agente oxidante (peróxido de hidró-

geno). Este procedimiento genera un fenómeno eferves-

cente al liberar oxígeno que permite determinar la pre-

sencia de un aglutinante oleoso (Fig. 4). Otros procesos

metodológicos más complejos posibilitan el estudio de

algunos ligantes específicos como la resina de colofonia

[17].

Los principales inconvenientes de estos análisis radi-

can en el tamaño de la muestra, la cantidad del aglutinan-

te presente en la misma y la modificación de los paráme-

tros de reactividad de las sustancias filmógenas a causa

de su envejecimiento natural [11], [17], [19].

4. CONCLUSIONES

La caracterización de los aglutinantes pictóricos es una

ardua tarea debido a su compleja estructura y mezcla. Se

cuenta con múltiples métodos de análisis cuantitativo y

cualitativo que permiten identificar los principales com-

ponentes del medio filmógeno. Sin embargo, la completa

determinación de las sustancias aglutinantes sigue siendo

en parte una incertidumbre. De entre los métodos de

examen analizados en el presente artículo, las técnicas

cromatográficas son las que tienen mayor precisión ade-

más de tener un carácter universal. Por el contrario, las

muestras han de ser previamente sometidas a un comple-

jo proceso de preparación para conseguir su disolución

y/o derivatización. La espectroscopía FTIR acoplada a un

microscopio tiene, igualmente, una aplicación universal

sin necesidad de preparar demasiado las muestras pictóri-

cas, aunque la interpretación de los resultados puede ver-

se obstaculizada cuando se trata de materiales complejos.

El resto de técnicas tienen más limitaciones en cuanto a su

aplicación y precisión, por lo que son utilizadas en menor

medida para este tipo de ensayos.

REFERENCIAS

[1] C. Salas y M. Porras, Proyecto COREMANS. Criterios de interven-

ción en pintura de caballete. España: Ministerio de Cultura y De-

porte, 2018.

[2] A. Villarquide, La pintura sobre tela I. Historiografía, técnicas y materia-

les. San Sebastián: Nerea, 2004.

[3] M. Doerner. Los materiales de pintura y su empleo en el arte.

Barcelona: Editorial Reverté, 6º edición, 1998, (traducción de la

18º edición alemana).

[4] A. Sánchez, C. Muro y M. D. Gayo, “Protocolo para la evaluación

del riesgo de sistemas de limpieza con disolventes orgánicos en

superficies pintadas al óleo”, en 13ª Jornadas de Conservación

de Arte Contemporáneo, Madrid, pp. 317-328, 2012.

[5] A. Calvo, Materiales, técnicas y procedimientos. De la A a la Z. Barcelo-

na: Serbal, pp. 16, 1997.

[6] J. Rodríguez, M. P. Saéz, y J. A. Durán, “Evaluación experimental

del comportamiento cromático de pigmentos inorgánicos en

diversos aglutinantes pictóricos”, PH investigación, nº 1, pp. 41-

53, 2013. [En línea]. Disponible en:

http://www.iaph.es/revistaph/index.php/revistaph/article/

view/4018

[7] J. Peris, “Estudio analítico de materiales empleados en barnices,

aglutinantes y consolidantes en obras de arte mediante méto-

dos cromatográficos y espectrométricos”, Tesis Doctoral, Dpto.

de Química analítica, Universidad de Valencia, Valencia, Espa-

ña, 2007. [En línea]. Disponible en:

http://roderic.uv.es/handle/10550/15821

[8] I. Garófano, “Materiales orgánicos naturales presentes en pin-

turas y policromías. Naturaleza, usos y composición química”,

Revista pH, nº 80, pp. 56-71, 2011.

[9] V. E. Selva, Dall´olio all´acrilico, dall´impressionismo all´arte con-

temporánea. Italia: il Prato, 2015.

[10] A. Macarrón, A. Calvo y R. Gil, Criterios y normativas en la con-

servación y restauración del Patrimonio Cultural y Natural. Ma-

drid: Síntesis, 2018.

[11] M. T. Doménech, Análisis químico y examen científico de patrimonio

cultural. Madrid: Síntesis, 2018.

Fig. 3. Ensayo de tinción con Fucsina ácida para determinar la naturaleza del medio pictórico de una obra del siglo XX. Tras la observación (20x) se descarta la presencia de un

aglutinante proteico como medio cohesivo en las capas de color (fuente propia).

Fig. 4. En la imagen se muestra la caracterización de un agluti-nante pictórico mediante análisis microquímico. En un recipien-te se ha colocado la muestra pulverizada, se le ha añadido el agente saponificante (NH3 al 30%) y seguidamente el oxidante (H2O2 al 30%). Al incorporar este último se ha generado una efervescencia más o menos prolongada (señalada en la foto-grafía con un círuclo amarillo) que revela la presencia de un

ligante graso (fuente propia).

29

[12] E. Parra y B. García, “Derivación con MTBSTFA de aminoácidos y

ácidos grasos. Una determinación simultánea de aglutinantes

protéicos en capas de pintura” en Investigación en Conserva-

ción y Restauración: Segundo congreso del Grupo Español del

IIC. Barcelona: Museu Nacional d´Art de Catalunya, pp. 5-14,

2005.

[13] P. Vandenabeele, M. Ortega, D. Tenorio y L. Moens, “Raman

spectroscopic análisis of Mexican natural artists´materials”,

Spectrochimica Acta Part A, nº 68, pp. 10851088, ene. 2007.

[14] A. Poliszuk and G. Ybarra, “Analysis of cultural heritage materials by

infrared spectroscopy”, in Infrared Spectroscopy: Theory, Developments

and Applications, New York: Nova Science Publishers, pp. 519-536,

2014.

[15] S. Ruiz et al, “Identificación con metodologías fotónicas no des-

tructives de una obra inedita de Theodor Gaspar Smitz (1635-

1707), Unicum, nº 10, pp. 202-204, 2011.

[16] N. Salvadó, S. Butí y N. Oriols. Presa de mostres de policromies,

metodología. Barcelona: Generalitat de Catalunya Departament

de Cultura i Mitjans de Comunicació, 2008.

[17] D. J. Yusá, "Ensayos de tinción o histoquímicos. Identificación de aglu-

tinantestradicionales y adhesivos naturales" en Estudio químico analítico

de obras de arte. Un enfoque práctico. Valencia: Universitat Politècnica

de València, pp. 55-60, 2015.

[18] A. Rodriguez y F. Bazeta, “Del microanálisis al macroanálisis en el bien

cultural”. Estudios sobre arte actual, nº 1, 2013.

[19] M. Matteini y A. Moles, Ciencia y Restauración. San Sebastián: Nerea,

2001.

Daniel Morales Martín recibió el título

de Graduado en Conservación y Res-

tauración de Bienes Culturales por la

Universidad de Granada en 2018. Máster

en Diagnóstico del Estado de Conserva-

ción del Patrimonio Histórico por la Uni-

versidad Pablo de Olavide.

30

Luminol, El Compuesto Químico que arroja luz sobre la escena del Crimen

Tania Asencio Bermúdez

Resumen— Este artículo presenta qué es el Luminol, así como su uso en la escena del crimen, el proceso para que se logre la

luminiscencia y las ventajas y desventajas que este método ofrece.

Palabras Claves— Luminol, luminiscencia, sangre, escena del crimen.

—————————— ◆ ——————————

1. INTRODUCCIÓN

uién no ha visto alguna vez una serie o película policíaca en la que todo se resuelve y consiguen dar con el asesino gracias al hallazgo de sangre en una

escena, a simple vista, impecable, debido a un líquido fluorescente esparcido en la oscuridad. Este líquido fluorescente es lo que llamamos Luminol, pero, ¿qué es realmente el Luminol?

El Luminol (C8 H7 N3 O2) es un derivado del ácido

ftálico, sólido a temperatura ambiente, de color amarillo

pálido, soluble en la mayoría de solventes orgánicos y

ligeramente soluble en agua. Es una molécula sencilla sin

centros asimétricos, que se prepara comercialmente a

partir del ácido 3-nitroftálico mediante la condensación

de este ácido con hidracina (N2 H4). La reducción del

grupo nitro a la amina primaria correspondiente permite

la síntesis del Luminol (figura 1) [1].

Fig. 1. Síntesis de Luminol a partir del ácido 3-nitroftálico

2. HISTORIA DEL LUMINOL

2.1. Curiosidades relacionadas con el Luminol

El Luminol fue sintetizado por primera vez en 1853 como

5-amino-2, 3-dihidro-1, 4-ftalazinadiona. Posteriormente,

en 1928, el científico alemán H. Albrecht, publica “La

Quimioluminiscencia del Luminol”, en una revista

alemana. Es a partir de este momento cuando comienzan

los estudios del Luminol en áreas como la Biología o la

Medicina.

En 1934, E. Huntress, propone el nombre de “Luminol”, el

cual significa “productor de luz”, en un artículo publicado

en el “Journal of the American Chemical Society”. Pero, no

fue hasta unos años más tarde, en 1937, cuando Walter

Specht, científico del Instituto Universitario de Medicina

Legal de Jena (Alemania), propuso el uso del Luminol para

detectar sangre en escenas de crímenes. Anteriormente,

solo se había utilizado para encontrar cobre en la minería

[2].

3. QUIMIOLUMINISCENCIA

Inicialmente, el Luminol no tenía uso en Medicina

Forense, de hecho, la aplicación directa de este no

produce la luminiscencia.

Para que esta ocurra, es necesario “excitar” al Luminol.

Esto sucede preparando una solución acuosa del Luminol

junto con un agente oxidante, como puede ser el agua

oxigenada (H2 O2), y un hidróxido que porporcione un

medio básico.

En presencia de estas sustancias, la oxidación del Luminol

ocurre lentamente, mediante la secuencia de reacciones

que se pueden observar en la figura 2.

En el primer paso, se observa como la base atrapa los

hidrógenos unidos a los átomos de nitrógeno.

Posteriormente, en el segundo paso, la reacción del

dianión resultante con oxígeno molecular, permite el

intercambio de las amidas por los correspondientes

ésteres, mediante una adición cíclica. Este paso está muy

favorecido, debido a que se forma nitrógeno molecular, el

cual es un grupo saliente muy bueno gracias a su mínima

reactividad.

————————————————

Tania Aeencio Bermúdez, Universidad Pablo de Olavide. [email protected].

Q

31

Fig. 2. Mecanismo propuesto para la quimioluminiscencia del

Luminol

En cuanto al tercer paso, el peróxido formado es muy

inestable, provocando su ruptura y dando lugar al anión

3-aminoftalato. Sin embargo, tal ruptura del peróxido la

produce esta molécula en estado excitado. Esto origina

que, cuando la mólecula alcanza su estado basal, libere

energía en forma de luz, de una coloración azul.

La reacción aquí mostrada es lenta, pero se acelera en

presencia de hierro (Fe). En el caso de la sangre, el hierro

presente en la hemoglobina origina que el proceso sea

más rápido, y es por ello que la luz se produce de manera

casi inmediata al contacto con esta [1].

4. VENTAJAS E INCONVENIENTES DEL LUMINOL

4.1. Ventajas

La primera ventaja a tener en cuenta es que los reactivos

son fáciles de adquirir y la preparación de la solución del

Luminol es rápida. Otra de las ventajas es que, el Luminol,

permite analizar pequeñas trazas de sangre, incluso si

estas no son fáciles de visualizar.

También encontramos una ventaja si la sangre es seca y

degradada, puesto que, el Luminol reacciona frente a esta

de forma más intensa y duradera que con la sangre fresca.

Además, se ha demostrado que puede extraerse ADN de

muestras tratadas con Luminol.

Por último, también es ventajoso si la luminiscencia

desaparece, ya que puede volver a reproducirse

añadiendo una nueva disolución de luminol-peróxido de

hidrógeno [1], [3].

4.2. Inconvenientes

El principal inconveniente del Luminol reside en que es

una técnica destructiva y puede dañar la muestra que se

analiza. Es por ello, que debe usarse solo después de

haber tomado muestras para otros análisis que sean

necesarios.

Otro inconveniente es que puede dar falsos positivos en

presencia de otras sustancias como el cobre o

compuestos que lo contengan, además de ciertos

productos blanqueantes, como puede ser la lejía (NaOCl),

produciéndose la oxidación del Luminol, más rápidamente

con esta. Por este motivo, si el lugar del crimen ha sido

limpiado con lejía u otro producto blanqueante, puede

dar lugar a que los residuos hagan que toda la escena

emita un brillo uniforme, ocultando los posibles restos de

sangre.

Otros falsos positivos pueden producirse por productos

alimenticios derivados del rábano o por partículas de

humos residuales (humo de tabaco).

El Luminol puede detectar pequeñas cantidades de sangre

encontradas en la orina, por lo que el resultado podría

verse distorsionado. También reacciona con la materia

fecal, causando el mismo brillo que si se tratase de

sangre.

Por último, la presencia de Luminol, puede dificultar la

realización de otras pruebas [1], [3].

5. CONCLUSIONES

El Luminol posee la habilidad de detectar sangre incluso

varios años después de su descomposición, teniendo así

un valor práctico importante en investigaciones de casos

que han sido cerrados y en reconstrucciones de escenas

del crimen.

Gracias a este método, los investigadores pueden incluso

distinguir la posición inicial de un cádaver cuando este ha

sido movido por un sospechoso o algún animal.

Por tanto, a pesar de que puede dar lugar a falsos

positivos, es posible concluir que el Luminol tiene una

gran importancia en el área criminalística, ya que es una

de las herramientas principales para la resolución de casos

en los que aparecen sangre, además de ser un método de

fácil obtención y preparación.

REFERENCIAS

[1] Revista de Química PUCP, “El Luminol”, vol.25, no-1-2, Cedrón,

J.C. (2011).

[2] Cristian López, “Investigación en Escenas del Crimen: Uso del Luminol”,

https://www.academia.edu/24608154/How_luminol_works.

[3] Página Web Wikipedia. https://es.wikipedia.org/wiki/Luminol.

Tania Asencio Bermúdez- Estudiante de cuarto año del Grado en Criminología de la Universidad Pablo de Olavide.

32

El Proceso de Eutrofización: otra de las múltiples caras de la contaminación.

Marta Romero Gallardo

Resumen— El proceso de Eutrofización es otra forma, poco conocida, de contaminación química que se produce por un

aporte excesivo de nitratos y fosfatos a un medio acuático como puede ser un río, un lago o un estanque de la mano del

hombre. En el presente artículo se hará una descripción de dicho proceso, adentrándonos en las causas que lo producen y las

consecuencias posteriores del mismo. Además, se tratarán casos específicos del proceso de eutrofización que se han dado en

nuestro país así como los tratamientos que se le han dado para paliarlo y medidas para evitarlo.

Palabras Claves— Contaminación, Eutrofización, Fitoplactón, Fosfatos, Nitratos.

—————————— ◆ ——————————

1. INTRODUCCIÓN

a contaminación es uno de los grandes problemas que

no afecta a una región en concreto del mundo sino a

todas las personas por igual.

Una de las contaminaciones que más daño causa en los

distintos medios es la contaminación química. Esta puede

ser definida como la presencia de un factor ajeno a un

medio concreto que puede alterar nocivamente el estado

natural de este, causándole inestabilidad, desorden y

daño a su ecosistema, al medio físico en el que se haya

producido la contaminación y a los seres vivos que allí

habiten.

Los contaminantes químicos son aquellos compuestos,

naturales o sintéticos, que pueden llegar a lesionar con su

presencia cualquier tipo de medio, así como la salud de

las personas. [1]

Uno de los medios que más sufre de contaminación, es el

medio acuoso, cuyos principales contaminantes son:

gases que generan dentro del medio acuático (H2S, N2O,

Sulfuro de dimeltilo y CO), productos orgánicos arrojados

al agua (petróleo, aceites y grasas, detergentes, pesticidas)

y materiales radiactivos.

¿Qué es el Proceso de Eutrofización?

Una masa de agua, ya sea río, lago, embalse, se considera

eutrofizada cuando contiene unos niveles muy elevados

de nutrientes con respecto a lo habitual en el ecosistema.

Este incremento de nutrientes puede producirse de

manera natural por el propio trasporte de nutrientes en

las corrientes que da lugar al envejecimiento de la propia

masa de agua.

Sin embargo, el máximo culpable de esta forma de

contaminación del agua es el hombre ya que

constantemente se arrojan vertidos de origen agrícola y

doméstico ricos en Nitrógeno y Fósforo que rompen con

el equilibrio biológico entre la fauna y la flora de dicho

ecosistema.

En un primer momento, el ecosistema es oligotrófico,

lo que significa que es un sistema que recibe una entrada

normal en nutrientes, se encuentra en equilibrio. Estas

aguas se caracterizan por ser claras, lo que permite una

óptima entrada de luz. Las especies tanto animales como

vegetales que se encuentran en este ecosistema son los

propios de aguas bien oxigenadas.

A medida que se van vertiendo contaminantes, se

produce una entrada en exceso de Nitrógeno y Fósforo

que producen la proliferación de algas unicelulares

(principalmente verdes) que empiezan a crecer

excesimente. Esta masa de algas hace que el agua se vaya

volviendo cada vez más turbia, impidiendo la penetración

de la luz, y vaya perdiendo el oxígeno disuelto por la

disminución del efecto de la fotisíntesis.

Debido a la disminución de la fotosíntesis las plantas

van muriendo y los restos de materia vegetal y la propia

materia orgánica que va arrastrando las corrientes de

agua, se van depositando en el fondo produciendo una

masa de sedimento orgánicos.

En condiciones de anoxia (falta de oxígeno), las

bacterias empiezan a transformar dichos sedimentos

orgánicos, desprendiendo en este proceso sustancias tales

como metano, amonio y sulfuro de hidrógeno, que como

ya hemos comentado, contaminan en abundancia el agua.

[2], [3], [4], [5].

¿Cuáles son las causas que lo producen?

Las causas de eutrofización, como se ha indicado en el

apartado anterior, pueden tener origen natural, ya que

todos los medios líquidos van recibiendo nutrientes

constantemente por las corrientes y el clima; o de la mano

del hombre, que es la más común. Este tipo de

contaminación se debe a:

- La Agricultura, constantemente se emplean

fertilizantes y plaguicidas en los cultivos altos en

nitrógeno que penentran en la tierra, pudiendo

llegar a ríos o estanques cercanos, así como a

aguas subterráneas.

- La Ganadería, la mala gestión de recogida de los

excrementos de los animales, altos en nitrógeno,

pueden llegar a contaminar las aguas más

cercanas.

————————————————

Marta Romero Gallardo. Grado en Criminología, Universidad Pablo de Olavide. [email protected].

L

33

- Residuos Urbanos, constantemente se vierten

contaminantes químicos al medio acuoso

resultado de la actividad diaria del hombre como

lo son los detergentes, ricos en fosfatos.

- Residuos procedentes de la actividad industrial,

son los vertidos más tóxicos formados productos

nitrogenados y fosfatados como lo son los fenoles

y los clorofenoles.

- Residuos procedentes de la actividad forestal,

cuando se realizan las deforestaciones masivas,

todos los nutrientes de las plantas, entre los que se

encuentra el Nitrógeno, pueden penetrar en la

tierra.

- Contaminación atmosférica, todos los gases

contaminantes emitidos por la actividad humana,

llegan hasta la atmósfera produciendo el

fenómeno conocido como lluvia ácida, que

trasporta consigo todos los componentes tóxicos

desprendidos, como el Nitrógeno y el Azufre, a las

masas de agua. [6]

¿Cuáles son las consecuencias de este proceso?

La principal consecuencia de este proceso es que el

aporte excesivo de nutrientes ricos en Nitrógeno y

Fósforo, hacen que también crezcan en abundancia las

plantas y organismos que habiten en dicho ecosistema.

Debido a ello se consume gran cantidad del oxígeno

presente en el agua hasta llegar a su agotamiento.

Debido a este agotamiento de oxígeno, las aguas dejan

detener su color natural para pasar a tener un color verde

que desprende un olor desagradable, cuyo consumo

puede ocasionar problemas de salud a las personas de la

zona así como problemas respiratorios.

A medida que se va acabando el oxígeno, las especies

vegetales y animales mueren ocasionando en el fondo del

lago, río, estanque, etc; un sedimento, conocido como

fango, que disminuirá la capacidad de agua.

El crecimiento abundante de algas puede a llegar a

cubrir toda la superficie acuática ocasionando que cauces

que anteriormente eran navegables dejen de serlo.

Otro gran problema es la muerte de animales ya que

no sólo puede llegar a afectar a la producción piscícola de

la zona, sino también puede ocasionar la intoxicación de

animales que frecuentemente consuman el agua de esa

zona produciéndose la muerte de los mismos o afectando

a otras especieas y hasta incluso alcanzar a los humanos.

Las nuevas condiciones que aquiere el medio acuático

eutrofizado, crea o atrae nuevas especies invasoras que se

adaptan a estas condiciones, desplazando a los

organismos de ese hábitat. [6]

En muchos casos los fangos que se forman en el fondo

del embalse son absorbidos por los sistemas de riego,

ocasionando el colapso de las bombas y provocando la

muerte de las plantas que se abastecen del agua de ese

riego ya que dichos fangos suelen contener metales

pesados, bacterias y materia orgánica en descomposición.

Además, a menudo ocurre la proliferación de insectos

como mosquitos que pueden causar numerosas

enfermedades tanto a los animales como a las personas

[7].

Casos de eutrofización en España

En España tenemos muchos casos de contaminación

preocupantes que poco a poco está llegando al proceso

de eutrofización.

La Ría del Nervión (Baracaldo) recibe constanmente

numerosos residuos procedentes de la fabricación del

pesticida lindano, que está siendo muy utilizado en los

cultivos y es altamente cancerígeno. Por este mismo

pesticida se encuentra altamente contaminado el Río

Gallego (Huesca) en el que se han detectado metales

pesados y dioxinas debido a una fábrica que vertía los

residuos a vertederos conectados con este río.

También por el Norte, observamos que en un tramo

del Río Ulla tiene afluentes muy próximos a una mina de

cobre por lo que en las corrientes se transportan

constantemente metales pesados procedentes de las

minas que se van depositando a lo largo del río.

Otro caso a destacar es el del Río Llobregat que se

encuentra altamente salinizado por las minas de sal del

Cardona. Esto es un problema muy grave ya que de este

río se abstece gran parte del área metropolitana de

Barcelona.

Por la misma zona de Cataluña nos encoentramos el

embalse de Flix (Tarragona) que, tras una gran limpieza de

más de 300.000 toneladas de lodos tóxicos y desechos

contaminantes, aún siguen quedando casi el 20% de los

residuos.

El Río Jarama (Aranjuez) se encuentra cada vez más

contaminado, llegando a límites extremos ya que no es

capaz de depurar la cantidad de contaminantes químicos,

sobre todo de uso doméstico, que se vierten

constantemente de toda el área metropolitana de Madrid.

En las mismas condiciones que se encuentra el Río

Llobregat, encontramos el Río segura, altamente

contaminado por la salinidad procedente de regadíos y

fertilizantes.

El Río Guadaletín (Lorca) es uno de los mayores

problemas en cuento a contaminación de la Región de

Murcia ya que la industria del curtido vierte

mensualmente grandes cantidades de metales pesados y

sustancias muy nocivas para la salud.

También en el sur se encuentra el Río Guadalquivir, que

al ser uno de los ríos más largos de España recibe muchos

vertidos químicos en distintos puntos de su curso del que

se puede hacer mención de la sosa caústica invertida en el

prensado de las aceitunas en Alcalá de Guadaíra, Sevilla

[8].

El Lago de Sanabria está sufriendo del proceso de

eutrofización desde hace largo tiempo debido al aporte

excesivo de aguas fecales y residuales ya que las

estaciones depuradoras que intervenían en el proceso de

reducción de contaminantes no se encuentran en

funcionamiento y la red de alcantarillado es poco

eficiente.

El agua del Lago Enol (Picos de Europa) cada vez se está

volviendo más turbia y las plantas características de este

ecosistema han empezado a crecer en abundancia, dos de

los ítems que más señalan al proceso de eutrofización.

Según los estudios llevados a cabo, se ha constantado

que los culpables de este desastre han sido el cambio

34

clim´tico y la gran aportación de materia orgánica por las

lluvias y el deshielo de las zonas cercanas al lago [9].

Debido al incremento de la temperatura y la falta de

salida de agua, la Laguna Negra (Soria), se está volviendo

cada vez más verde debido a la proliferación incontrolada

de algas que está ocasionando la aparición de especies

vegetales nuevas que antes no había en dicho ecosistema

[10].

Pero, sin lugar a duda, el caso más grave de esta forma de

contaminación es el que esta teniendo lugar en el Mar

Menor, del que se han visto afectadas 40 playas de la

zona cuyas aguas se están volviendo cada vez más turbias

debido a la presencia masiva de fitoplacton y algas tóxicas

[11].

2. SOLUCIONES ANTE EL PROBLEMA

Cuando nos encontramos ante un embalse con aguas

aparentemente eutrofizadas, es importante conocer cual

es el nivel de contaminación. Para ello es necesario

determinar la cantidad de clorifila que presentan las algas,

el contenido en exceso de fosfatos y nitratos y el valor

que alcaza la penetración de la luz.

Una vez que sabemos el nivel de eutrofización, el primer

paso a seguir es corregir esa gran cantidad de entrada de

nutrientes al ecosistema, aunque esto no es siempre

posible ya que los medios a emplear son muy costosos.

Una de las técnicas más usadas es la biomanipulación,

que consiste en manipular artificialmente las cadenas

tróficas del ecosistema afectado. Esto puede realizarse,

bien introduciendo nuevas especies que se alimenten de

zooplacton para evitar la proliferación en abundancia de

éste, o bien, si hubiera ya esta especie zooplanctívora,

reducirla para permitir que haya más cantidad de

zooplacton en el agua y que, por consiguiente, también

aumente el consumo de fitoplacton. [6]

Otra técnica usada en estos casos es la aireación del

fondo que se consigue con la introducción de ozono

(Ozoaireación), ya que el ozno se auto descompone en

oxígeno contribuyendo a la mayor oxigenación del agua

que fortalece la proliferación de bacterias aerobias que se

encargarán de la reducción de los nutrientes orgánicos y

desechos. Con esta aireación también se consigue

eliminar la estratificación producida en los fondos,

disminuyendo así la temperatura de la superficie y

llenando de oxígeno el fondo, donde antes se había

agotado, reduciendo así la cantidad de fangos que se

puedan acomular en años posteriores.

También podríamos intervenir antes de que se

produzca la contaminación siguiendo los siguientes

pasos:

- Las aguas residuales resultantes de la actividad

humana, deberían pasar por un tratamiento es

estaciones depuradoras de aguas residuales,

donde se elimine el fósforo y el nitrógeno presente

en las mismas.

- Evitar el uso incontrolado en estiércol en la

ganadería utilizando solo el justo y necesario.

- Realizar prácticas de cultivo que sean menos

contaminantes de las que se estén utilizando, tales

como aplicar fertilizantes que sean más eficientes.

- Imponer a las industrias una menor emisión de

Oxídos de Nitrógeno y amoniaco, altamente

contaminantes.

- En cuanto a lo que confiere a lo doméstico, hacer

un menor uso de detergentes con polifosfatos.

3. CONCLUSIONES

La eutrofización es un problema bastante grave, y poco

conocido que debe ser más tenido en cuenta ya que

afecta a la mayoría de las aguas superficiles y sus efectos

son muy perjudiciales para la biodiversidad de los

ecosistemas y el consumo humano, entre otros grandes

perjuicios.

Hay que tener en cuenta que las aguas más ricas en

biodivesidad son las más susceptibles de sufrir

contaminación y puede generar grandes problemas

económicos por la reducción de la producción piscícola,

alteraciones en la construcción de embalses, subidas de

nivel del agua, etc.

Algo bueno y necesario en todo ecosistema, como lo es el

aporte de nutrientes, puede llegar a ser peligroso y

dañino al convertirse en contaminante y, a veces, es muy

difícil volver al equilibrio del mismo cuando se trata de

masas abundantes.

Si ha estado en manos del hombre la contaminación,

también sufre las consecuencias que puede generar.

Cuidar el medio ambiente y regular constantemente la

limpieza del agua es el primer gran paso para evitar este

tipo de desastres.

REFERENCIAS

[1] “Ecured”, Contaminación Química. [Online.] Available:

https://www.ecured.cu/Contaminaci%C3%B3n_qu%C

3%ADmica

[2] C. Borrás, “Ecología Verde”, ¿Qué es la

contaminación? [Online]. Available:

https://www.ecologiaverde.com/que-es-la-

eutrofizacion-34.html

[3] “Oxicom Aeration”, Problema de Eutrofización.

[Onine]. Available:

http://aerationoxicom.com/eutrofizacion/

[4] A. Guillén, “Iagua”, Lago de Sanabria: Situación

actual y proceso de eutrofización. [Online]. Available:

https://www.iagua.es/blogs/antonio-guillen/lago-de-

sanabria-situacion-actual-y-proceso-de-eutrofizacion

[5] “Iagua”, Eutrofización: Causas, consecuencias y soluciones. [Online]. Available:

https://www.iagua.es/noticias/sewervac-

iberica/eutrofizacion-causas-consecuencias-y-

soluciones

[6] “Greenteach”, La Eutrofización. [Onine]. Available:

https://www.greenteach.es/eutrofizacion/

[7] J.A Gavira Vallejo, “Ambiente”, Eutrofización: Causas y Consecuencias. [Online]. Available:

https://triplenlace.com/2012/09/27/eutrofizacion-

causas-y-efectos/

35

[8] “ABC Sociedad”, La Contaminación silenciosa: cuatro

de cada diez ríos en España suspenden en calidad

de sus aguas”. [Online]. Available:

https://www.abc.es/sociedad/abci-contaminacion-

silenciosa-cuatro-cada-diez-rios-espana-suspenden-

calidad-aguas-201710282023_noticia.html

[9] V. Martín, “El Comercio”, La Contaminación de Lago

Enol obliga a crear un plan para proteger sus aguas”.

[Online]. Available:

https://www.elcomercio.es/asturias/oriente/201703/27

/contaminacion-lago-enol-obliga-20170327014701-

v.html

[10] J. C. San José, “Medio Ambiente”, La Laguna Negra

se ha vuelto verde por un proceso de eutrofización.

[Online]. Available:

https://cadenaser.com/emisora/2017/07/10/ser_soria/

1499687867_897001.html

[11] R. Limón, “Contaminación”, El Mar Menor, al borde

de colapso. [Online]. Available:

https://elpais.com/politica/2016/06/15/actualidad/1466

007368_066035.html

Marta Romero Gallardo estudiante en la Universidad Pablo de Olivide del cuarto curso del Grado en Criminología.

36

El uso de cosméticos como evidencia forense Jesús Palomino Marchena

Resumen— Con este artículo se pretende mostrar al lector un recorrido por aquellos puntos neurálgicos que articulan este

ámbito desconocido de la ciencia forense y de la literatura hispana, mostrando la realidad y potencial que hoy en día tienen

estas técnicas en el transcurso de una investigación criminal y lo que se espera de su poder de análisis.

Palabras Claves— Cromatografía, Evidencia cosmética, Espectroscopía Raman, Pintalabios, TLC.

—————————— ◆ ——————————

1. INTRODUCCIÓN

or todos los lectores seguramente sea bien conocida

aquella escena de la serie CSI (Cómo Sí Inculpar)

donde unos atormentados investigadores se estancan

en la investigación de un delito donde el presunto autor

solamente ha dejado un pequeño vestigio que lo rela-

cione con los hechos, como bien podría ser el contorno

de unos labios impresos con pintalabios en el cuello de la

víctima, maquillaje azarosamente colocado en algún

recóndito objeto, un texto escrito en un espejo con el

mismo pintalabios, etcétera. Pero ello no será óbice para

que el culpable reciba su castigo, ya que, tras la extracción

de una ínfima parte de ese vestigio, se dirigen a ese tem-

plo de la sabiduría y oscurantismo como es el laboratorio,

habitado por un ser taciturno, con grave adicción a las

bebidas estimulantes y vestimenta estrafalaria. Tras un

breve análisis ocular de la muestra, la persona al cargo del

laboratorio mira a los investigadores por encima de sus

anteojos y se pone manos a la obra, no sin antes

asegurarles que la probabilidad de hallar alguna con-

clusión vehemente es baja.

Transcurrido un período de tiempo indeterminado entre 1

y 24 horas, el personaje a cargo del laboratorio sale ex-

tenuado de su cubículo y espera a dar las buenas noticias

a nuestros protagonistas: es el momento en el que el

monitor del ordenador muestra una tímida barra in cre-scendo hasta que de pronto aparecen unas grandes letras

rotuladas a tamaño 140 con relleno verde centelleante

que dice: MATCH. A partir de ese instante los investiga-

dores tienen la marca, modelo, lote, fecha de venta, coor-

denadas geográficas y cliente al que se le dispensó dicho

objeto y se procede a su detención.

Este relato aparente inverosímil ha sido utilizado en multi-

tud de ocasiones por la industria del entretenimiento para

mostrar un nada realista trabajo de los analistas forenses,

los cuales tienen que lidiar con situaciones muy diferentes

a las allí planteadas. A menudo se encuentran con mues-

tras muy degradadas, muy similares unas de otras, mez-

cladas con otros compuestos, insuficientes para determi-

nados tipos de análisis y en el dilema de si utilizar una

técnica u otra en base a su ratio destructividad/eficacia.

El análisis de cosméticos como evidencia de una escena

de un crimen no está exento de los problemas anterior-

mente mencionados, a los que hay añadir algunos más

que se mencionaran más adelante. Huelga decir que se

trata de un campo relativamente incipiente, donde la lit-

eratura en nuestro idioma patrio es inexistente (igual que

ocurre con nuestros vecino galos y germanos) y su uti-

lización en nuestro país residual o nula (no habiendo sido

posible encontrar en bases de datos ni una sola sentencia

que recoja como prueba indiciaria o de cargo alguno de

estos tipos de análisis o noticia que plasme el uso en un

caso real), centrándose el grueso de los trabajos sobre

esta aplicación concreta de los cosméticos en las cuatro

décadas anteriores y siempre dentro de la literatura an-

glosajona [3].

2. EL VESTIGIO COSMÉTICO COMO PRUEBA

Primeramente, deberemos definir qué se entiende por

cosmético. Pues bien, la palabra cosmético proviene del

griego kosmētikós, que significa “todo aquello que tiene el poder o la habilidad de decorar”, es decir, todos

aquellos productos que son rociados, espolvoreados,

frotados o aplicados para limpiar, embellecer, favorecer el

atractivo o para alterar el aspecto.

Dicho esto, las evidencias cosméticas no son más que

productos cosméticos hallados en la escena de un crimen

(más frecuentes en casos de violaciones, asesinatos, abu-

sos y agresiones sexuales, robos y cartas anónimas) y que

se convierten, debido a su posible utilidad esclarecedora,

en muestras dubitadas necesitadas de un análisis quími-

co-forense para su posterior cotejo con una muestra in-

dubitada que permita a los órganos judiciales establecer

————————————————

Jesús Palomino Marchena. Facultad de Derecho, Universidad Pablo de Olavide. [email protected]

P

37

inferencias inculpatorias. Pintalabios, eyeliner, sombra de

ojos y esmalte de uñas son algunos de los cosméticos

más utilizados en el día a día y que pueden ser fácilmente

transferibles a la ropa, vasos, pañuelos, cigarrillos y las

más variadas superficies de contacto en el transcurso de

un crimen, incluso permanecer relativamente útiles duran-

te algunos años [4], de ahí su utilidad en el análisis foren-

se.

3. EL PRELUDIO DEL ANÁLISIS DE LA EVIDENCIA

COSMÉTICA

El lector avezado no entenderá como podemos seguir

hablando de ciencia forense sin antes mencionar el cono-

cido principio de intercambio de Locard, que dice así: "Es imposible que un criminal actúe, considerando la inten-sidad de un crimen, sin dejar rastros de esta presencia"

[8]. Teniendo en cuenta el principio enunciado por Locard

debemos tener en cuenta que estamos ante un vestigio

con potencial para ser analizado y mostrar ese lazo de

unión entre criminal y crimen.

El primer caso documentado que utiliza el análisis de un

cosmético para el esclarecimiento de un crimen es pro-

tagonizado por el mismo Edmund Locard en 1912 en el

caso de Marie Latelle. Esta joven fue hallada muerta en el

salón de la casa de sus padres en Lyon, Francia. La coarta-

da del novio de Marie era perfecta, contando con el res-

paldo de sus amigos, pero un raspado de uñas rebeló que

el tejido de piel acumulado bajo estas estaba cubierto de

polvo. El polvo incluía estearato de magnesio, un polvo

blanco comúnmente usado como agente aglutinante;

óxido de zinc, un protector solar; bismuto, un mineral

iridiscente usado para hacer polvos brillantes, y un óxido

de hierro rojo. Estos componentes denotaban que se trat-

aba de colorete, y según el químico de Lyon que lo fabri-

caba, sólo lo fabricó para Marie Latelle, lo cual propor-

cionaba el vínculo perfecto para unir al autor del crimen y

los hechos, que resultó ser su novio [7].

Tras los primeros pasos dados en 1912, los estudios de

este tipo de evidencias han sido muy escasos y descom-

pensados en función del cosmético a analizar (de-

pendiendo de la prevalencia de los mismos en los casos,

su dificultad de extracción, aplicación masiva en la

población y multitud de variables), encontrándonos al

pintalabios como figura central en los trabajos hasta 2019

por su gran aceptación en todo el mundo y en clara

desventaja el resto de los cosméticos, como puede ob-

servarse en la siguiente gráfica realizada por R. Chophi et

al. [3] que muestra el número de estudios hasta 2019 en

este ámbito.

Fig. 1 Distribución de estudios (R. Chopi, et al)

4. TÉCNICAS EMPLEADAS PARA EL ANÁLISIS DE LA

EVIDENCIA COSMÉTICA

En esta sección recogeremos las técnicas que a día de

hoy, fruto del avance de la teconología en este ámbito, los

laboratorios utilizan para lograr lo más parecido a ese

match que exponíamos al principio del artículo: unos re-

sultados que permitan, en mayor o menor medida, calcu-

lar la probabilidad de que el cosmético dubitado sea el

mismo que el indubitado con el que se compara.

Para la exposición de técnicas tomaremos como referencia

los análisis reputados como más éxitosos en este tipo de

muestras, ya que la finalidad del artículo es conocer la

realidad del análisis de los cosméticos y separar las téc-

nicas empleadas para todos desbordaría los fines de este.

A continuación, se muestra un diagrama que recoge las

posibles vías de análisis cuando un laboratorio recibe una

muestra cosmética dubitada.

Fig. 2 Elaboración propia de vías de análisis

4.1. Comparación Visual

Se trata de que el analista compare la muestra dubitada

con la muestra indubitada basándose en el tono de color

principalmente. Esta técnica se muestra muy poco reve-

ladora a la hora de formar posibles compatibilidades, pero

su potencial reside en su poder de exclusión, ya que si

una muestra difiere muy notablemente de color respecto

a la otra (pensemos en pintalabios color marrón y otro

color rojo cereza) podría asegurar con certeza que se trata

de productos distintos (sin perjuicio de poder realizar más

análisis). Por otro lado, el analista puede valerse de los

distintos tipos de microscopios disponibles para observar

aspectos como los agentes perlantes, lo cual ayudaría a

dar mayor solidez a las posibles asociaciones y exclu-

siones entre muestras.

➢ TÉCNICAS CROMATOGRÁFICAS

Debemos decir que las técnicas cromatográficas (del

griego chroma-graphia, escritura en color) son las reinas

en el campo del análisis de la evidencia cosmética por

varios motivos: la gran mayoría de ellas son simples, rápi-

38

das, de bajo coste, versátiles y requieren una muestra

relativamente pequeña. Su uso respecto del total de téc-

nicas empleadas supera ampliamente al resto, copando

en torno al 60% de los análisis empleados para estos fines

[3].

Sus orígenes se remontan al año 1906, momento en que

el biólogo ruso M.S Tsweet consiguió separar los distintos

componentes coloreados de un extracto vegetal (aunque

hoy en día pueden ser usadas para sustancias incoloras

que posteriormente son nebulizadas con un compuesto -

por ejemplo el yodo- que reacciona con la muestra y

emite fluorescencia bajo determinadas longitudes de on-

da, como la UV) [9].

4.2 TLC (Thin Layer Chromathograpy)

Se trata de uno de los análisis más utilizados por los an-

alistas forenses cuando de lo que se trata es de analizar

una evidencia cosmética debido a que cumple en gran

parte todos los postulados que forman el método ideal de

análisis (rápido, reproducible, barato, necesidad de poca

muestra o sin preparación de muestra y no destructivo).

Consiste en la separación de los componentes de la

muestra (habiendo retirado previamente ceras y grasas en

el caso de pintalabios, ya que interfieren en los resulta-

dos) sobre una delgada capa de fase estacionaria (nor-

malmente una placa de silica gel). La muestra, en can-

tidades muy pequeñas (menos de 10 µg), se coloca en un

extremo de la placa a unos 2 cm del borde inferior. La

separación se efectúa en un espacio cerrado que contiene

una fase móvil (los forenses utilizan varios disolventes

para conseguir la separación deseada, desde cloruro de

metileno para colores solubles en aceite hasta acetona, el

cual ha demostrado ser uno de los mejores para separar

los componentes de los pintalabios), la cual asciende por

la placa gracias al efecto de capilaridad. Cuando la fase

móvil asciende hasta 2-3 cm del borde superior de la

placa la separación se detiene [10]. Posteriormente se

comparan los factores de retención de cada muestra con

la muestra a comparar (pero esta técnica adolece de que

los resultados entre distintas muestras pueden ser muy

similares debido a que los componentes utilizados por los

fabricantes suelen ser muy parecidos - algunos autores

como A. Srivastava [5] han encontrado el mismo factor de

retención en 5 de las 10 muestras de pintalabios analiza-

das-, es por ello que debe utilizarse como una técnica no

confirmatoria, sino presuntiva).

Fig.3 Reproducción de TLC

4.3. HPLC (High Performance Liquid Chromatography)

Esta técnica de separación se basa en la distinta distribu-

ción de los componentes de una muestra entre dos fases:

una fase estacionaria, situada en el interior de un tubo

estrecho o columna y una fase móvil líquida que se mue-

ve a través de la primera, arrastrando en su movimiento a

la muestra [10].

Fig. 4 Reproducción de HPLC

Es ampliamente utilizada en áreas como la farmacológica,

la industria alimentaria y biotecnológica. En el caso que

nos atañe, la HPLC es usada para la separación de mues-

tras y para una determinación cualitativa (también cuanti-

tativa) de sus componentes. Se emplea para discriminar

distintos cosméticos basándose en el cromatograma ca-

racterístico generado para cada uno.

Fig. 5 Cromatograma ejemplificativo

Para el caso de cosméticos, es utilizado para detectar sus-

tancias como filtros UV, antioxidantes, conservantes,

agentes blanqueadores, etcétera. En contraposición a la

TLC, mencionada en el apartado anterior, esta técnica re-

quiere más muestra (entre 30-50 µg), más tiempo de aná-

lisis y el riesgo de que los materiales colorantes emplea-

dos interfieran en los resultados (es por ello que se reco-

mienda utilizar papel de filtro blanco para mitigar esa in-

terferencia) [6].

Respecto a la pregunta de si un pintalabios sin utilizar

presentaría el mismo cromatograma que un pintalabios

utilizado, Reuland y Trinler realizaron un estudio [11] para

comprobarlo. Detectaron que tras una hora y media algu-

nos picos del cromatograma desaparecían (debido a la

evaporación de compuestos volátiles y aquellos mezcla-

dos parcialmente con agua) e incluso en otros aparecían

nuevos picos. En conclusión, debe tomarse con mucha

precaución el cromatograma resultante de esta técnica en

39

caso de un pintalabios ya usado.

4.4 GC (Gas Chromathograpy)

En cromatografía de gases la separación de los compo-

nentes de la muestra problema se lleva a cabo en base a

su distinto reparto entre una fase gaseosa que fluye (fase

móvil o gas portador) y una fase estacionaria (que suelen

ser columnas de capilares o tubulares abiertas) [10].

Fig. 6 Reproducción de Cromatográfo de gases

Esta técnica es utilizada para analizar los componentes

orgánicos volátiles de los productos cosméticos. Con la

llegada de las columnas de capilares en conjunción con

un horno que proporciona una temperatura estable, se ha

permitido discriminar aquellas ceras con gran peso mole-

cular (un pintalabios está formado hasta en un 15% por

ceras). Este poder de discriminación resulta muy útil si

tenemos en cuenta que los fabricantes utilizan diferentes

combinaciones de ceras (de abeja, de carnauba) en pro-

porciones variables, lo cual muestra distintos y complejos

cromatogramas. El problema reside en que con el aumen-

to del número de fabricantes algunos cromatogramas se

vuelven indistinguibles, en especial aquellos que utilizan

ceras similares en sus productos, lo cual limita el poder de

discriminación de esta técnica. El potencial de esta técnica

está muy limitado en función del detector usado y es más

recomendable su uso combinado con otras técnicas que

permitan una mayor discriminación entre muestras.

4.5. GC-MS (Gas Chromatography Mass Spectrometry)

Esta técnica no es más que un cromatógrafo de gases

(GC) acoplado a un espectrómetro de masas (MS), me-

diante el cual se pueden separar, identificar y cuantificar

mezclas complejas de sustancias químicas [12].

Fig. 7 reproducción de Cromatógrafo de gases

con espectrómetro de masas acoplado

Ha sido satisfactoriamente empleada en el análisis de

cremas y perfumes, pintalabios, eyeliners y esmalte de

uñas, pero su potencial de discriminación es limitado por

aquellos productos que han sido fabricados con compo-

nentes muy similares. En algunos estudios [13] fueron

analizados 21 brillos de labios y solo 6 mostraron un úni-

co patrón iónico; además, el coste de la instrumentación

es alto.

➢ TÉCNICAS ESPECTROSCÓPICAS

Los métodos espectrométricos o técnicas espectroscópi-

cas son aquellos empleados en química que se funda-

mentan en la interacción de la radiación electromagnética,

u otras partículas, con un analito (nuestra muestra pro-

blema) para identificarlo o determinar su concentración.

En estos casos, el instrumento que realiza tales medidas

es un espectrómetro o espectrógrafo.

4.5. Espectroscopía Infrarroja

La espectroscopia infrarroja (espectroscopia vibracional)

implica una interacción de radiación infrarroja con la

muestra que deseamos analizar. El método de la espec-

troscopia infrarroja se realiza con un instrumento llamado

espectrómetro infrarrojo (o espectrofotómetro) que pro-

duce un espectro donde puede observarse la absorbancia

de la luz infrarroja en función de la longitud de onda em-

pleada en la muestra.

Se ha descrito esta técnica como útil por sus buenos re-

sultados en este campo y la necesidad de una muestra de

tamaño muy reducido. Produce un análisis rápido y los

resultados de este son altamente reproducibles. El uso

más importante descrito en el análisis de muestras cos-

méticas ha sido en la identificación de componentes or-

gánicos (grupos funcionales) debido a que su espectro es

generalmente complejo y nos da muchos valores que

pueden ser usados para discriminar entre muestras.

La aplicación de herramientas estadísticas como el Análi-

sis de componentes principales, Análisis Clúster o el Coe-

ficiente de Correlación a esta técnica ha permitido incre-

mentar el poder de discriminación de este análisis, ya que

espectros similares para el ojo humano pueden ser clasifi-

cados y agrupados con ayuda de estas herramientas, lo

cual hace que los resultados y compatibilidades sean más

objetivos.

4.6. Espectroscopía Raman

Nos encontramos ante una técnica analítica que permite

la identificación molecular no destructiva de nuestra

muestra dubitada, siendo altamente valiosa por ello. Per-

mite incluso la identificación molecular de la muestra du-

bitada aun encontrándose ésta en un soporte de plástico

transparente, como una bolsa de almacenamiento de

pruebas.

La técnica consiste en hacer incidir una longitud de onda

concreta sobre nuestra muestra. La luz atravesará las mo-

léculas dando en su salida una longitud de onda igual que

la que la incidió (recibe el nombre de Rayleigh y no apor-

ta información sobre la composición de la muestra) y una

pequeña porción de longitud de onda diferente (llamada

Raman, que es la que nos aporta información sobre la

composición molecular de nuestra muestra), mostrando

40

un espectro único que posteriormente será comparado

con el de nuestra muestra indubitada.

Respecto a su aplicabilidad en lo que nos concierne, en un

principio se probó excitar muestras de pintalabios con

632.8 nm, pero las ceras y aceites interferían con los resul-

tados, mostrando solo 15 espectros únicos de las 62

muestras usadas [4]. Posteriormente se probó con 780 nm

y resultó que el 95% de 80 pintalabios mostró diferencias,

por lo que se ha mostrado esta longitud de onda como

adecuada para analizar muestras de pintalabios, que uni-

do a su rapidez, reproducibilidad y sensibilidad hace de

ella una gran técnica para emplear en evidencias cosméti-

cas.

Otros autores como J. Went et al. [4] han mostrado que

esta técnica es capaz de analizar muestras con una degra-

dación de dos años, mostrando 15 muestras de pintala-

bios de las 20 analizadas el mismo espectro pasado ese

tiempo. También se ha rebelado muy útil para analizar una

muestra sobre distintos soportes, mostrando también

variaciones muy pequeñas, a excepción de las muestras

de pintalabios sobre cigarrillos, ya que estos últimos han

sido tratados con dióxido de titanio (un agente blanquea-

dor) y algunos cosméticos también lo contienen, por lo

que se debería descartar el uso de esta técnica cuando el

soporte es un cigarrillo por aparecer sobrerrepresentado

este elemento.

5. CONCLUSIONES

El mundo real dista mucho de ser un ordenador que arro-

ja un resultado rápido, preciso y fiable, y aunque falta por

descubrir la técnica analítica ideal, hay algunos firmes

candidatos que se posicionan como tal, como la espec-

troscopía Raman o el ATR-FTIR.

Por otro lado, facilitaría mucho el trabajo de los analistas

la creación de una librería de datos compartida donde los

fabricantes vertieran sus documentos sobre la caracteriza-

ción, composición y propiedades de sus distintos produc-

tos cosméticos; así como la posibilidad de que estos mis-

mos fabricantes añadiesen componentes conocidos en

cantidades también conocidas que sirvieran de identifica-

dor único para un producto concreto.

REFERENCIAS

[1] Tying lipstick smears from crime scenes to specific brands,

https://www.acs.org/content/acs/en/pressroom/newsreleases/2

016/march/lipstick-forensics.html

[2] P. Romanowsky, Forensic science and cosmetics

https://chemistscorner.com/forensic-science-and-cosmetics/

[3] R. Chophi, S. Sharma, S. Sharma, R. Singh, “Trends in the forensic

analysis of cosmetic evidence”, Forensic Chemistry, no. 14, 2019.

[4] M.J Went et al., “Application of Raman spectroscopy for the

differentiation of lipstick traces”, Analytical Methods, vol. 5, no.

20, 2013.

[5] A. Srivastava, “Lipstick Stain: A Silent Clue for Criminal Identifica-

tion”, International Journal of Humanities and Social Science In-

vention, vol. 2, no. 12, 2013.

[6] J. Andrasko, “Fonresic analysis of lipsticks”, Forensic Science

International, no. 17, 1891.

[7] E. Bergslien, An introduction to Forensic Geoscience, pp. 11-12,

2012.

[8] R. Morrish’s, “The Police and Crime-Detection Today”, Oxford

University Press, 1940.

[9] M.J Gismera, Introducción a la cromatografía líquida de alta

resolución, 2012.

[10] I. Sierra, et al., Prácticas de análisis instrumental, Dykinson, 2008.

[11] D.J Reuland, W.A Trinler, “A comparison of lipstick smears by

high performance liquid chromatography”, J. Forensic Sci. Soc.,

vol. 20, no. 2, 1980.

[12] Gas Chromatography Mass Spectrometry (GC/MS),

http://www.bris.ac.uk/nerclsmsf/techniques/gcms.html

[13] M. Zellner, L. Quarino, “Differentiation of twenty-one glitter lip-

glosses by pyrolysis gas chromatography-mass spectroscopy”, J.

Forensic Sci., vol. 54, 2009.

[14] F. Salahioglu, M.J. Went, “Differentiation of lipsticks by Raman

Spectroscopy”, Forensic Sci. Int., no. 223, 2012.

Jesús Palomino Marchena cursa actualmen-te el quinto curso de Derecho y Criminología en la Universidad Pablo de Olavide (Sevilla).

41

Falsos positivos al volante Ángela Rodríguez Carrera

Resumen—Los controles de drogas en la conducción son prácticas cada vez más frecuentes y generalizadas, y sus resultados

tienen importante repercusión legal. Por ello, desarrollaremos la técnica en la que se basa la detección de drogas en el

organismo de los conductores y con especial relevancia los falsos positivos.

Palabras Claves—Conductores, control, drogas, falsos positivos, fluido oral.

—————————— ◆ ——————————

1. INTRODUCCIÓN

a Dirección General de Tráfico es la encargada de reali-

zar los controles de drogas en los conductores en todo

nuestro país. Todos los años, se lanzan campañas de

control de drogas tóxicas, estupefacientes y sustancias

psicotrópicas, pero ¿realmente sabemos en qué consis-

ten? ¿Conlleva algún riesgo? ¿Podemos negarnos a reali-

zar la prueba? Indagaremos sobre estas cuestiones e in-

tentaremos resolver algunas incógnitas que aun en la ac-

tualidad no quedan muy clarificadas.

Pero ¿en qué consiste un control de drogas? La técni-

ca en la que se basa esta comprobación científica se reali-

za mediante la utilización de un instrumento desarrollado

para tal fin. El objetivo de este método es obtener cono-

cimiento de si existe o no presencia de drogas en nuestro

organismo. Se tomará como muestra la saliva de la perso-

na requerida en el control ya que posee como ventaja que

se trata de una técnica no invasiva. Aunque hemos de

destacar que en algunas ocasiones también se realizan

extracciones de sangre a pesar de ser éstas un método

invasivo.

2. METODOLOGÍA Y SUSTANCIAS QUE SE ANALIZAN

Una vez que el/la conductor/a sea requerido por un agen-

te de la autoridad, éste le informará sobre sus derechos y

obligaciones. Entre ellos, que la prueba tiene carácter

obligatorio, por lo que no nos podemos negar a su reali-

zación ya que conllevaría a la comisión de un delito tipifi-

cado como tal en el Código Penal (SAP Murcia 274/2019 de 01/10/2019 [1] o SAP León 1033/2019 de 09/10/2019 [2]).

El procedimiento que se lleva a cabo en los controles de

drogas a los conductores por parte de los agentes de trá-

fico exige un proceso exhaustivo. Este minucioso proce-

dimiento se muestra en la Figura 1.

Figura 1. Esquema explicativo del proceso del control de drogas.

Si el/la conductor/a se niega a la realización de la prueba,

se considerará un delito contra la Seguridad Vial tipificado

en el artículo 383 del Código Penal que conlleva una “pe-na de prisión de seis meses a un año y privación del dere-cho a conducir vehículos a motor y ciclomotores de por tiempo superior a uno y hasta cuatro años” [3].

Simultáneamente a la realización de la prueba o a la

negación de toma de ésta, siguiendo un protocolo pre-

viamente establecido, el agente de la autoridad valorará

los signos aparentes o externos que presente el/la con-

ductor/a en cuestión tales como habla incoherente, titu-

beante y repetitiva, temblor, nerviosismo, embriaguez

aparente, etc. y que pudieran influir en la conducción.

Si el/la conductor/a se somete a la realización del control

de drogas, se obtendrá la primera toma de muestra de

saliva o fluido oral a la que se le denomina ‘indiciaria’ y

detecta la posible presencia de sustancias ilegales. En esta

prueba se puede detectar un consumo reciente de dis-

tintas sustancias psicotrópicas, estupefacientes o drogas

tóxicas como son el cannabis, cocaína, opiáceos,

anfetaminas y metanfetaminas. Si se da positivo en algún

tipo de sustancia, se toma una segunda muestra de saliva

a la que denominamos ‘confirmatoria’ cuyo objetivo es

detectar el tipo concreto de sustancia y su cuantificación.

Por último, se realiza una prueba de contraste si así lo

solicita el/la conductor/a mediante una muestra de sangre

extraída por personal sanitario en un centro hospitalario o

de salud que, siempre manteniendo la cadena de custodia

L

42

(en tubos precintados, dentro de neveras precintadas,

vehículos expresamente dedicados al transporte de mues-

tras biológicas…), se transportará junto con las otras dos

muestras de saliva hasta el laboratorio para su posterior

análisis. Es de destacar que si esta última muestra re-

sultase positiva el solicitante deberá pagar los gastos de

su realización.

En el laboratorio se recepcionan las muestras con su cor-

respondiente documentación adjunta, registrando la hora

y fecha de llegada para cumplir con exhaustividad la ca-

dena de custodia. A continuación, se procede a introducir

los datos en el Sistema de Gestión de Laboratorio medi-

ante el escaneado de muestras para que siempre se tenga

un control preciso de cada una de ellas. Los equipos

analíticos utilizados para la detección y cuantificación de

estas sustancias son un cromatógrafo de masas y un es-

pectómetro de gases. Estos aparatos son capaces de

medir más de 40 tipos diferentes de sustancias y en can-tidades tan pequeñas como un nanogramo [4].

Los resultados del análisis son revisados uno a uno por

personal facultativo especializado y se procede a la firma

del informe final de toxicología para su envío tanto a la

Jefatura provincial de la Dirección General de Tráfico co-

mo al Juzgado correspondiente. Dicho informe se incor-

pora al expediente y continúa su tramitación bien en vía

administrativa (sanción de 1.000€ y pérdida de 6 puntos [5]) o bien en vía penal (dónde el Código Penal en su ar-tículo 379 párrafo segundo en relación con el párrafo pri-mero establece para dicho delito contra la Seguridad Vial penas de prisión de 3 a 6 meses, o multa de 6 a 12 meses, o trabajos en beneficio de la comunidad de 30 a 90 días y privación del derecho a conducir de 1 a 4 años [6]).

3. TÉCNICAS UTILIZADAS PARA LA DETECCIÓN DE

DROGAS DE ABUSO Y FALSOS POSITIVOS

Las drogas tóxicas que se detectan en las técnicas utiliza-

das por los agentes de la Dirección General de Tráfico en

los controles a conductores son principalmente el canna-bis, cocaína, opiáceos, anfetaminas y metanfetami-nas [7].

Pero ¿con qué técnica se realiza la extracción y se de-

muestra la tipología de la sustancia?

En España, en los últimos años, el fluido oral ha sido con-

siderado como un medio biológico útil para la realización

de este tipo de controles. La determinación de drogas

presentes en la saliva se basa en que estas sustancias tóxi-

cas están presentes en la sangre y por el mecanismo de

filtración pasan a la saliva que se excreta por las glándulas

salivales [8].

La saliva posee numerosas ventajas [9] ya que es fácil su

obtención ya que se trata de una técnica no invasiva y

que, por lo tanto, al conductor no se le somete a situ-

aciones de estrés ni de otro tipo de incomodidad en el

caso de que se tenga que repetir la obtención. Por otro

lado, también su almacenamiento y transporte de la

muestra es sencillo y, en cuanto a su proceso, posee un

bajo coste. Con relación a su análisis en el laboratorio, la

saliva es una óptima muestra para poder trabajar con ella

ya que es sencillo realizar los procedimientos de di-

agnósticos con ella, no coagula y su manipulación es rela-

tivamente escasa.

En general, los dispositivos que coleccionan saliva se

componen de un sistema colector de este fluido y un tubo

de transporte. El algodón que se sitúa en el colector

recoge, en las mejores condiciones de salivación, un máx-

imo de un mililitro de fluido oral. Una vez que se ha

recogido la muestra se deposita en el tubo de transporte

el cual contiene una solución para preservar en perfectas

condiciones la muestra tomada hasta su llegada al corre-

spondiente laboratorio para su posterior análisis.

Nuestro país representado por la Dirección General de

Tráfico ha participado en numerosos proyectos sobre esta

área de trabajo. Especial relevancia posee el estudio de-

sarrollado sobre “Presencia de alcohol, drogas y medica-mentos en conductores españoles” en el cual se toman

muestras de saliva para validar un equipo denominado

Dräeger DrugTest 5000 [10]. Este estudio ha permitido

descubrir un nuevo método de colección de fluido oral en

los controles a conductores ya que, tal y como hemos

explicado anteriormente, utiliza el procedimiento de toma

de muestra de saliva no invasivo. Seguidamente a la ob-

tención de la muestra se inserta el instrumentos el cual

posee un material esponjoso que se encuentra compri-

mido y por el que la saliva queda impregnada en el apara-

to lector. Esta herramienta nos permite que el resultado

de la prueba pueda ser leído. Asimismo, el dispositivo

contiene un mecanismo útil el cual se encarga de con-

trolar que la prueba se haya realizado correctamente

apareciendo si es así una línea confirmatoria de normali-

dad. Los resultados que puede arrojar se pueden clasificar

en [11]: Verdadero positivo (se define como el número de muestras positivas confirmadas divido entre el número total de positivos obtenidos), Verdadero negativo (definido como el número de muestras que resultaron confirmadas negativamente dividido entre el número total de negativos obtenidos), Falso positivo (se define como el número de muestras confirmadas como negativas, pero que arrojaron ser positivas erróneamente divido entre el número total de positivos obtenidos) o Falso negativo (definido como el número de negativos que fueron con-firmados posteriormente como positivos dividido entre el número total de negativos obtenidos) Como podemos observar, hay veces en la que el detector

mide una sustancia que en realidad no es o viceversa. Por

ello, la sensibilidad del aparato utilizado en los disposi-

tivos de la Dirección General de Tráfico tiene que ser muy

patente y, más concretamente, en el caso de los falsos

positivos, la especificidad. La especificidad se define como

la proporción de casos que han resultado negativos y que,

posteriormente, se han confirmado como tales. Por lo

tanto, necesitamos que el equipo a utilizar en dichos

asuntos sea muy preciso para poder detectar correc-

tamente todo el conjunto de muestras obtenidas. Un re-

43

sultado denominado como falso positivo puede ocurrir en

cualquier prueba realizada en un laboratorio que posea

menos del cien por cien de especificidad. Esta característi-

ca se basa en la capacidad que posee el instrumento uti-

lizado para diferenciar a los conductores que están bajo la

influencia de las drogas y cuáles no.

Este instrumento posee algunas ventajas como la facilidad

de obtención de la muestra y la manejabilidad de esta

para su posterior análisis en el laboratorio puesto que no

requiere de mayor preparación. Sin embargo, aun existen

varios aspectos reprochables hoy en día a este instrumen-

to. El tiempo (unos diez minutos) que necesita el lector

para arrojar un resultado es aún cuestionable. A pesar de

ello, tampoco podríamos intentar aminorar considerable-

mente ese ´tiempo de espera´ ya que se podría afectar al

procedimiento y podría emitir otros resultados no fiables.

Por lo expuesto, a parte de la primera prueba realizada

para la detección de diversas sustancias tóxicas con el

analizador legalmente válido (en la actualidad, el denomi-

nado Dräeger DrugTest 5000) se realiza una segunda con

carácter evidencial por un sistema de contra análisis au-

torizado.

La técnica en la que se basa el instrumento utilizado hoy

en día por los agentes de la Guardia Civil de Tráfico en los

controles de drogas a conductores es de enzimoinmuno-

análisis que es el fundamento químico-toxicológico del

test en saliva. ELISA, como se le denomina a esta técnica

por sus siglas en inglés (Enzime Linked InmunoSorbent Assay) es un método biomolecular que emplea la especi-ficidad de un anticuerpo y la sensibilidad de los análisis de enzima para detector antígenos. Además de descubrir si hay presencia de dicha sustancia tóxica sirve también para cuantificarla [12]. Esta técnica es muy selectiva ya que su

base es la especificidad de la interacción del anticuerpo

con su antígeno, por lo tanto, si el antígeno no se encuen-

tra en la muestral el anticuerpo de detección no se fija. No

obstante, a pesar de ser una técnica ultrasensible [13],

existen varias limitaciones en dicho procedimiento debido

a que pueden influir algunas sustancias que son interac-

ciones no específicas y que pueden obtenerse por ello

falsos positivos debido a reacciones cruzadas. Los anti-

cuerpos del que se vale este análisis están diseñados pre-

cisamente para detectar sustancias estupefacientes, tóxi-

cas y/o psicotrópicas. Sin embargo, cuando el anticuerpo

reconoce de manera errónea como antígeno una molécu-

la que posea una estructura química similar a este. Es lo

que ocurre con algunos medicamentos [14] los cuales

poseen estructuras químicas similares a estas drogas que

pueden reaccionar a los reactivos contenidos en el in-

strumento y originar los falsos positivos. Por todo ello, al

ser la especificidad del anticuerpo para el antígeno menor

del cien por cien se producen las reacciones cruzadas y

temenos que clasificar esta técnica como presuntiva.

4. ESTADÍSTICAS EN ESPAÑA

En nuestro país, la Fiscalía General del Estado anualmente

publica una memoria abarcando diferentes áreas de tra-

bajo. En uno de estos ámbitos se encuentra la Fiscalía An-

tidroga la cual, en la última Memoria publicada en el año

2018, se arrojan unos valores espeluznantes en cuanto a

los positivos en sustancias tóxicas en los conductores de

nuestro país.

En 2017, que son los últimos datos que tenemos hasta

que se publique la memoria del año 2019 que corre-

sponderá a los datos del año 2018, ha crecido considera-

blemente el volumen de controles de detección de

drogas, que “alcanzaron el número de 89.812, lo que supone un incremento del 37,8 % respecto del año 2016.

Estamos ante las más altas cifras de controles de detec-ción de drogas y de expedientes sancionadores correla-tivos desde que se generalizaron en nuestro país en el año 2012” [15].

En lo referente a las drogas, tal y como detallan los in-

formes de la Dirección General de Tráfico, durante “el tres

y el nueve de junio de 2019, de las 3.826 pruebas de de-

tección de drogas que se realizaron a conductores, 1.360

resultaron positivas en los test indiciarios, de ellos, 1.166

detectados en controles preventivos, 139 tras haber co-

metido una infracción y 55 por estar implicado en un ac-

cidente”.

“De los 1.360 conductores que dieron positivo a drogas, a

14 de ellos se les instruyó diligencias para su posterior

traslado a la autoridad judicial, a 10 por conducir bajo las

influencia de drogas tóxicas, estupefacientes o sustancias

psicotrópicas y a los 4 restantes por negar a someterse a

dichas pruebas” [16].

Siguiendo una tendencia habitual, “las drogas más con-

sumidas son el cannabis (959 casos), la cocaína (524

casos) y las anfetaminas (197casos). Por ello, se diseñaron

las pruebas salivares para la detección de la presencia de

drogas en los conductores y las cuales se están incremen-

tando progresivamente con la idea de llegar a gener-

alizarse como las que se hacen para la detección del alco-

hol” [17].

Por último, es de destacar que, según López-Rivadulla,

Manuel, González-Luque, Juan Carlos y Álvarez González,

Francisco Javier, “la conducción después del consumo de

sustancias psicoactivas es un hecho frecuente en España,

alcanzando el 17% de los conductores españoles. Casi un

11% de conductores conducen tras haber consumido ot-

ras sustancias psicoactivas distintas al alcohol y que el

cannabis y cocaína explican la mayor parte de los casos

positivos a drogas” [18].

5. CONCLUSIONES

Las pruebas de control de drogas realizados por la Direc-

ción General de Tráfico en las carreteras españolas poseen

varias limitaciones al obtener la toma de muestra medi-

ante fluido oral. La principal es la tecnológica, ya que, co-

44

mo es habitual, está avanza de manera muy rápida y se

produce una ausencia de conocimientos por parte del ser

humano. Las técnicas utilizadas carecen del cien por cien

de sensibilidad y especificidad, con relación a las concen-

traciones de los analitos en saliva. En consecuencia, los

falsos positivos son prácticas más frecuentes de lo que

podemos imaginar. Por lo tanto, se debe seguir investi-

gando a fin de mejorar y perfilar dichos métodos de de-

tección para que puedan ser totalmente precisos.

Como consecuencia del aumento significativo de la pres-

encia de drogas en la conducción en España y teniendo

consciencia la sociedad de nuestro país que se trata de

uno de los problemas más graves para la Seguridad Vial,

el Gobierno dictó una Ley específica que entró en vigor en

el año 2014 donde se recoge la “tolerancia cero” en cuan-

to los efectos de las drogas durante la conducción. En

este sentido, el hecho de sancionar la sola presencia de

drogas en el organismo puede dar lugar a los denomina-

dos falsos positivos. Esto es así ya que la detección medi-

ante la saliva puede hallar restos de consumo de hasta

varios días antes del momento de realización de la prueba

ya que existen sustancias que perduran en el organismo,

aunque no se esté bajo sus efectos. Asimismo, algunos

medicamentos de prescripción habitual por los faculta-

tivos pueden poseer una estructura similar a las drogas

que detecta el dispositivo utilizado y pueden provocar

reacciones cruzadas.

A pesar de que la sensibilidad y la especificidad de los

instrumentos utilizados en los controles de drogas ac-

tualmente en nuestro país no ostenta un cien por cien de

fiabilidad, se ha conseguido bastante en estos últimos

años. Por lo tanto, en un futuro próximo se podrá mejorar,

seguramente, estos valores. Todo es cuestión de tiempo.

REFERENCIAS

[1] “Sentencia de la Audiencia Provincial de Murcia. Nº resolución:

274/2019 de 01/10/2019” en buscador CENDOJ (Centro de

Documentación Judicial del Consejo General del Poder Judicial).

http://www.poderjudicial.es/search/AN/openDocument/cd9104

18a54fc24c/20191030 (Enlace web)

[2] “Sentencia de la Audiencia Provincial de León. Nº resolución:

1033/2019 de 09/10/2019” en buscador CENDOJ (Centro de

Documentación Judicial del Consejo General del Poder Judicial).

http://www.poderjudicial.es/search/AN/openDocument/39f259d

412860f46/20191108 (Enlace web)

[3] “Artículo 383 del Código Penal” en Página Web del Boletín Ofi-

cial del Estado (BOE). https://www.boe.es/buscar/pdf/1995/BOE-

A-1995-25444-consolidado.pdf (Enlace web)

[4] Gomis Yagües, Vicente: “Tema 3: Cromatografía de gases y Tema

5: Espectrometría de masas” del Repositorio Institucional de la

Universidad de Alicante. 2008.

https://rua.ua.es/dspace/bitstream/10045/8249/4/T5masas.pdf

(Enlace web)

[5] “Tabla de sanciones y multas de tráfico de la DGT” en Página

Web Oficial de la ITV (Inspección Técnica de Vehículos).

https://itv.com.es/tabla-sanciones-dgt (Enlace web)

[6] “Artículo 379 párrafo segundo en relación con el párrafo prime-

ro del Código Penal” en Página Web del Boletín Oficial del Es-

tado (BOE). https://www.boe.es/buscar/pdf/1995/BOE-A-1995-25444-

consolidado.pdf (Enlace web)

[7] “Artículo 379 párrafo segundo en relación con el párrafo primero del

Código Penal” en Página Web del Boletín Oficial del Estado (BOE).

https://www.boe.es/buscar/pdf/1995/BOE-A-1995-25444-

consolidado.pdf (Enlace web)

[8] González-Luque, Juan Carlos y Quintela-Jorge, Oscar: “La determinación

de drogas en fluido oral en conductores de vehículos: ¿se abre el

camino a la intervención preventiva?” en Revista Española de Drogode-

pendencia. 2011. https://www.aesed.com/upload/files/vol-36/n-

3/v36n3_7.pdf (Enlace web)

[9] González-Luque, Juan Carlos y Quintela-Jorge, Oscar: “La determinación

de drogas en fluido oral en conductores de vehículos: ¿se abre el

camino a la intervención preventiva?” en Revista Española de Drogode-

pendencia. 2011. https://www.aesed.com/upload/files/vol-36/n-

3/v36n3_7.pdf (Enlace web)

[10] López-Rivadulla, Manuel et al.: “Evaluación del Dispositivo Dräeger

Drugtest 5000 para la detección de drogas de abuso en saliva”. Grupo

de Trabajo sobre Control de drogas en el tráfico Rodado y Servicio de

Toxicología Forense del Instituto Universitario de Medicina Legal. Santi-

ago de Compostela, Noviembre 2011.

http://www.dgt.es/Galerias/seguridad-vial/investigacion/estudios-e-

informes/INFORME-EVALUACION-DEL-DISPOSITIVO-DRAEGER-

DRUGTEST-17.pdf (Enlace web)

[11] López-Rivadulla, Manuel et al.: “Evaluación del Dispositivo Dräeger

Drugtest 5000 para la detección de drogas de abuso en saliva”. Grupo

de Trabajo Control de drogas en el tráfico Rodado y Servicio de Toxi-

cología Forense del Instituto Universitario de Medicina Legal. Santiago

de Compostela, Noviembre 2011.

http://www.dgt.es/Galerias/seguridad-vial/investigacion/estudios-e-

informes/INFORME-EVALUACION-DEL-DISPOSITIVO-DRAEGER-

DRUGTEST-17.pdf (Enlace web)

[12] Bernett, Chloe: “Usos de ELISA” en Página Web News Medical Life Sci-

ences. Junio 2019. https://www.news-medical.net/life-sciences/ELISA-

Applications-(Spanish).aspx (Enlace web)

[13] Sánchez Martínez, Pilar María: “La saliva como fluido diagnóstico”. UGC

Bioquímica Clínica. Hospital Universitario Virgen Macarena. Sevilla.

2012-2013.

http://www.seqc.es/download/tema/7/3324/346271904/840334

/cms/tema-8-la-saliva-como-fluido-diagnostico.pdf/ (Enlace web)

[14] “Drogas, medicamentos y falsos positivos al volante” en Página Web de

Asociación Española de Automovilistas. Febrero 2017.

https://aeaclub.org/drogas-medicamentos-y-falsos-positivos-

al-volante/ (Enlace web)

[15] Segarra Crespo, Maria José: “Memoria Anual”. Presentada al inicio del

año judicial por la Fiscalía General del Estado. Madrid, 2018.

https://www.fiscal.es/memorias/memoria2019/FISCALIA_SITE/in

dex.html (Enlace web)

[16] “Más de 470 conductores son detectados cada día al volante habiendo

consumido alcohol o drogas”. Nota de prensa de la Dirección General

de Tráfico (DGT) publicada en la Revista Nacional en su Web Oficial el 13

de junio de 2019. http://www.dgt.es/Galerias/prensa/2019/06/NP-

Resultados-campana-DGT-alcohol-drogas-junio-2019.pdf (Enlace web)

[17] “Más de 470 conductores son detectados cada día al volante habiendo

consumido alcohol o drogas”. Nota de prensa de la Dirección General

de Tráfico (DGT) publicada en la Revista Nacional en su Web Oficial el 13

de junio de 2019. http://www.dgt.es/Galerias/prensa/2019/06/NP-

Resultados-campana-DGT-alcohol-drogas-junio-2019.pdf (Enlace web)

[18] López-Rivadulla, Manuel, González-Luque, Juan Carlos y Álvarez Gonzá-

lez, Francisco Javier: “Prevalencia de consumo de sustancias psicoactivas

45

en conductores españoles. Resumen de principales resultados. DRUID-

Project WP2”. Universidad de Santiago de Compostela, Sapienza Uni-

versidad de Roma, Ministerio del Interior y La Dirección General de Tráfi-

co (DGT). Diciembre 2011. https://slideplayer.es/slide/3470276/ (Enlace

web)

Orden, B. y González Marcos, M.I.: “Pruebas de detección rápida para el

diagnóstico. Infecciones respiratorias”. 2015.

https://monograficos.fapap.es/adjuntos/monografico-respiratorio-

2/04_pruebas_deteccion_rapida.pdf (Enlace web)

“Cómo se hace un control de drogas, paso a paso” de la Dirección Gen-

eral de Tráfico (DGT) publicada en la Revista Nacional en su Web Oficial

el 3 de julio de 2018. http://revista.dgt.es/es/sabia-

que/normas/2018/0703como-se-hace-un-control-de-

drogas.shtml#.XfIR35NKjIW (Enlace web)

“Así se hace un control de drogas” de la Dirección General de Tráfico

(DGT) publicada en la Revista Nacional en su Web Oficial en junio de

2019. http://revista.dgt.es/es/multimedia/video/2019/06JUNIO/0603-

Control-alcohol-drogas.shtml#.XbarQpJKjIU (Enlace web)

“25.000 pruebas diarias de alcohol y drogas” de la Dirección General de

Tráfico (DGT) publicada en la Revista Nacional en su Web Oficial el 3 de

junio de 2019.

http://revista.dgt.es/es/noticias/nacional/2019/06JUNIO/0603-Control-

alcohol-drogas.shtml#.Xbat45JKjIU (Enlace web)

“Tenemos un problema” de la Dirección General de Tráfico (DGT) publi-

cada en la Revista Nacional en su Web Oficial el 3 de julio de 2018.

http://revista.dgt.es/es/reportajes/2018/07JULIO/0703drogas-tenemos-

un-problema.shtml#.XbavQJJKjIV (Enlace web)

“Los efectos de las drogas en la conducción” de la Dirección General de

Tráfico (DGT) publicada en la Revista Nacional en su Web Oficial el 3 de

junio de 2015. http://revista.dgt.es/es/opinion/encuentros-

digitales/2015/200150603encuentro-digital-sobre-drogas-juan-

carlos.shtml#.XdJbNtVKjIV (Enlace web)

“Alcohol y Drogas-Controles” de la Dirección General de Tráfico (DGT)

publicada en la Revista Nacional en su Web Oficial.

http://revista.dgt.es/es/categorias/alcohol-y-drogas-controles.shtml (En-

lace web)

Ángela Rodríguez Carrera. 1997. Natural de Peñaflor (Sevilla). Alumna del quinto curso del Doble Grado de Derecho y Criminología en la Universidad Pablo de Olavide (Sevilla).

46

Plaguicidas: Un Riesgo Latente. Sara Cobo Domínguez

Resumen— Un plaguicida es cualquier sustancia destinada a prevenir, destruir, atraer, repeler o combatir cualquier plaga, incluidas las

especies indeseadas de plantas o animales, durante su producción, transporte, distribución y elaboración de alimentos para animales.

Además de usarse en la agricultura, se emplean para controlar vectores de enfermedades tropicales, como los mosquitos, y así proteger

la salud pública.

Palabras Claves— Intoxicación, Contaminación, Plagas, Agricultura, Químicos.

—————————— ◆ ——————————

1. INTRODUCCIÓN

En el uso de los plaguicidas podemos señalar a principios

del siglo pasado, donde se pueden distinguir distintas fases

de desarrollo histórico. La primera señala el

descubrimiento de la acción del plaguicida de algunos

compuestos como el azufre, siendo una época de avances

lentos. La segunda etapa presenta un desarrollo más

rápido y comienza en el año 1992, donde Holanda

introduce el uso de los aceites insecticidas. Y la última fase,

se desarrolla el descubrimiento de las propiedades

insecticidas del Dicloro Difenil Tricloroetano (DDT), llevado

a cabo por Müller en 1940. Con ello se desarrollan las bases

científicas de investigaciones posteriores. [3]

Los plaguicidas no son necesariamente venenos, pero

pueden ser tóxicos para los humanos u otros animales. En

la definición de plaga se incluyen insectos, hierbas,

microbios, hongos… aquellos organismos que aparecen de

manera súbita y en gran cantidad, generando diferentes

daños a las personas y cultivos entre otros. Por lo tanto, su

finalidad es evitar la propagación de los seres vivientes que

se constituyen como plagas. [1]

El término de plaguicida está más ampliamente

difundido que el nombre genérico: biocida. Su desarrollo

fue esencial para el crecimiento de la agricultura. Gracias a

su efectividad y su bajo costo, permitió en 1980 proteger

los cultivos de casi cualquier amenaza. Sin embargo, a la

larga, se demostró que el uso de plaguicidas afecta al

medioambiente e incluso puede modificar plagas,

haciéndolas más resistentes. [2]

2. DISTINTOS TIPOS DE PLAGUICIDAS

Los plaguicidas se pueden clasificar en distintos tipos;

según el tipo de organismo que se desea controlar, ya sea

animal, vegetal o microbiana; según el grupo químico del

principio activo; según su persistencia al medio ambiente

y, por último, según su toxicidad aguda, expresada como

el valor DL50. En base a esto, podemos distinguir distintos

tipos. [4]

2.1. Insecticidas

Los insecticidas son productos químicos utilizados para

controlar o matar insectos portadores de enfermedades. Se

suelen utilizar principalmente en los huertos, granjas, casas,

almacenes y se usan en una amplia variedad de cultivos

como maíz, tabaco, plantas hortícolas. A veces también se

utilizan para controlar a las termitas.

En cuanto a sus características destacamos su gran

especificidad, su baja toxicidad en humanos, bajas dosis

letales, también su bajo coste y por ser latente. [5]

Los dos tipos principales son: En primer lugar, los

organoclorados, los primeros en ser empleados en

fumigaciones masivas, comprenden los derivados clorados

del etano, entre cuyos compuestos se encuentra el DDT;

además, derivados como clordano, aldrina, dieldrina,

heptacloro, endrina y toxafeno, y compuestos relacionados

con el hexaclorociclohexano como el lindano (Fig.1). Se

caracteriza por permanecer durante mucho tiempo en el

ambiente, se dice que son persistentes, lo cual, la

utilización de estos productos en hogares hace que la

inhalación en hogares sea más perjudicial en personas.

Para que un compuesto químico actúe como insecticida

necesita ser liposoluble, lo que facilita su paso por la

quitina. Se emplean como insecticidas y como acaricidas.

[6]

Figura 1. Composición de los insecticidas organoclorados.

En segundo lugar, podemos destacar los insecticidas

organofosforados, se trata de aquellas sustancias orgánicas

47

derivadas del ácido fólico (Fig,2), se absorben por

intermedio de los lípidos del caparazón de los insectos. Se

encuentran ampliamente extendidos en la actualidad, ya

que son muy utilizados por el medio laboral como

doméstico. El manejo incorrecto es responsable de un gran

número de intoxicaciones agudas y actualmente, se da más

importancia a este tipo de insecticidas. Se caracterizan por

ser un sustituto de DTT en Europa. Perduran menos que los

clorados, pero pueden provocar graves daños y a pesar de

estar prohibidos en muchos países, que sea muy

económico hace que aún se permita en ciertos lugares. [7]

Figura 2. Composición de los insecticidas organofosforados.

2.2. Herbicidas

Se trata de un producto químico que permite destruir las

hierbas indeseadas. Su acción principal suele ser

concentrarse en las hormonas de las plantas para impedir

que éstas crezcan. Algunos de ellos deben aplicarse sobre

las plantas que se desean eliminar, mientras que otros se

echan en el suelo.

Su acción es de corto plazo, sin embargo, los herbicidas

que se aplican sobre el terreno, tienen una duración a largo

plazo. Están los derivados de las triazinas y derivados de la

urea, impidiendo la fotosíntesis.

Podemos dividirlos en dos tipos: en primer lugar, los

selectivos, estos afectan a un tipo específico de plantas,

eliminando aquellas no deseadas sin provocar algún tipo

de daño al resto de los cultivos. En segundo lugar, los no

selectivos, al contrario que los selectivos, destruyen una

variedad de plantas, es por ello que suelen usarse en

carreteras o zonas industriales.

Los herbicidas pueden provocar graves daños al medio

ambiente, animales o personas por su toxicidad, por lo que

se deben de administrar con responsabilidad. Pueden

llegar a alterar la fertilidad del suelo y, por lo tanto, atentar

contra la productividad agrícola. [8]

2.3. Fungicidas

Los fungicidas se tratan de sustancias tóxicas empleadas

para impedir el crecimiento o para la eliminación de

hongos y mohos perjudiciales en plantas o animales. Si

estos son usados en exceso pueden causar daños

fisiológicos.

La mayoría de ellos se fumigan o espolvorean sobre

semillas, hojas o frutas y su aplicación pueden ser mediante

rociado, pulverizado, revestimiento o por fumigación. Se

pueden clasificar según su modo de acción, su

composición y su aplicación.

Según su modo de acción, se pueden encontrar los

llamados protectores, aplicados antes de que lleguen las

esporas de los hongos, actuando solamente en su

superficie donde los hongos se han depositado y así evitar

que germinen y penetren las células. Y los erradicadores,

aplicados para aquellas plantas que ya están enfermas por

hongos, absorbido a través de la raíz y se movilizan por

toda la planta.

Según su composición, se pueden encontrar numerosos

tipos como compuestos de cobre, de mercurio, de estaño,

metálicos, extractos vegetales, aceites…

Según su aplicación se usan en revestimientos de

semillas, para desinfección del suelo y para aplicación

sobre las plantas. [9]

3. EFECTOS AMBIENTALES Y EN LA SALUD.

El uso cotidiano de estos químicos contribuye a la crisis de

la agricultura que dificulta la preservación de los

ecosistemas, recursos naturales, y, además, afecta a la salud

de la comunidades rurales y consumidores. Algunos de los

plaguicidas han sido identificados como un peligro a largo

plazo para el medio ambiente e incluso están prohibidos o

restringidos por convenios internacionales.

En cuanto a los efectos provocados en el medio

ambiente, se da principalmente por aplicaciones directas

en el cultivo, lavado inadecuado, filtraciones en los

depósitos de almacenamiento y residuos, derrames

accidentales, uso inadecuado de la población, entre otros.

Estos factores son la causa de la distribución por la

naturaleza. Los restos de los plaguicidas se dispersan en el

ambiente y se convierten en contaminantes amenazando

la estabilidad. Cuando un plaguicida se mantiene en las

cadenas alimentarias, estos se distribuyen a través de ellas,

se concentran y se acumulan hasta que alcanzan una

concentración letal para algún organismo o bien hasta que

lleguen a niveles superiores.

La contaminación del aire tiene importancia cuando se

trata de aplicaciones por medio aéreos. Este efecto tiene

importancia si se llega a contaminar zonas habitadas o con

cultivos, ya que pueden ser muy sensible a los mismos.

La contaminación del suelo se debe a tratamientos

específicos y al tipo de suelo; los arcillosos y orgánicos

retienen más residuos que los arenosos. Los mayores

riesgos se presentan en plaguicidas organoclorados, ya

que son de difícil eliminación.

Por último, la contaminación del agua constituye

impurezas que pueden llegar a las personas directamente

48

mediante el agua potable, y de forma indirecta, a través de

la cadena biológica de alimentos. Pueden ser resistentes a

la degradación, y, en consecuencia, persistir largos

periodos de tiempo.

En cuanto a los efectos de los plaguicidas sobre la salud,

entran en contacto con las personas mediante las vías de

exposición; siendo respiratoria, digestiva y dérmica, ya que

pueden encontrarse en el aire inhalado, en el agua o en los

alimentos. Pueden tener efectos agudos y crónicos, siendo

agudos aquellas intoxicaciones de corto tiempo con

efectos localizados, y crónicos, aquellos vinculados a la

exposición por bajas dosis por un largo tiempo. Tendrán

un efecto negativo cuando el grado de exposición supere

los niveles considerados seguros.

Puede darse una exposición directa, como en el caso de

trabajadores de una industria, operación y agricultores, o

una exposición indirecta, en el caso de consumidores.

La toxicidad digestiva se debe a la ingestión de un

plaguicida con efectos tóxicos. Por inhalación se produce

al respirar una atmósfera contaminada por un plaguicida. Y

por la vía dérmica se centra en riesgos debidos al contacto

y absorción por la piel. (Fig.3) [10]

Figura 3. Afectados por el uso de los plaguicidas.

4. ALTERNATIVAS

Los productos naturales, utilizados antes de la llegada de

los químicos vuelven a ser demandados por la agricultura

ecológica, que, aunque no son del todo efectivos, algunas

plantas resisten a las plagas a modo de repelente natural.

En la actualidad se brinda el retorno a las fórmulas

orgánicas y naturales, y así, conseguir insecticidas

ecológicos a partir de extractos vegetales con fórmulas que

controlen y eliminen de manera eficaz determinadas

plagas.

Los responsables de las políticas, los simposios

nacionales sobre alternativas, los programas de manejos

integrado de plagas, los científicos, entre otros, han

catalizado la reforma de las políticas. Para ello se han

llevado a cabo dos enfoques: Manejo integrado de plagas

y Manejo ecológico de plagas. [10]

4.1. Manejo integrado de plagas

Fomenta el desarrollo de la agricultura orgánica, nuevas

estrategias de producción y el manejo de plaguicidas en

los cultivos intensos. Se añade un nuevo enfoque, donde el

hombre y su salud no se ven como un hecho

independiente. Se hace especial hincapié en el crecimiento

de cultivos sanos, el cual perturba lo menos posible los

ecosistemas agrícolas y fomenta los mecanismos naturales

de control de plagas.

Entre los elementos vitales está, el control biológico,

buenas prácticas agrícolas, el control físico, genético,

natural y legal, así como el uso de agentes de usa natural

como repelente, hormonas entre otros.

4.2. Manejo ecológico de plagas

Se aplica para los cultivos que se siembras en fincas de

pequeños agricultores, para el programa de agricultura

urbana y demás producciones de carácter agroecológico.

Donde el control biológico es la alternativa principal.

Algunas experiencias en el área de la Sanidad han

evidenciado una reducción total del uso de plaguicidas

químicos en un 63%.

Entre las principales alternativas se encuentran la

producción y uso de entomófagos, para debilitar más que

matar; entomopatógenos, capaz de causar una

enfermedad al insecto plaga; antagonistas y conservación

de enemigos naturales mediante la diversificación de los

sistemas, que actúan como biorreguladores de las plagas,

que aplican alternativas para el manejo de los organismos

que aloja el virus, bacterias y otros microorganismos que

pueden causar una enfermedad contagiosa, además de

propagarse.

5. CONCLUSIONES

Los plaguicidas son compuestos químicos que en un

principio han aportado beneficios al ser humano a lo largo

del tiempo y en la actualidad aún son prioritarios para su

utilización en áreas específicas.

Sin embargo, se han acumulado suficientes evidencias de

los riesgos para la salud y el ambiente que conlleva el uso

excesivo de los plaguicidas, además de comprometer la

sostenibilidad de los sistemas agrícolas, por lo que

correspondería a los gobiernos aplicar medidas de

mitigación antes los efectos provocados y a su vez,

encontrar alternativas.

Por otro lado, la falta de conocimiento sobre el uso de

los plaguicidas y sus efectos adversos, además de los

deseos por mejorar los cultivos, han llevado a los agrícolas

a dosificar mal los productos químicos con todos los

riesgos que esto significa. Por ello, es muy importante que

cada uno tomemos conciencia de cuidar nuestros recursos,

49

así como, saber cómo usarlos adecuadamente.

REFERENCIAS

[1] Plaguicida-Wikipedia Enciclopedia Libre

https://es.wikipedia.org/wiki/Plaguicida

[2] Definición- Qué es, Significado y Concepto

https://definicion.de/plaguicida/

[3] Antecedentes-Plaguicidas

http://tesis.uson.mx/digital/tesis/docs/22188/Anteced

entes.pdf

[4] Plaguicidas-Generalidades

http://sisbib.unmsm.edu.pe/BibVirtualData/Tesis/Salu

d/Milla_C_O/Generalidades.pdf

[5] Insecticidas- Qué es, Significados y Concepto

https://boletinagrario.com/ap-6,insecticida,480.html

[6] Nilda A.G.G.de Fernícola “Toxicología de los Insecticidas

Organoclorados”

http://hist.library.paho.org/Spanish/BOL/v98n1p10.pd

f

[7] E. Carod Benedico. Insecticidas organofosforados “De la guerra

química al riesgo laboral y doméstico”

http://scielo.isciii.es/scielo.php?script=sci_arttext&pid

=S1131-57682002000500005

[8] Herbicidas- Definición https://definicion.de/herbicida/

[9] Fungicidas- Wikipedia Enciclopedia Libre

http://es.wikipedia.org/wiki/Fungicida

[10] Dra. Asela M. Del Puerto rodríguez, Dra. Susana Suárez Tamayo,

Lic. Daniel E. Palacio Estrada “Efectos de los Plaguicidas sobre el

Ambiente y la Salud”

http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=

S1561-30032014000300010

Sara Cobo Domínguez, actualmente estudiante de

4º curso del Grado de Criminología en la

Universidad Pablo de Olavide.

50

Análisis de drogas de abuso en el humor vítreo

Álvaro Morales Rodríguez

Resumen— El análisis de drogas en el humor vítreo, como metodología prácticamente novedosa forense, resulta de gran

interés y utilidad para contribuir al esclarecimiento de hechos en investigaciones judiciales, debido a las favorables propiedades

anatómico-funcionales de dicha matriz. De esta forma, es posible desenmascarar hábitos tóxicos relacionados con el

fallecimiento a indagar. A pesar de ello, es necesaria una mejora de las técnicas de detección e interpretación de los resultados

obtenidos, así como crear criterios universales sobre su estudio.

Palabras Claves— - Drogas de abuso, humor vítreo, toxicología forense, hábitos tóxicos.

—————————— ——————————

1. INTRODUCCIÓN

as matrices biológicas con interés forense más em-pleadas para la detección de drogas de abuso inclu-yen el humor vítreo por sus condiciones anatómico-

funcionales. El auge de este tipo de análisis específicos data tras la publicación de un reporte sobre comparación de la concentración de barbitúricos entre una muestra de sangre y una muestra del humor vítreo emitido por Felby y Olsen en 1969, demostrándose su utilidad potencial en investigaciones judiciales.

2. ANATOMÍA DEL HUMOR VÍTREO

El humor vítreo es un líquido viscoso, transparente y al-calino (pH 7,5) situado en la cavidad extrema posterior del ojo llamada cámara vítrea, entre la superficie interna de la retina y la cara posterior del cristalino (Fig. 1).

Este fluido biológico está compuesto entre un 90% y un

99% por agua y el resto por colágeno y ácido hialurónico mayoritariamente, además de potasio, sodio, cloro, gluco-sa y proteínas, entre otros componentes. La proporción

celular es prácticamente mínima, con la excepción de cier-tas células involucradas en la síntesis de colágeno. De esta forma, el humor vítreo es una solución salina con baja concentración de proteínas. Sin embargo, estudios bio-químicos y biomicroscópicos demuestran que se trata de un complejo heterogéneo en cuanto a su composición. Cada globo ocular presenta un volumen de 2 mililitros de este, disponiéndose de un total de 4 mililitros por hu-mano aproximadamente, dependientes de la edad y del tamaño del ojo.

Además, carece de vascularización al no ser irrigado por ningún vaso sanguíneo y no se renueva desde su formación embrionaria.

Sus funciones principales son mantener la forma del ojo, permitir la transmisión de luz a la retina y que esta se halle uniforma para poder recibir imágenes.

3. PROCEDIMIENTO ANALÍTICO DEL HUMOR VÍTREO

Debido a su interés forense, el humor vítreo es aspirado directamente durante la autopsia legal para su posterior análisis, mediante punción de la cámara vítrea en el ángu-lo externo del ojo con una aguja hipodérmica de 30G montada en una jeringa de 5 mililitros (Fig. 3). El volu-men extraído es variable, entre 1 y 5 mililitros totales. El fluido debe recolectarse de cada ojo por separado, ya que es frecuente composiciones químicas diferentes entre sendos globos oculares.

————————————————

Álvaro Morales Rodríguez. Facultad de derecho, Universidad Pablo de Olavi-de [email protected].

L

Figura 2. CUERPO VÍTREO HUMANO.

1. Humor vítreo. Figura perteneciente a una muestra cortesía del New En-gland Eye Bank subida por Jerry Sebag.

Figura 1. ANATOMÍA DEL OJO HUMANO, figura tomada del Trabajo Final de Integración de la Carrera de Posgrado de Medicina Legal realizado por la Dra. Sonia Facal titulado Estu-dio sobre la detección de xenobióticos en humor vítreo en el campo de la medicina forense, page 7.

51

Para obtener los resultados deseados se sugiere un

análisis inmediato de las muestras vítreas. En caso de im-posibilidad deben ser almacenadas como máximo a 4ºC. El almacenamiento de las muestras es preferible que sea cada ojo por separado en tubos de 5 mililitros, con el obje-tivo de evitar la evaporación de sustancias volátiles de interés al limitar la superficie expuesta. En ocasiones, se emplean estabilizadores, como el fluoruro sódico o el fluoruro potásico, para bloquear cualquier actividad en-zimática que pueda generar o degradar determinados xenobióticos.

La alta viscosidad del humor vítreo desencadena poca repetibilidad en el estudio de un mismo electrolito pre-sente en la misma muestra por el mismo analista. Dada dicha naturaleza, existen multitud de técnicas preparati-vas de las muestras del humor vítreo destinadas al análi-sis, recomendándose la centrifugación combinada con agitación, entre otras.

Se dispone de una gran variedad de técnicas analíticas del humor vítreo como la cromatografía de gases, la cro-matografía líquida de alta resolución, la espectrometría de masas, la electroforesis capilar y el análisis inmunoen-zimático. Específicamente, se distinguen técnicas de pro-cesamiento presuntivas y técnicas de procesamiento con-firmativas.

Por un lado, las técnicas de procesamiento presuntivas suponen un análisis inicial con la finalidad de identificar muestras negativas. En caso de obtención de un resultado positivo es necesario un análisis complementario para su confirmación. Este tipo de metodología analítica se carac-teriza por ser sensible, rápida, económica y selectiva a familias de drogas de abuso. Los inmunoensayos enzimá-ticos, los inmunoensayos por fluorescencia polarizada, los radioinmunoanálisis y las cromatografías de capa fina son algunas de las técnicas de este tipo que se emplean para el análisis forense de drogas de abuso en el humor vítreo.

Por otro lado, las técnicas de procesamiento confirma-tivas constituyen un segundo análisis con el objetivo de identificar drogas de abuso con alta sensibilidad. Suelen aportar información cuantitativa y más confiable, con mayor validez legal. Generalmente, se utiliza un método basado en un principio químico distinto al empleado en las técnicas de procesamiento presuntivas. La cromato-grafía de líquidos acoplada a espectrometría de masas, la cromatografía de gases acoplada a espectrometría de ma-

sas y la electroforesis capilar acoplada a espectrometría de masas son algunas de las técnicas de este tipo usadas en investigaciones forenses para la detección de drogas de abuso en la matriz vítrea.

4. IMPORTANCIA FORENSE DEL ANÁLISIS DEL

HUMOR VÍTREO

En base a su estructura y composición, el humor vítreo es una matriz biológica idónea para la detección de sustan-cias tóxicas que hayan sido ingresadas por cualquier vía. Entre las sustancias detectables cabe destacar xenobióti-cos y fármacos como antidepresivos tricíclicos, barbitúri-cos o benzodiacepinas. Asimismo, pueden aislarse mar-cadores bioquímicos y electrolitos como ácido láctico, creatinina, glucosa o urea. En esta línea, también es posi-ble hallar drogas de abuso con un elevado interés forense, así como alcohol, cannabinoides, cocaína, codeína, heroí-na, metadona, metanfetaminas, morfina, MDMA, y oxi-codona, entre otras. De hecho, se ha observado que las concentraciones de drogas de abuso en la matriz vítrea suelen reflejar las concentraciones en sangre circulante entre una y dos horas previas al fallecimiento. Por ello, el humor vítreo supone una matriz alternativa en análisis post mortem de drogas de abuso, constituyendo una mues-tra muy útil en investigaciones de muertes donde la san-gre disponible está limitada en términos de calidad o can-tidad. En ocasiones, la circunstancia que rodea al falleci-miento dificulta el estudio toxicológico forense para el esclarecimiento de la causa de la muerte.

La matriz vítrea es relativamente sencilla en términos analíticos en comparación a las demás matrices biológicas de utilidad forense. Es conveniente su examen en muertes por shock hemorrágico, quemaduras o politraumatismos y en fenómenos de momificación o embalsamiento, entre otros. La ubicación anatómica del ojo en la órbita ósea contribuye a proteger el humor vítreo frente a traumas externos y a retrasar la captación y eliminación de drogas de abuso. También es una muestra privilegiada en etapas avanzadas de la putrefacción corporal por su aislamiento físico en el globo ocular junto a su lejanía anatómica del colon, protegiéndose de la contaminación externa, inva-sión de microorganismos y propagación de bacterias cor-porales. De la misma manera, no se ve afectado en gran medida por algunos cambios post mortem, como la redis-tribución.

A pesar de la no vascularización del humor vítreo, las drogas de abuso llegan al ojo por el torrente sanguíneo hasta los vasos retinales y penetran en la matriz vítrea por difusión simple a través de la barrera lipídica localizada entre la cavidad que la contiene y la sangre, conocida co-mo la barrera hematorretiniana. El bajo peso molecular, la no unión a proteínas y la alta hidrosolubilidad son facto-res que favorecen la difusión de este tipo de sustancias, correspondiéndose los hallazgos intravítreos con la frac-ción libre de los tóxicos circulantes en sangre. De este modo, es posible una relación directa entre la concentra-ción de tóxicos en el torrente sanguíneo y en el humor vítreo.

Figura 3. ÁREA Y ÁNGULO DE PUNCIÓN VÍTREA, figura tomada del Chapter Two, Pathophysiology of death in Knight’s Forensics Pathology, fourth editicion, page 87.

52

4.1. INCONVENIENTES DE SU ESTUDIO

El análisis del humor vítreo para la detección de dro-gas de abuso incluye una serie de desventajas relevantes que deben ser tenidas en cuenta para disponer de la ma-yor fiabilidad posible de dicha prueba en su presentación judicial.

En primer lugar, el escaso volumen presente de dicho fluido en sendos globos oculares limita los estudios que se pueden realizar, siendo más acusado en la fase más tardía de la vida de un individuo por el reemplazamiento del ácido hialurónico por el proteoglicano como principa-les componentes estructurales junto al glucógeno.

Por otra parte, se ha descrito el fenómeno de redistri-bución post mortem para ciertas drogas, ocasionando una liberación desde tejidos con mayor concentración hacia tejidos circundantes con menor concentración de las mismas. Algunos autores defienden la existencia de un cierto grado de difusión post mortem de algunas drogas de abuso desde el cerebro hacia el humor vítreo, problemati-zando su cotejo analítico. Por tanto, es posible la medición de concentraciones alteradas.

Las patologías, traumatismo y/o cirugías de los globos oculares pre-mortem pueden comprometer la validez de las muestras vítreas al alterar la barrera hematorretiniana y el consecuente examen de las presentes sustancias tóxi-cas. De la misma forma, el muestreo vítreo debe abortarse si la fiabilidad del análisis se desestabiliza por las condi-ciones de la matriz en general, así como rigidez, calcifica-ción u osificación ocular.

Asimismo, los tóxicos hidrofílicos poseen mayor pro-babilidad de concentración en el humor vítreo similar a la sanguínea, a diferencia de las sustancias lipofílicas o con elevada afinidad proteicas que pueden representar con-centraciones muy dispares en ambas matrices.

Realmente, la interpretación de resultados de muestras de la matriz vítrea resulta tener mayor dificultad que las muestras hemáticas o de orina en condiciones adecuadas, ya que los métodos analíticos que se aplican en la actuali-dad están calibrados y validados principalmente para estudios de plasma y orina.

Además, la detectabilidad de las drogas depende de una amplia serie de factores como el tipo de droga en cuestión, la vía de administración, la dosis y frecuencia de consumo, las diferencias individuales en el metabolismo, la separación temporal entre el momento de consumo y el de recolección, y la sensibilidad del método usado. Se producirá una menor razón de concentración humor ví-treo/sangre antes de alcanzar el equilibrio. Junto a ello conviene resaltar también las relevantes limitaciones que acompañan el cotejo de drogas en el humor vítreo, como la posibilidad de investigación de drogas no detectables bajo un determinado nivel, de no poder indicar claramen-te la cantidad de droga ni el momento de consumo de la misma y de no disponer de técnicas analíticas lo suficien-temente sensibles y específicas para la detección de ciertas drogas.

5. CONCLUSIONES

El análisis de drogas de abuso en el humor vítreo resulta

ser de suma esencia para concretar las causas, mecanis-mos y formas de muerte en el esclarecimiento de deter-minados hechos de interés forense. De esta forma, es po-sible informar sobre hábitos relacionados directa o indi-rectamente con el fallecimiento, como intoxicaciones es-porádicas, adicciones o sobredosis. El humor vítreo cuenta con una gran facilidad de obten-ción de muestras estériles de las cuales se permite detec-tar metabolitos específicos de drogas de abuso, aun a con-centraciones bajas. Conjuntamente, existen compuestos químicos cuya detección es mayor en la matriz vítrea que en la sangre, así como la cocaína, la 6-monoacetilmorfina y la fenciclidina. Actualmente, la utilización del humor vítreo con la finali-dad de detectar drogas de abuso no se encuentra tan di-fundido y tampoco existen criterios uniformes universal-mente sobre su análisis. A pesar de ello, hoy en día resul-ta ser provechosa la correlación existente sobre la concen-tración de etanol en el humor vítreo y en la sangre, cuya relación encontrada entre sendas matrices en dicho orden ronda 1.15-1.20:1, pues la fermentación post mortem no es significativa en el globo ocular. En esta línea, es conve-niente una mejora de las técnicas de detección e interpre-tación de los resultados obtenidos que contengan umbra-les de detección más bajos que los de otras matrices. Así, potenciar este tipo de estudios es muy ventajoso en inves-tigaciones forenses al poder determinarse una gran canti-dad de sustancias en muestras extraídas, incluso cuatro días después del fallecimiento de la persona.

AGRADECIMIENTOS

Deseo agradecer a los responsables de la asignatura de química forense del grado de criminología de la Univer-sidad Pablo de Olavide la oportunidad de escribir un ar-tículo de libre temática en relación a la criminalística con la posibilidad de publicación en una revista científica re-conocida nacionalmente, permitiendo visibilizar conoci-mientos que forman parte de dicha ciencia y demostrando su esencialidad en el esclarecimiento de hechos en inves-tigaciones judiciales. Referencias [1] Alvarado, A. T., Raudales, I. and Vega, J. P., ``Determinación de

alcohol post mortem: aspectos a considerar para una mejor in-

terpretación, ´´ Medicina Legal de Costa Rica, vol. 25 no. 1, Sep

2008.

[2] Akemi, A., Mozaner, D., Geraldo, E., Blanes, L., Doble, P. and

Spinosa, B., ``A Gas Chromatography-Mass Spectrometry Met-

hod for Toxicological Analysis of MDA, MDEA and MDMA in

Vitreous Humor Samples from Victims of Car Accidents, ´´

Journal of Analytical Toxicology, vol. 42, Sep 2018, doi:

10.1093/jat/bky044

[3] Antonides, H. M., Kiely, E. R. and Marinetti, L. J., ``Vitreous

Fluid Quantification of Opiates, Cocaine, and Benzoylecgonine:

Comparison of Calibration Curves in Both Blood and Vitreous

Matrices with Corresponding Concentrations in Blood, ´´ Jour-

nal of Analytical Toxicology, vol. 31, Oct 2007.

[4] Baniak, N., Campos-Baniak, G., Mulla, A. y Kalra J., ``Vitreous

Humor: A Short Review on Post-mortem Applications, ´´ Clini-

cal & Experimental Pathology, vol. 5 no. 1, 2015, doi:

53

10.4172/2161-0681.1000199

[5] Facal, S. S., ``Estudio sobre detección de xenobióticos en humor vítreo

en el campo de la medicina forense, ´́ Fundación H. A. Barceló Posgrados,

2017.

[6] Mariño-Gaviria, D. J., ``Detección post mortem de una nueva

sustancia psicoactiva DOC en humor vítreo, ´´ Colomb forense,

vol. 4 no. 1, pp. 7-14, Abr 2017, doi:

http://dx.doi.org/10.16925/cf.v4i1.1956

[7] Montefuso-Pereira, C. V. y Alves, L. M., ``El humor vítreo como

fluido de importancia clínica en ciencias forenses, ´´ Acta Bio-

química Clínica Latinoamericana, vol. 50 no. 11, pp. 27-35, Mar

2016.

[8] Pelander, A., Ristimaa, J. and Ojanperä, I., ``Vitreous Humor as

an Alternative Matrix for Comprehensive Drug Screening in

Postmortem Toxicology by Liquid Chromatography-Time-of-

Flight Mass Spectrometry´´, Journal of Analytical Toxicology, vol.

34, Jul/Ago 2010.

Álvaro Morales Rodríguez. Actual-mente es miembro de la Universidad Pablo de Olavide, donde cursa las asignaturas del itinerario de ciencias forenses del cuarto curso del grado de criminología.

54