portada - pablo de olavide university · 2020. 2. 12. · aparatos se han ido integrando cada vez...
TRANSCRIPT
Portada
Julio Ezequiel Pérez Carbajo
Logotipo y Título de la revista
Juan Manuel García Arcos, Rafael Hoyos Manchado y Rafael Iigo
Roció Escudero Ávila, Inés Maldonado Lasunción y Javier Revello Sánchez
Plantilla de la revista
Norberto Díaz Díaz
Editores de las secciones que aparecen en este número
MoleQla Informática: Norberto Díaz Díaz
MoleQla Celular: Guillermo López Lluch
MoleQla Patrimonio: María Pilar Ortiz Calderón
MoleQla Forense: Antonio Aguilar García
Responsable de Maquetación
Francisco Araque Frías
Información sobre todas las secciones de MoleQla en http://www.upo.es/MoleQla
Editores
Sofía Calero Díaz
Ana Paula Zaderenko Partida
Juan Antonio Anta Montalvo
Patrick J. Merkling
ISSN 2173-0903
Editado el 29 de enero de 2020
Universidad Pablo de Olavide, Sevilla, España
Sacamos hoy el número 36 de MoleQla, número de invierno y primero del 2020 con la misma ilusión de siempre y con
energías renovadas. Este número viene fuerte con artículos muy interesantes en las secciones de informática, celular,
patrimonio y forense. Veremos por ejemplo lo que es el luminol y cómo este compuesto puede ayudar a resolver un
crimen… y también cómo los cosméticos se pueden utilizar como evidencia forense.
También tenéis artículos muy interesantes en técnicas de análisis para identificar aglutinantes en pinturas, desarrollos de
aplicaciones móviles y videojuegos e incluso un par de artículos en ingles, en la sección de MoleQla Celular.
Esperamos que disfrutéis leyendo este número y os emplazamos para el siguiente, el 37 que saldrá ya en primavera
El equipo editorial de MoleQla os desea una placentera lectura y un agradable, aunque parece que fresquito invierno.
Sofía Calero
Editor de la Revista MoleQla
ÍNDICE
1. Moleqla Informática
1.1. El Internet de las cosas
1.2. Evolución del desarrollo de videojuegos
1.3. Desarrollo de aplicaciones móviles
1.4. Frameworks de desarrollo web back-end
1.5. Frameworks y lenguajes de desarrollo para frontend
2. Moleqla Celular
2.1. Thermodynamics of ATP synthesis in mitochondria
2.2. Ibuprofen versus prostaglandins synthesis
3. Moleqla Patrimonio
3.1. PIXE para el estudio de elementos sustentados en patrimonio gráfico y documental
3.2. Técnicas de análisis para la identificación de aglutinantes en la pintura de caballete
4. Moleqla Forense
4.1. Luminol, El Compuesto Químico que arroja luz sobre la escena del Crimen
4.2. El proceso de Eutrofización
4.3. El uso de cosméticos como evidencia forense
4.4. Falsos positivos al volante
4.5. Plaguicidas: Un Riesgo latente
4.6. Análisis de drogas de abuso en el humor vítreo
El internet de las cosas Adrián Vázquez Barrera
Resumen—— En este artículo se hace un análisis de las ventajas e inconvenientes del internet de las cosas.
Palabras Claves— Internet, Comunicación, Digitalización, Instrucciones, Salud, Seguridad informática, Ciudad, Transporte,
Hogar, Optimización.
—————————— ◆ ——————————
1. INTRODUCCIÓN
nternet es, sin duda uno de los inventos más importan-
tes en la vida contemporánea, su uso masivo ha marca-
do una transición clara entre generaciones y cambiado
para siempre nuestra forma de comunicar, trabajar e in-
cluso enseñar. De algún u otro modo, todo se ha digitali-
zado.
Hasta hace bien poco, nuestra relación con internet era
y (en muchos casos) sigue siendo bastante imperativa.
Para enviar un mensaje, subir algún archivo o reproducir
un vídeo necesitamos indicarle expresamente al dispositi-
vo a que servicio o aplicación web queremos acceder.
Evidentemente, a medida que pasa el tiempo, nuestros
aparatos se han ido integrando cada vez más, a tal punto
que muchos de ellos no pueden siquiera funcionar sin
conexión. Esta brutal integración con internet está llegan-
do a objetos y servicios de nuestra vida cotidiana, lo que
se conoce como “El Internet de las cosas” (IoT por sus
siglas en inglés) [1].
2. BENEFICIOS DEL IOT.
Los ejemplos más claros, actuales y realistas del uso de
IoT son los siguientes:
2.1. Hogar y ciudad.
Probablemente la cara más “visible” de este sector [2]. Es
muy común hoy en día ver robots aspiradora y de cocina,
cámaras de vigilancia, bombillas y televisores conectados.
Este tipo de aplicaciones han servido para mejorar nota-
blemente la eficiencia energética, comodidad y accesibili-
dad en el hogar. Siempre será más fácil poner a calentar la
comida, activar el aire acondicionado y aspirar el salón a
golpe de dedo y a distancia desde tu teléfono que hacer
dicha configuración con cada electrodoméstico manual-
mente. Una completa odisea en caso de tener alguna dis-
capacidad que afecte a su movilidad. A demás, una casa
conectada permite automatizar todos estos procesos para
que se hagan simultáneamente y con un poco de ingenio
es posible programar dichos comportamientos para que
se hagan a una hora o cuando se den una serie de varia-
bles determinadas. Por ejemplo, cuando no haya nadie en
casa o en un horario donde el kW/h sea más barato.
En la misma línea, una ciudad entera [3] puede beneficiar-
se a gran escala de los mismos beneficios como: automa-
tización del alumbrado, gestión óptima del tráfico y
transporte público que hoy están sincronizados solo por
franjas horarias determinadas. La iluminación debería
adaptarse a las situaciones de niebla y no solo a intervalos
noche/día. En muchas ocasiones hay oleadas de peatones
que no pueden cruzar cuando no hay vehículos cerca y
viceversa, aquí los semáforos actuales son tremendamen-
te ineficientes. El transporte público necesita adaptarse
mejor a las necesidades actuales de los ciudadanos, es
habitual subirse en un autobús con un aforo para el que
no estaba preparado, la demanda en este sector es muy
variable y podría adaptarse mejor si los ciudadanos pue-
den (a través de una aplicación) pagar y confirmar plaza
por adelantado, de ese modo, si el vehículo alcanza su
máximo aforo permitido, es más fácil tomar medidas a
tiempo y enviar refuerzos.
2.2. Wearables y salud.
Está claro que, nosotros como especie, siempre estamos
tratando de mejorar nuestra calidad de vida. En el último
lustro, han aparecido numerosas noticias relacionadas con
relojes o pulseras inteligentes y la detección precoz de
patologías, sobre todo ligadas al corazón [4]. Estos apara-
tos “vestibles” se han hecho muy populares en EE. UU. ya
que permite hacer un seguimiento de los pacientes a par-
tir de los datos recopilados por el dispositivo [5].
Los wearables no sólo monitorizan nuestra salud, también
tienen su nicho en la ingeniería. Algunas empresas están
empezando a utilizar gafas de realidad aumentada conec-
tadas a internet para hacer mucho más visual proyectos
grandes y altamente complejos de forma cómoda. Así
como también supone un gran avance en la forma en la
que entenderemos el entretenimiento en un futuro no
muy lejano.
2.3. Transporte y logística.
Monitorizar el tráfico para evitar congestiones en tiem-
po real es algo con lo que ya contamos hoy. La mayoría
de los coches modernos con mapas y conexión a internet,
así como todos los que utilizamos el móvil como GPS,
tienden a compartir con un servidor los datos de su geo-
posicionamiento y destino para evitar los atascos y guiar a
sus clientes en el menor tiempo posible [6].
————————————————
Adrián Vázquez Barrera. Escuela Politécnica Superior, Universidad Pablo de Olavide. [email protected].
I
1
3. SEGURIDAD Y USABILIDAD.
Aunque son incontables los beneficios que aporta. El
internet de las cosas es una tecnología que necesita ma-
durar sobre todo en materia de seguridad y usabilidad.
El viernes 21 de octubre de 2016, se llevó a cabo un
ataque masivo que dejó gran parte de internet inutilizable
[7]. Para lograrlo, el atacante tomó el control de miles de
dispositivos conectados a internet y redirigió su tráfico
para que hicieran peticiones masivamente a Dyn, uno de
los proveedores de DNS más importantes del mundo. Al
registrar tal cantidad de peticiones, el servicio colapsó.
Esto significa que al intentar acceder a una página web no
pudiera cargarse, debido a que nuestros aparatos no eran
capaces de traducir la dirección introducida a una direc-
ción IP entendible por los mismos. Quiere decir que al
teclear “www.google.es” nos arrojaba un error de DNS,
mientras que al usar “216.58.213.163”, nos abría la página
del buscador sin problema.
Según el Instituto nacional de ciberseguridad [8], en
2018 la mayoría de las vulnerabilidades en dispositivos
IoT fueron:
➢ Uso de contraseñas por defecto, cortas, co-
munes y/o fácilmente descifrables
➢ Servicios conectados en red superfluos que se
ejecutan en segundo plano y realmente no
necesitamos. Se debe restringir el uso de estos
servicios a aquellos que realmente demos uso.
Cuantos más se utilicen, más oportunidades
tiene un posible atacante de entrar en nuestra
red y más difícil será de mantenerlos todos ac-
tualizados.
➢ Nulo control, filtro y/o encriptación de la in-
formación.
➢ Accesos a la nube sin proteger.
A menos que seas una persona hábil con la tecnología,
para el resto de las personas es todo un desafío tener va-
rias aplicaciones de diferentes marcas para controlar obje-
tos que se encuentren en la misma habitación. No existe
una estándar al que atenerse, lo que genera en muchos
casos, confusión e irritación a partes iguales. Ante esta
situación algunas empresas como Apple o Google crearon
sus propias aplicaciones para sus sistemas operativos. No
obstante, esto obliga a los fabricantes de IoT a programar
implementaciones específicas para iOS y/o Android res-
pectivamente. Esta medida no solo no culmina con la eli-
minación de aplicaciones específicas para cada aparato,
sino que además refuerza la dependencia de los usuarios
hacia sendos sistemas y permite a estas compañías perpe-
tuar su duopolio.
REFERENCIAS
[1] Web de SAP. www.sap.com/spain/trends/internet-of-things.html
(Enlace web)
[2] Web de THREEPOINTS.
www.threepoints.com/es/actualidad/ejemplos-de-aplicaciones-
iot-reales-y-actuales (Enlace web)
[3] Web de SIEMENS. www.ciudadesdelfuturo.es/5-aplicaciones-
del-internet-las-cosas-vida-cotidiana.php (Enlace web)
[4] Web del periódico “ABC”.
www.abc.es/tecnologia/informatica/soluciones/abci-apple-
watch-salva-vida-hombre-avisarle-fuera-urgencias-
201805042114_noticia.html (Enlace web)
[5] Web del periódico “El Mundo”.
www.elmundo.es/tecnologia/2018/05/04/5aeb29c0468aeb664a
8b45a6.html (Enlace web)
[6] Web de Microsoft fracttal. www.fracttal.com/2018/10/10/9-
aplicaciones-importantes-iot/ (Enlace web)
[7] Web de Gizmodo. es.gizmodo.com/el-ataque-ddos-que-hoy-
tumbo-internet-es-el-inicio-de-u-1788089613 (Enlace web)
[8] Web de INCIBE. www.incibe.es/protege-tu-
empresa/blog/equipamiento-oficinas-inteligentes (Enlace web)
Adrián Vázquez Barrera. Estudiante de Inge-niería informática en sistemas de información en la Universidad Pablo de Olavide. Desde su eta-pa en la ESO, se interesó por la programación y cómo esta disciplina es capaz de darle vida a las matemáticas y controlar aquellas maquinas que tanto nos facilitan la vida.
2
Evolución del desarrollo de videojuegos Jose Joaquín Barneto del Río
Resumen— Desde hace 10 años a la actualidad ha habido un cambio significativo en el paradigma de desarrollo de los
videojuegos, los juegos físicos limitados a las consolas, con un modelo de negocio de juego como producto, han dado paso al
juego como servicio: en constante evolución, multiplataforma y online.
Palabras Claves— Desarrollo, Videojuegos, ESports, Online, Multiplataforma.
—————————— ◆ ——————————
1. INTRODUCCIÓN
n la actualidad, rara es la persona que no haya proba-
do alguna vez en su vida, si tiene acceso a ellos, un
videojuego. Los hay para los más pequeños para ver
cómo reaccionan a estímulos, para los más mayores para
que no dejen de ejercitar la mente con versiones virtuales
de juegos clásicos. También se están comenzando a intro-
ducir en las aulas en algunos métodos de educación inno-
vadores, para ayudar con enfermedades como el autismo
y, cómo no, para simplemente divertirnos.
La variedad de usos y usuarios que existe en los video-
juegos provoca cambios constantes y hace que los desa-
rrolladores de videojuegos tengan que superarse e inno-
var continuamente ante un público cada vez más exigen-
te.
2. PASADO, 10 AÑOS ATRÁS.
2.1. Consolas y juegos físicos
Si miramos hacia un pasado cercano, el desarrollo de vi-
deojuegos se centraba en el concepto de juego como
producto. Cuando un título salía a la venta, estaba total-
mente completo. Prácticamente sólo probadores profe-
sionales de juego tenían acceso a ellos antes de que salie-
ran a la venta.
La financiación del videojuego se centraba en el desa-
rrollo y el marketing de lanzamiento, y los ingresos eran
casi exclusivamente las ventas realizadas.
En 2009 en Estados Unidos, el 80% de las ventas de vi-
deojuegos y contenido extra eran ventas físicas.[1]
La mayor parte de los videojuegos en estos años se
desarrollaban para videoconsolas y ordenadores, y co-
menzaron a crecer fuertemente las videoconsolas portáti-
les (PSP, Nintendo DS).
Empezaban a distribuirse entonces los primeros conte-
nidos descargables, extras de los nuevos juegos y remas-
terizaciones de juegos antiguos para las nuevas consolas
a precios más económicos.
2.2. Quiénes juegan a videojuegos
El número de personas que juega no ha parado de crecer
desde principios de siglo. En 2008 se jugaba a videojue-
gos en un 65% de los hogares de Estados Unidos [2]. Y no
solo niños, porque la edad media del jugador era de 35
años. Sorprende también que encontramos un número
similar de jugadores menores de 18 años que mayores de
50, como vemos en la figura 1.
Fig. 1. Distribución de jugadores por edades en EE. UU. en 2008 [2]
Este dato es bastante relevante a la hora de desarrollar, ya
que nos enfrentamos a un público muy variado y con exi-
gencias totalmente diferentes a la hora de encontrarse
con un juego por primera vez.
2.3. “Juego como servicio”
Con la llegada y consolidación de los smartphones, en
torno a 2012-2013 comienza un cambio en el paradigma
del desarrollo de los videojuegos, ya no hace falta com-
prar un dispositivo expresamente para jugar, usamos
nuestro propio teléfono.
Esto, junto con el crecimiento de internet y los juegos
online, va a provocar dos cambios fundamentales a la
hora de desarrollar videojuegos: la compatibilidad con
una gran cantidad de dispositivos y el impulso definitivo
al nuevo modelo de negocio de “juego como servicio” [3].
El concepto de juego clásico comienza a cambiar, aho-
ra se oferta un juego en constante evolución, lanzado
“incompleto”, lo que provoca que sean muy baratos e in-
cluso comiencen a predominar los juegos gratuitos.
El desarrollo deja de tener un fin conocido a priori,
desde la primera versión del juego hay contacto directo
con el consumidor y esto va a marcar la evolución del
juego. El juego como servicio se adapta perfectamente a
————————————————
Jose Joaquín Barneto del Río. Escuela Politécnica Superior, Universidad Pablo de Olavide. [email protected].
E
3
una metodología SCRUM ya que periódicamente se van a
realizar nuevas versiones del juego tanto por manteni-
miento, ya que los juegos pasan a estar a disposición de
los jugadores desde la versión beta, como por creación de
nuevo contenido.
El ascenso de los móviles va a provocar también una
drástica caído del desarrollo de videojuegos para consolas
portátiles como podemos ver en la figura 2, ya que ¿por
qué comprar un dispositivo cuando puedo acceder a con-
tenido similar en el móvil?
Fig. 2. Ingresos por dispositivos en Francia, Reino Unido, Alemania y
España [4]
El juego como servicio provoca, además, que las ventas
predominantes de videojuegos y contenido comience a
ser de tipo digital.
3. PRESENTE
3.1. Demografía
El último informe anual de la ESA (asociación comercial de
la industria de los videojuegos de Estados Unidos) [5] nos
muestra que sigue aumentando el número de jugadores,
mientras que el porcentaje de hogares sigue siendo simi-
lar (un 65%) ahora la media es de 2 personas que juegan
a videojuegos por hogar, y un 60% lo hace diariamente.
El 56% de estos gamers prefieren los juegos multijuga-
dor, predominando el juego online. El crecimiento de los
modos y juegos online hace que el desarrollo actual se
centre en gran parte en esta faceta. El prototipo más co-
mún de juego hoy en día es: un juego online, multijuga-
dor, y con contenido extra y compras dentro del propio
juego. Estas compras no suelen ser claves para el éxito en
el juego, lo que se crítica comúnmente como pay-to-win si no contenido estético o mejoras para poder acceder al
mismo contenido que un jugador que no haga compras,
pero en menos tiempo.
El gasto en juegos y contenido digital le ha dado la
vuelta total al físico en 10 años, como vemos en la figura
3.
Fig. 3. Comparativa del gasto físico y digital de videojuegos [5]
3.2. Dispositivos
En cuanto a dispositivos, el 41% juega en ordenador, un
36% en smartphones, otro 36% en videoconsolas y un
24% en tablets. Lo que provoca que muchos juegos ten-
gan que sacar a la venta versiones para todos los disposi-
tivos, algo que ha incrementado la importancia de desa-
rrolladores multiplataforma, y hace más complejo el desa-
rrollo.
3.3. Competiciones de videojuegos, eSports
Las competiciones de videojuegos también están provo-
cando cambios en el proceso de desarrollo, muchos jue-
gos, además de la propia jugabilidad, están implemen-
tando modos “espectador” para que el usuario no juegue
directamente, si no que vea a otros jugar. Cada vez están
dedicando más utilidades a estos modos para facilitar las
retransmisiones, permitir las repeticiones de las jugadas
más impactantes y poder acceder a las pantallas de un
jugador en concreto, a gusto del espectador.
Las competiciones están cobrando cada vez más rele-
vancia, en los últimos juegos asiáticos (Yakarta 2018) hubo
torneos de algunos de los principales videojuegos del
momento a modo de exhibición [6] y los juegos olímpicos
están comenzando a estudiar la posibilidad de incluirlos
en futuras ediciones. Algo que provoca que el desarrollo
del videojuego tenga que estar pulido al máximo, porque
llama mucho la atención cuando en una partida que están
viendo millones de espectadores se detecte un defecto
visual, de jugabilidad o de sonido.
4. FUTURO
Si hay algo que está claro, es que el uso del smartphone
para jugar ha venido para quedarse, cada vez salen a la
venta menos cantidad de videojuegos para las grandes
consolas; aunque las grandes empresas siguen dándole
provecho a las grandes sagas de videojuegos de toda la
vida y sorprendiendo con nuevos títulos de juegos com-
pletos.
Un sector que está cogiendo mucha fuerza es el de la
realidad virtual, un 24% de los desarrolladores se estaba
dedicando a este sector en 2018 [7], aunque los primeros
resultados estuvieron bastante lejos de las estimaciones
de las grandes compañías, el desarrollo para la realidad
virtual sigue en evolución y será probablemente una de
4
las claves de diferenciación de los desarrolladores en el
futuro.
Además de la realidad virtual, la realidad aumentada,
las Smart TV y los nuevos dispositivos como los relojes
inteligentes marcarán la línea de desarrollo.
5. CONCLUSIONES
El mundo de los videojuegos está más vivo que nunca y
con expectativas de seguir creciendo año tras año, y no
sólo en cantidad, si no en variedad: más dispositivos, más
jugadores de todas las edades, nuevas formas de juego,
usuarios que disfrutan viendo a otros jugar como si se
tratase de cualquier deporte clásico. El desarrollo tiene
que estar preparado para los cambios que puedan venir,
sin descuidar nunca a los usuarios que quieran seguir dis-
frutando del tipo de contenido que les atrae, el tiempo
que quieran y sea cual sea.
REFERENCIAS
[1] Entertainment Software Association. (2012). Essential Facts
About the Computer and Video Game Industry 2012, p. 11. Re-
cuperado de: https://library.princeton.edu/sites/default/files/20
12.pdf
[2] Entertainment Software Association. (2008). Essential Facts
About the Computer and Video Game Industry 2008, p. 2. Re-
cuperado de: https://library.princeton.edu/sites/default/files/20
08.pdf
[3] Bagga, Atul (October 10–13, 2011). Emerging Trends in Games-
as-a-Service. Game Developers Conference. https://www.gdcva
ult.com/play/1015035/Emerging-Trends-In-Games-as
[4] Web de la ISFE (Europes Video Games Industry)
https://www.isfe.eu/isfe-key-facts/
[5] Entertainment Software Association. (2018). Essential Facts
About the Computer and Video Game Industry 2018. Recupera-
do de: http://www.theesa.com/wp-content/uploads/2018/05/EF
2018_FINAL.pdf
[6] Web de la ESAHK (Esports Association Hong Kong)
http://www.esahk.org/en/asiangames2018
[7] 2019 Video Game Industry Statistics, Trends & Data
https://www.wepc.com/news/video-game-statistics
Jose Joaquín Barneto del Rio estudiante del Grado en Ingeniería Informática en Sistemas de Información en la Universidad Pablo de Olavide, además de Técnico Superior en Desarrollo de Aplicaciones Multiplataforma, cursado en el centro Nuevas Profesiones de la Cámara de Comercio de Sevilla. También es programador web en Green Slope SL una pequeña empresa sevillana, que proporciona a la Federación Andaluza de Golf soporte infor-
mático y la herramienta de gestión de competiciones Nextcaddy a la propia federación y a todos los clubes de Andalucía. Además, es un apasionado de los videojuegos y de los emergentes eSports (depor-tes electrónicos).
5
Desarrollo de aplicaciones móviles Ana Bautista Sánchez
Resumen—Estas instrucciones aportan unas nociones básicas a la hora de desarrollar una aplicación móvil.
Palabras Claves— Desarrollo, Software, Aplicación, Móvil.
—————————— ◆ ——————————
1. INTRODUCCIÓN
n este artículo se tratará el mercado y las necesidades
específicas del desarrollo de aplicaciones móviles, así
como su planificación.
Actualmente, millones de aplicaciones están disponibles
en diferentes tiendas en línea para los usuarios de te-
léfonos inteligentes. Las aplicaciones móviles más exitosas
se han descargado más de cien millones de veces y cada
día se lanzan nuevas aplicaciones al mercado móvil. Es tal
el alcance de las apps móviles, que hoy en día, em-
prendedores, consultores independientes, organizaciones
y empresas de todo tipo, integran en su plan estratégico
la implementación de aplicaciones, conscientes de que
gran parte del acceso a las mismas se hace a través de
dispositivos móviles.
El crecimiento de las apps móviles ha dado lugar a que
sus desarrolladores adapten metodologías de desarrollo o
surjan nuevas propuestas que permitan cumplir con las
particularidades que implica el desarrollo de apps
móviles.
2. NECESIDADES Y PROBLEMAS DEL MERCADO
2.1. Identificación del Problema a resolver
Es necesario buscar un problema que pueda tener el usu-
ario para darle una solución a través de la aplicación. Es
importante tener una idea que pueda satisfacer una nece-
sidad, definir los objetivos que se persiguen y las ventajas
competitivas que tiene tu aplicación frente a las demás.
2.2. ¿Qué Aplicación Queremos Desarrollar?
Se pueden dar dos alternativas a la hora de desarrollar
una aplicación, elegir entre una app que estaría bien tener
o una app que necesitamos.
2.3. Identificación del Nicho de Mercado
No es fácil crear una aplicación que use todo el mundo,
por este motivo, a veces es mejor apuntar a grupos de
usuarios restringidos, a los cuales sea fácil llegar para que
usen la aplicación. Hay que pensar en los usuarios y en
cómo usarán la aplicación.
2.4. Identificación de Necesidades
Empieza por ti mismo. ¿Qué les falta a las aplicaciones
que tienes?, ¿qué te gustaría tener?, ¿existen aplicaciones
que lleven a cabo tus intereses?...
Además, puedes continuar preguntando a familiares o
amigos, quizás ellos tengan la idea que haga que tu
aplicación triunfe.
2.5. Analiza la Competencia
Por su puesto, antes de empezar a desarrollar la idea hay
que tener en cuenta si esa aplicación o una similar ya ex-
iste en el mercado. Sabiendo cómo funciona y cuál es su
coste podría interesar mejorarla o cambiar de idea.
Existen muchas formas de analizar la competencia, pero la
más rápida y sencilla es a través de las tiendas de aplica-
ciones. Busca las más populares, pruébalas, lee las críticas
y pregunta a tus allegados [1], [3].
3. NECESIDADES ESPECÍFICAS DEL DESARROLLO
DE APLICACIONES MÓVILES
Unas de las medidas a tener en cuenta es la plataforma en
la que queremos desarrollar nuestra aplicación. No es
sencillo desarrollar para varias plataformas y requiere ten-
er recursos para todas.
También tendremos que tener en cuenta el tamaño de la
pantalla, la resolución, los sensores, la limitación del
hardware y otras limitaciones como pueden ser la batería,
la conectividad y el posicionamiento.
3.1. Desarrollo de Aplicaciones Móviles Nativas
Una aplicación nativa es diseñada específicamente para
un sistema operativo. Las aplicaciones nativas están dis-
ponibles en las principales tiendas. Una vez descargada la
aplicación, ésta se instala en el dispositivo móvil. Tras la
instalación y primera ejecución realizada por el usuario,
sin necesidad de contenedor o intermediario alguno, la
aplicación se conecta con el sistema operativo del dis-
positivo móvil.
El desarrollo de aplicaciones nativas implica que sus de-
sarrolladores, tras la escritura del código fuente, crean el
ejecutable en formato binario que se pueda empaquetar
junto con el resto de los recursos, como audio, imágenes,
videos, y diferentes tipos de archivos declarados para el
OS. Para todo esto, se requiere de herramientas, archivos
y suministros específicos provistos por el distribuidor del
OS. (Tabla1).
Además, con las aplicaciones nativas y su desarrollo es
esencial señalar que este tipo de apps acceden libremente
a las APIs, interfaz para un componente de software que
————————————————
Ana Bautista Sánchez. Escuela Politécnica Superior, Universidad Pablo de Olavide. [email protected].
E
6
puede ser invocado a una distancia a través de una red de
comunicaciones utilizando tecnologías basadas en
estándares, disponibles por parte del OS, logrando hacer
uso de funciones propias del SO.
3.2. Desarrollo de Aplicaciones Móviles Web
Las aplicaciones móviles web se ejecutan dentro de un
navegador del dispositivo móvil y se construyen en base a
tres tecnologías esenciales: HTML, que permite visualizar
el contenido, tanto imágenes como texto; CSS, que per-
mite definir el estilo con el que contará la primera
tecnología mencionada, y finalmente JavaScript, que se
encarga de lograr realizar y presentar animaciones y la
interacción misma del usuario con la aplicación móvil
web.
Al ingresar a sitios web que cuenta con una versión web,
el sitio reconoce que el acceso se realiza desde un dispos-
itivo, por lo que presentan páginas HTML diseñadas para
una mejor experiencia en pantallas de varios tamaños,
que generalmente hoy en día son táctiles. Y es gracias a
herramientas JavaScript como Sencha Touch o jQuery
Mobile, que los desarrolladores logran construir interfaces
de usuario similares a las aplicaciones nativas.
Por otra parte, las aplicaciones web permiten el soporte
para múltiples plataformas, hecho que se refleja en el bajo
coste del desarrollo, convirtiéndose éste en su punto de
robustez. Sin embargo, este punto se ve algo opacado si
nos referimos a APIs. Las APIs libres y disponibles para las
aplicaciones web son escasas, por lo que varias de sus
funcionalidades son parciales o no accesibles para las
apps web. Esto podría cambiar a futuro gracias a los
avances que presente HTML.
3.2. Desarrollo de Aplicaciones Móviles Híbridas
La combinación de las apps web y apps nativas, da como
resultado las aplicaciones híbridas, que presentan código
nativo y web, y hacen uso de APIs propios del dispositivo.
Para los desarrolladores esto implica menos trabajo,
puesto que no necesitan escribir una aplicación para cada
plataforma móvil. Y todo esto sin que el usuario note la
diferencia con una aplicación nativa, puesto que una app
híbrida está disponible en tiendas de aplicaciones para su
posterior descarga y almacenamiento en el dispositivo
móvil.
Una app híbrida presenta en su totalidad o gran por-
centaje la interfaz de usuario en el navegador, comple-
mentándose con código nativo que proporcione acceso a
las APIs del dispositivo. Las APIs de los sistemas opera-
tivos a las cuales accede la parte nativa de una app híbri-
da, permite conectar al navegador y las APIs del disposi-
tivo móvil a través de un motor de búsqueda HTML.
La aplicación híbrida cuenta con una página web, conjun-
to de archivos HTML, JavaScript, CSS y recursos audiovis-
uales; ya sea que resida en un servidor o incorporados en
el código de la aplicación.
Debido a las grandes ventajas de este tipo de aplica-
ciones, los desarrolladores de apps híbridas pueden optar
por codificar su puente, entre la parte web y nativa; o bien
aprovechar soluciones ya construidas, conocidas como
frameworks.
Existen varios marcos de trabajo para el desarrollo de
aplicaciones móviles híbridas, y es importante identificar
que tecnologías se usarán, si este es de código abierto, si
se desea que la apariencia de la app se asemeje a una app
nativa o más bien a una página web, el rendimiento que
brinde o la plataforma en la que se desea desplegar la
app; y a partir de las necesidades identificadas, discernir
entre los frameworks existentes.
4. PLANIFICACIÓN DEL DESARROLLO DE
APLICACIONES
Para llevar a cabo la realización de un sistema, es indis-
pensable contar con una serie de pasos, que permita ob-
tener un excelente producto o el mejor, si fuera posible.
Estos pasos en conjunto ordenados son denominados
proceso de software. Un proceso de software se ajusta
según las necesidades y características del proyecto a
llevarse a cabo, por los ingenieros de software o líderes de
proyecto. Al final, este proceso amoldado será la referen-
cia de todo el equipo de trabajo, incluyendo a quienes
han solicitado el sistema.
4.1. Modelos y Metodologías No Ágiles de
Desarrollo de Aplicaciones Móviles
Los métodos no ágiles se enfocan en la planificación
global del proyecto, y una vez que se ha especificado,
inicia el ciclo de desarrollo del software. Estos métodos se
centran en el control del proceso mediante el estableci-
miento de roles, actividades, herramientas, y artefactos
como modelado y documentación. Estos esquemas
"tradicionales" han demostrado abordar correctamente el
desarrollo de software que requiere amplia cantidad de
tiempo y recursos.
Sin embargo, estos métodos no resultan adecuados a
proyectos que, deseando mantener un proceso de alta
calidad, cuentan con entornos volubles y limitaciones
drásticas para los tiempos de desarrollo. Esta falta de flex-
ibilidad y restricción de recursos que presentan las
metodologías no ágiles conllevan dificultades a los equi-
pos de desarrollo.
4.2. Modelos y Metodologías Ágiles de Desarrollo de Aplicaciones Móviles
Los métodos ágiles nacen como respuesta a potenciar el
desarrollo de software, en lugar de su planificación. Estos
métodos dan mayor importancia a la capacidad de
respuesta, en lugar del seguimiento estricto de un plan.
Estas propuestas nacieron puesto que se requiere en mu-
chos proyectos de mayor flexibilidad, de permitir cambios
sin que implique un costo excesivo.
Las metodologías ágiles ofrecen un desarrollo más ligero
y rápido. Han logrado un alto nivel de popularidad y el
éxito en la industria de software reconociendo que una
buena relación cliente / desarrollador es crucial para el
éxito en el desarrollo de software [2].
7
5. CONCLUSIONES
Seleccionar un tipo de desarrollo de aplicación móvil
requiere del previo análisis de los objetivos de la aplica-
ción, del escenario en el que se desarrollará y desen-
volverá, e incluso el tipo de usuarios finales a los cuales se
desea llegar; todo esto a fin de que se elija un tipo de
aplicación acorde a los recursos con los que se cuenta y
con la funcionalidad requerida.
REFERENCIAS
[1] https://www.cooperativaonline.com/pasos-para-disenar-
una-app-movil/
[2] https://iconline.ipleiria.pt/bitstream/10400.8/3171/1/disert
aciondoc_lizzchandiargoti.pdf
[3] Rubén Fuentes Fernández. Facultad de Informática, Univer-
sidad Complutense de Madrid. http://www.ucm.es
Ana Bautista Sánchez estudiante de segun-do curso de Ingeniería Informática en Siste-mas de Información en la Universidad Pablo de Olavide. Ha recibido los certificados de los cursos “Apps móviles” por la Universidad Complutense de Madrid e “Introducción al desarrollo web: HTML y CSS” por el Instituto de Economía Internacional de la Universidad de Alicante.
8
Frameworks de desarrollo web back-end Nerea Márquez Egea
Resumen— Este artículo constará de una introducción a los diferentes frameworks de desarrollo web back-end junto con las
ventajas y desventajas de usarlo y con el lenguaje de programación en el que se apoya.
Palabras Claves—Aplicaciones web, Aprendizaje, Documentación, Framework, Lenguaje de programación.
—————————— ◆ ——————————
1. INTRODUCCIÓN
n el desarrollo web actual intervienen muchos roles en el desarrollo de aplicaciones. Lo más escuchados son “desarrollador front-end” y “desarrollador back-
end”. Nos centraremos en la parte más cercana al funcio-namiento de la página web, es decir, back-end. Por tanto, cada vez que alguien haga una petición a la página, el servidor actuará y proporcionará la información solicita-da, de eso se encarga el desarrollador back-end. Con otras palabras, el desarrollador se encarga de interactuar con las bases de datos y verificar el manejo de sesiones de usuarios. [1]
Fig. 1. Frontend vs Backend.
La tecnología empleada como back-end se encargará de elaborar una respuesta al usuario. A continuación, un listado de las tecnologías más representativas del desarro-llo back-end:
1. Java (Spring) 2. Ruby (Ruby on Rails) 3. PHP (Laravel) 4. Python (Django) 5. JavaScript (Node.js) Lo que primero se menciona es el lenguaje de progra-
mación en el que está, posteriormente, el framework se-leccionado para hablar de él a continuación.
2. JAVA
2.1. Java como lenguaje de programación
Se trata de un lenguaje de programación orientado a obje-tos, por lo que su principal intención es poder “escribir” aplicaciones que se ejecuten en cualquier dispositivo. A partir del 2012 es unos de los lenguajes más populares
para el desarrollo de aplicaciones web con aproximada-mente 10 millones de usuarios. [2]
Fig. 2. Framework más usado de Java.
2.2. Spring como framework
Spring proporciona un modelo de programación y confi-guración completa para las aplicaciones empresariales modernas basadas en Java. [3]
2.3. Ventajas de Spring
➢ Uso de POJO (Plain Old Java Object): usar POJO
para desarrollar aplicaciones tiene el beneficio de
no necesitar un servidor para que funcione. Por
ello, Spring es un framework bastante liviano.
➢ No necesita ser reinventado: al usar tecnologías
conocidas como JDK timers o Java EE entre otros,
los desarrolladores no necesitan aprender nuevas
tecnologías ni frameworks para poder desarrollar
en Spring.
➢ Framework de desarrollo bien diseñado: Spring
está diseñado por un modelo MVC, el cual puede
servir para que otro framework web lo use. [4]
2.4. Desventajas de Spring
➢ Complejidad: como tiene muchas clases y herra-
mientas distintas, Spring puede llegar a ser un
framework difícil de aprender.
➢ Muchos mecanismos de paralelismo: el paralelis-
mo puede ser de gran ayuda si el desarrollador
conoce a la perfección qúe métodos y clases serían
útiles para un caso en particular, sin embargo, si
no tiene dominio de esto, la complejidad incre-————————————————
Nerea Márquez Egea. Escuela Politécnica Superior, Universidad Pablo de Olavide. [email protected].
E
9
mentaría.
➢ Gran cantidad de XML: para trabajar con Spring,
ha de tener soltura con XML, así que, si se quiere
desarrollar una aplicación con dicho framework,
hay que estar preparado para los XML.
3. RUBY
3.1. Ruby como lenguaje de programación
Combina una sintaxis inspirada de Python y Perl (Practial Extracting and Reporting Language). Al igual que Py-thon, es un lenguaje de alto nivel, lo que hace más fácil y rápido de aprender. Ruby fue originalmente creado para hacer de la programación algo divertido. Se popularizó en el mundo del desarrollo web gracias al framework del que hablaremos a continuación.
Fig. 3. Framework más usado de Ruby.
3.2. Ruby on Rails como framework
Ruby on Rails (RoR) está enfocado en crear sitios y aplica-ciones web. De hecho, combina Ruby con HTML, CSS y JavaScript, siendo las dos primeras frameworks de front-end. [5] 3.3. Ventajas de Ruby on Rails
➢ Gran y activa comunidad: según Builtwith, este
framework está en el top 3 de herramientas de
desarrollo web más usados, lo que significa que
muchas personas en el mundo usan este frame-
work para crear un software. Debido a esto, exis-
ten muchos fragmentos de código(“gemas”), que
pueden ser usados para tu propio proyecto, y así
poder centrarse en tareas más difíciles.
➢ Tiempo de eficiencia: hay miles de herramientas
que pueden acelerar y simplificar tu experiencia
frente al código, pudiendo invertir más tiempo en
otras tareas.
➢ Popularidad entre las grandes compañías: muchas
de las grandes compañías como Twitch, GitHub o
Airbnb deciden usar RoR, ya que las herramientas
que proporciona este framework son sólidas y fia-
bles. [6]
3.4. Desventajas de Ruby on Rails
➢ Está en continua evolución: este framework al es-
tar cambiando en todo momento, puede llegar a
ser difícil mantener tu código, por lo que habrá
que estar al día de esas novedades.
➢ Velocidad de arranque: quien haya trabajado con
este framework sabrá que, debido a las depen-
dencias y librerías usadas, puede demorarse el
arranque del sistema.
➢ Escasez de documentación propia: es difícil en-
contrar pautas sobre dicho framwork, bien se
puede pedir ayuda a la comunidad gracias a la
experiencia de muchos o bien encontrar casos
particulares e intentar entender su funcionalidad
para adaptarlo a tu propio código. [7]
4. PHP
4.1. PHP como lenguaje de programación
El primero que consiguió que las páginas pasaran de ser estáticas a dinámicas fue PHP. Ha sido capaz de adap-tarse a la actualidad, desde programación orientada a objetos como a gestión de imágenes. Lo utilizan grandes empresas como Wikipedia y Facebook. En estos momen-tos, está de moda desarrollar a través del siguiente fra-mework. [8]
Fig. 4. Framework más usado de PHP.
4.2. Laravel como framework
Laravel tiene todo lo que puedas necesitar para hacer cualquier tipo de web. Además, tiene una comunidad enorme y excelente documentación, lo cual es una ventaja frente a los dos frameworks mencionado anteriormente.
4.3. Ventajas de Laravel
➢ Fácil de entender: ya que los documentos son muy legibles y están bien explicados, este framework es de fácil aprendizaje.
➢ Uso de MVC framework: evita las arquitecturas tradicionales donde los desarrolladores solían es-cribir todo en HTML y código PHP en el mismo fichero. [9]
➢ Reducción en el ciclo de desarrollo de un produc-to: minimiza considerablemente este ciclo gracias a que las integraciones son más rápidas.
4.4. Desventajas de Laravel
➢ Desempeño lento: necesita un gran número de consultas a la base de datos, lo cual ralentiza su
10
funcionamiento. ➢ No admite la función de pagos: debido a que
tendría que seguir una regulación y cumplimien-to del PCI (Payment Card Industry), es preferible diferir esta función a servicios como Paypal.
➢ A menudo no proporciona riqueza a aplicaciones móviles: al tener que regarcar páginas comple-tamente, en aplicaciones no es lo más recomen-dable, pero para páginas web no sería tan pesa-do.[10]
5. PHYTON
5.1. Phyton como lenguaje de programación Como se ha mencionado en Ruby, Python es un len-
guaje de programación de alto nivel. Debido a esto, es fácil de usar y leer bajo su filosofía de DRY (Don’t Repeat Yourself), fomentando la reutilización de código. Usado comúnmente para análisis de datos y machine learning.
Fig. 5. Framework más usado de Python.
5.2. Django como framework Django sería lo más cercano a Laravel en PHP o Ruby on Rails para Ruby. Se trata de un marco de trabajo com-pleto y eficiente para desarrollar aplicaciones web de una gran complejidad con un esfuerzo mínimo. Casi cualquier cosa que necesites posiblemente estará integrada. [11] 5.3. Ventajas de Django
➢ Rápido: ha sido desarrollado para ayudar a los desarrolladores a hacer una aplicación lo más rá-pido posible. Django ayuda tanto a que tenga un coste más efectivo como eficiente, por lo que se ahorra tiempo y aumenta la efectividad del desa-rrollador.
➢ Herramientas para todo: funciona de tal manera que incluye docenas de extras para ayudar al desarrollador con varias funcionalidades como la autenticación del usuario, mapas de situaciones, contenido para la administración, etc.
➢ Segura: el desarrollador no tiene que preocupar-se de cometer errores relacionados con la seguri-dad, ya que, por ejemplo, para garantizar el ma-nejo de usuarios y contraseñas está la autentica-ción del usuario mencionado anteriormente.[12]
5.4. Desventajas de Django ➢ Excesivamente rígido: tiene una estructura muy
fija, te direcciona hacia patrones que vienen da-dos por el framework, por lo que no da soltura a la creatividad del desarrollador.
➢ Capacidad de manejar más de una solicitud a la vez: para páginas web, suele ser la tarea más ne-cesaria y Django no está diseñado para ello.
➢ Incompatibilidad para actualizar versiones frente a la velocidad: tiene tendencia a ser cada vez más grande y pesada, por lo que la velocidad es im-portante, pero Django está más enfocado en la compatibilidad de versiones anteriores y no tanto en la velocidad.[13]
6. JAVASCRIPT
6.1. JavaScript como lenguaje de programación JavaScript es un lenguaje de programación que te permite realizar actividades complejas en una página web, como mostrar actualizaciones de contenido en el momento, interactuar con mapas, etc. Es la tercera capa de los estándares en las tecnologías para la web, dos de las cuales son HTML y CSS (front-end). [14] 6.2. Node.js como framework Node.js cuenta con frameworks para la creación rápida de APIs, servidores, aplicaciones de escritorio y tiene una vasta comunidad. [15] 6.3. Ventajas de Node.js
➢ Fácil de aprender: requiere menos esfuerzo y tiempo para aprender y trabajar con él, incluso para un programador Junior de JavaScript.
➢ Libertad de crear aplicaciones: da mucha más li-bertad y espacio de desarrollar tu software a tu manera, ya que es completamente tolerante, lo que significa el poder hacer todo desde un sim-ple boceto.
➢ Comunidad activa: gracias a la cooperación de programadores en JavaScript y su aportación al colectivo, podemos tener acceso a millones de so-luciones, código en GitHub y muchas más posibi-lidades. La comunidad está en constante cambio y sus miembros ayudan a otros con soluciones mejores y fiables.
6.4. Desventajas de Node.js
➢ Escasez de consistencia: la API de Node.js cam-bia frecuentemente y esos cambios suelen hacer que no sea compatible con sus versiones anterio-res, por lo que los desarrolladores se ven forza-dos a realizar cambios en el código para que esté acorde con la última versión de la API.
➢ Más tiempo de desarrollo: que sea tolerante pue-de tener su desventaja, puesto que puede decre-cer la productividad, ralentizar el trabajo, etc.
➢ Herramientas “inmaduras”: aunque este frame-work sea estable, muchos de los paquetes de re-gistro NPM (manejador de paquetes) son aún de baja calidad o no han sido propiamente docu-mentados. Como cualquier persona puede acce-der a ello, muchas de las herramientas no han si-do supervisadas, por lo que puede ser pobre en calidad y puede no ajustarse a la normativa de código. [16]
11
CONCLUSIONES
Cada framework tiene sus pros y contras, dependiendo de lo que busques o puedas sacrificar de tu desarrollo web, elegirás uno u otro.
REFERENCIAS
[1] Web de diferencias entre front-end y back-end:
https://programacionymas.com/frontend-vs-backend (Enlace
web)
[2] Web sobre las definiciones de los lenguajes de programación:
https://platzi.com/blog/lenguajes-frameworks-librerias-backend-
2019/ (Enlace web)
[3] Web sobre Spring: https://www.springla.io/spring/spring-
framework/ (Enlace web)
[4] Web sobre las ventajas y desventajas de Spring: https://data-
flair.training/blogs/advantages-of-spring/ (Enlace web)
[5] Web sobre Ruby on Rails: http://blog.desafiolatam.com/11-
respuestas-a-ruby-on-rails/ (Enlace web)
[6] Web sobre las ventajas de Ruby on Rails: https://sloboda-
studio.com/blog/pros-and-cons-of-ruby-on-rails/ (Enlace
web)
[7] Web sobre las desventajas de Ruby on Rails:
https://www.madetech.com/blog/pros-and-cons-of-ruby-on-
rails (Enlace Web)
[8] Web sobre PHP: https://programadorwebvalencia.com/php-
vs-python-en-desarrollo-web/ (Enlace web)
[9] Web sobre las ventajas de Laravel:
https://lavalite.org/blog/laravel-pros-and-cons (Enlace web)
[10] Web sobre las desventajas de Laravel: https://www.software-
developer-india.com/advantages-and-disadvantages-of-
laravel/ (Enlace web)
[11] Web sobre Django:
https://programadorwebvalencia.com/que-aporta-python-
para-el-desarrollo-web/ (Enlace web)
[12] Web sobre las ventajas de Django:
https://hackernoon.com/advantages-and-disadvantages-of-
django-499b1e20a2c5 (Enlace web)
[13] Web sobre las desventajas sobre Django:
https://www.probytes.net/blog/advantages-disadvantages-
django/ (Enlace web)
[14] Web sobre JavaScript::
https://developer.mozilla.org/es/docs/Learn/JavaScript/Firs
t_steps/Qu%C3%A9_es_JavaScript (Enlace web)
[15] Web sobre Node.js:
https://programacion.net/articulo/lo_que_debes_aprender_e
n_2017_backend_y_frontend_1687 (Enlace web)
[16] Web sobre las ventajas y desventajas de Node.js:
https://www.netguru.com/blog/pros-cons-use-node.js-backend
(Enlace web) Nerea Márquez Egea, actualemente estu-diante de de la Escula Politécnica Superior de la Universidad Pablo de Olavide, el grado de Ingeniería Informática en Siste-mas de Información.
12
FRAMEWORKS Y LENGUAJES DE DESARROLLO PARA FRONTEND
Patricia Vázquez del Cerro
Resumen — A la hora de desarrollar una aplicación o una página web hay que tener en cuenta algunos elementos que forman
parte del mismo desarrollo, en este caso de los frameworks que pueden ser utilizados en la parte “interfaz” a la que se dedica
el frontend, al contrario que el backend que se basa en el interior del código.
Palabras Claves — Desarrollo, framework, lenguajes, informática, front-end, tecnología, back-end, programación.
—————————— ◆ ——————————
1. INTRODUCCIÓN
ste documento es un artículo de investigación en el que se explican las bases fundamentales para conocer el entorno de los Frameworks, que son, para que se
utilizan en el ámbito informático y las claves fundamenta-les para llevar a cabo un buen desarrollo de una aplica-ción o de una página web, así como la relación que tienen con el Front-end, es decir los lenguajes con los que se programa el diseño que el usuario ve al acceder a estos lugares. Asimismo se realiza una pequeña comparación entre el Backend y el Frontend y se comentaran las difer-necias principales.
2. FRAMEWORK
2.1. ¿Qué es?
La palabra Framework, se puede traducir como “marco de trabajo”, a partir de esta mera traducción podemos decir que el framework es un esquema o patrón tecnoló-gico que se usa en el entorno informático y contiene he-rramientas y librerías para el desarrollo o la implementa-ción de una nueva aplicación o web, además también nos permite mantener un orden concreto y preciso en el desa-rrollo de estas.
2.2. ¿Por qué se utiliza?
Los programadores de aplicaciones necesitaban de alguna forma realizar con más rapidez su tarea, y para ello se usan los frameworks. Existen cuatro puntos fundamenta-les por lo que utilizar un framework para programar:
1. Evita que los desarrolladores escriban código re-
petitivo: en la mayoría de las aplicaciones, exis-ten partes que son comunes para el buen funcio-namiento, como podría ser por ejemplo el acceso a la base de datos o la seguridad de la aplicación, por ello un framework evita que haya que pro-gramar este código y así hace que los desarrolla-dores se centren en lo importante.
2. Hace que utilicemos buenas prácticas: al estar basados en patrones software, como por ejemplo el MVC (Modelo-Vista-Controlador), ayuda a que todo esté mucho más ordenado, separa los datos y además mejora la interfaz del usuario con la lógica de negocio.
3. Permite realizar cosas más avanzadas: aunque el desarrollador tenga muchos conocimientos de programación, un framework siempre va a per-mitir realizar el desarrollo de una manera más fácil y segura, e incluso a aprender cosas que no se sabían anteriormente.
4. Desarrolla más rápido la aplicación: teniendo en cuenta todos los puntos anteriores, el punto fun-damental del framework es que a la hora de em-pezar a desarrollar una aplicación, si adquieres uno de ellos será bastante más sencillo, limpio y rápido.
3. FRONTEND
Tanto el frontend como el backend buscan la satisfación del usuario a la hora de navegar por la Web. El frontend hace uso de las tecnologías del lado del clien-te, trabaja como su propio nombre indica, sobre la “fa-chada” o la “interfaz”, es decir se enfoca en todo lo que el usuario puede ver o con lo que puede interactuar durante la navegación por internet. Como todo desarrollador de tecnología sabe, el usuario es atraído por dicha interfaz, lo que todos buscan es intentar dar una buena impresión y agradar al usuario una vez que acceda a la Web. Algunos de sus objetivos son:
1. Buena experiencia de usuario. 2. Diseño de interacción: saber colocar los ele-
mentos de tal forma que el usuario las pueda encontrar de forma rápida.
3. Gran usabilidad: si el usuario se encuentra con una Web que no tiene funcionalidad, procede-rá a buscar otra.
————————————————
Patricia Vázquez del Cerro. Estudiante de Ingeniería Informática, Universidad Pablo de Olavide. [email protected]
E
13
3.1. ¿Qué diferencia existe con el Backend?
A diferencia del frontend el backend se encuentra en el lado del servidor, se enfoca en lo que existe detrás de esa interfaz, es decir, en que el funcionamiento de la web o aplicación sea el correcto. Interactúa con la base de datos, verifica los inicios de sesión…etc. Además los lenguajes y herramientas utilizados para el desarrollo son diferentes entre sí, para el backend los más usados son lenguajes con una buena capacidad de respuesta, en los que la información se encuentra en constante cambio como:
1. Java. 2. PHP. 3. Python 4. Ruby, Javascript, C…etc.
Por último, cabe destacar que uno no funciona sin el otro, de manera que aunque haya desarrolladores que se especialicen en una de los dos, deben conocer como se debe programar el otro, ya que pueden aparecer pro-blemas a lo largo del desarrollo de un sistema que de-ban solucionar. En la imagen inferior podemos ver el funcionamiento y la relación entre estos dos mientras interactúa el usua-rio.
Fig 1. Representación de la relación entre frontend y
back end. [1].
4. LENGUAJES DE DESARROLLO PARA FRONTEND
Los lenguajes más utilizados para el desarrollo de Fron-tend son:
1. HTML: es el componente principal de la es-tructura de todas las páginas webs.
2. CSS: es lo que le proporciona estilo al HTML. 3. Javascript: con él hacemos que las páginas
web sean interactivas y no estáticas.
La principal relación que tiene un framework con el Frontend es, que para proceder a desarrollar el frontend de una web, disponemos y necesitamos de la ayuda de frameworks, los cuales contienen librerías y preproce-sadores que serán de gran ayuda para el desarrollo de la interfaz de una web.
Para un programador, el momento de decidir que fra-
mework usar puede ser determinante para el desarrollo de su aplicación, ya que escoger uno llamativo pero del cual no se tienen conocimientos puede acabar en un fra-caso. Los frameworks más usados para el desarrollo de front-end son los de Javascript, y hay que tener en cuenta es-tos puntos a la hora de escoger uno:
1. Disponibilidad de recursos de aprendizaje: es importante que un framework ofrezca al usuario la posibilidad de aprender sobre él, es decir, poder adquirir manuales, tener cur-sos…
2. Usabilidad: si es la primera vez que se utiliza este framework, lo mejor para familiarizarse con él es crear un “mini proyecto” y probar en él si facilita el trabajo o por el contrario, lo empeora.
3. Popularidad: este punto tiene bastante que ver con el primero, ya que cuanto más popu-lar sea el framework escogido, más informa-ción se podrá obtener para su desarrollo.
4. Facilidad de integración con otras bibliote-cas.
5. Funciones principales.
Los trabajadores de The State of JavaScript hicieron una encuesta anual a desarrolladores de todo el mundo y los resultados fueron estos:
Fig 2. Representación de una gráfica de los frameworks más
utilizados por desarrolladores [2].
Actualmente, como podemos visualizar en la gráfica los tres frameworks más usados son React, Angular y Vue.
React, fue creado por Facebook en 2013, el lenguaje que utiliza es Javascript y posee una comunidad muy extensa ya que es una librería muy popular, al igual que Vue es utilizado para la creación de interfaces, y tienen en común que son simples y fáciles de utilizar; en cambio, posee muchas extensiones de terceros y eso complica la tarea de
14
elegir una u otra ya que no siempre puede que lo elegido sea lo más eficiente.
Vue surgió de un ex-trabajador de Google y se centra en la creación de interfaces de usuario de fácil integración entre librerías y proyectos diferentes. Posee la curva de aprendizaje más pequeña de los tres y también utiliza Javascript; lo malo, al ser un lenguaje nuevo no tiene de-masiada comunidad por tanto puede llegar a dificultar el momento de buscar soluciones a un problema.
Por último, Google en 2016 creó la versión definitiva de su framework Angular 2 que actualmente ha renombrado a Angular, cuya característica principal es que está basado en módulos y utiliza un lenguaje de programación dife-rente a lo que suelen usar la mayoría de desarrolladores, como es TypeScript, un conjunto de Javascript y EC-MAScript que facilita bastante la velocidad del desarrollo. Asimismo, cuenta con una gran y consistente documenta-ción ya que toda la sintaxis y la manera de realizar el có-digo es la misma, al contrario que si se utiliza Javascript.
A diferencia de React y Veu, es bastante complejo y su curva de aprendizaje es larga; a parte almacena el código de interfaz y el de la lógica de negocio por separado, lo que nos aporta muchas ventajas a la hora de editar esos componentes del sistema. También, es una solución a lar-go plazo y con futuro ya que está pensado para que el desarrollador solo se tenga que preocupar de Angular y no de librerías de terceros como ocurriría con React.
Fig 3. Logos de los tres frameworks (Angular, React y Vue) [3]
5. CONCLUSIONES
Finalmente, cabe destacar que a pesar de que el Frontend no conlleve la mayor carga de trabajo en código de un sistema, tiene gran importancia debido a que la mayoría de los proyectos se basan en la interacción con el usuario. Por lo que hacer una interfaz totalmente correcta y atrac-tiva visualmente puede ser la clave a la hora de que el usuario escoja un sistema u otro, para ello nos ofrecen los frameworks un sistema que puede ayudar a desarrollar más rápidamente y con mayor orden nuestra aplicación o web.
AGRADECIMIENTOS
La autora agradece a Norberto Díaz-Díaz que le ha dado la oportunidad de escribir este artículo, así como a los docentes que le han enseñado durante estos años en el grado.
REFERENCIAS
[1] https://www.designquote.net/wp/back-end-versus-front-end-
great-ui/
[2] https://openwebinars.net/blog/los-5-frameworks-de-javascript-
para-frontend-mas-usados-en-2018/
[3] https://medium.com/zerotomastery/react-vs-angular-vs-vue-
who-wins-in-2019-5d9acd0843e8
Patricia Vázquez del Cerro estudia el segundo año del grado de Ingeniería Informática en Siste-mas de la información en la Universidad Pablo de Olavide.
15
Thermodynamics of ATP synthesis in
mitocondria
Mª de los Reyes Becerra Pérez
Summary— In 1978, Peter D. Mitchell described, for the first time, the way in which energy is
used within mitochondria to synthesize ATP. His discovery would soon be named the chemi-
osmotic theory, and it proves that there is a connection between the electron flow of the res-
piratory chain in mitochondria and the activity of the well-known ATP-synthase, situated in mi-
tochondrial inner membranes. In this article, we analyse this concept from the thermodynamic
point of view, going through the definition of proton motive force and the chemical potential
and voltages associated to proton-specific channels within the mitochondrial inner membrane.
Keywords - Chemical potential, voltage, free energy, mitochondria, membrane, respiration.
—————————— ◆ ——————————
1. INTRODUCTION
Mitochondria is the powerhouse of the cell, peo-
ple say. This statement would make allusion to
the ability of mitochondria to produce energy,
which is stored in highly-energetic bonds within
the molecular structure of ATP (adenosine tri-
phosphate). However, how does this happen?
In the mitochondrial matrix, respiratory chain re-
actions are given. There, an electron transport
chain takes place through the permanent reduc-
tion and oxidation of molecules. A donor mole-
cule will first donate an electron to an acceptor,
later becoming a second donor by giving up its
electron to a second acceptor, and so on. It is im-
portant to notice that this chain occurs thanks to
each molecule being more electronegative than
the previous one: the initial electron donors are
reducing power molecules such as NADH and
FADH2, whereas the final electron acceptor is a
molecule of oxygen, which ends up being re-
duced to a water molecule. All this process occurs
between different complexes that are anchored to
the mitochondrial inner membrane, a barrier that
mediates the transport of ions and substances be-
tween the mitochondrial intermembrane space
and the matrix. In these complexes, we can high-
light molecules like coenzyme Q and cytochrome
c as electron acceptor/donors.
2. THE CHEMIOSMOTIC THEORY
This theory, introduced by Peter D. Mitchell in
1978, aims to detail the relationship between the
Fig. 1. Diagram of the electron transport chain in the
mitochondria inner membrane. Image extracted
from Reference [2].
16
electron transport chain and the ability of mito-
chondria to produce ATP (adenosine tri-
phosphate), a molecule that is known to be the
“energy storage” unit in cells, since it contains a
high-energy bond that can be broken down in dif-
ferent cellular processes to release energy for
metabolic needs.
In complexes I, III and IV from the electron
transport chain, the oxidation of NADH and other
substances lead to the introduction of protons by
the complexes into the intermembrane space. This
occurrence ends up generating what is known as
the proton-motive force, an energy that arises fom
the electrochemical gradient across the inner mi-
tochondrial membrane and that induces the
transport of protons back into the matrix. In addi-
tion, there exists only one pathway for the pro-
tons to return, which is through a proton-specific
channel cleaved to the membrane named F0, also
commonly referred to as an ATP-synthase. This
channel is coupled to an F1 proteic complex, that
is able to catalyse the formation of ATP from ADP
(adenosine di-phosphate) and free phosphate. For
this reason, the electron flow from the electron
transport chain is inevitably related to the synthe-
sis of this energetic molecule.
Furthermore, experiments were carried out so as
to prove the relationship between the electron
flow and the ATP synthesis. When blocking the
F0 channel for protons to go back into the matrix
(using toxic substances that bind to this complex,
such as oligomycin or venturicidin), the electron
flow was observed to stop. As protons get
pumped into the intermembrane space by the dif-
ferent complexes of the electron transport chain,
the proton-motive force keeps increasing as the
gradient generated across the inner mitochondrial
membrane becomes higher. Then, a point is
reached where the energy released by the electron
transport chain is compensated or exceeded
thermodynamically by the free energy that is
needed so as to pump protons into the intermem-
brane space against its gradient. Once here, the
system is at thermodynamic equilibrium, as the
change in free energy turns into zero. Hence, the
electron flow stops.
3. EXAMPLE EXERCISE
To better explain the concepts mentioned in this
article, we proceed to solve a thermodynamic ex-
ercise:
The synthesis of ATP under standard conditions re-
quires 7.7 kcal·mol-1, and this is coupled to the move-
ment of two protons across a mitochondrial membrane.
What should be the pH difference across the inner mi-
tochondrial membrane needed to drive ATP synthesis
at 25 ºC?
3.1. DATA AND UNITS
We will start by organizing all the data given in
their proper units.
o The energy given by the problem constitutes
the chemical potential (Δµ), which is the free en-
ergy released or absorbed per mole of ion due
to a change in its particle number or absorbed
per mole of ion due to a change in its particle
number or state. In this problem, this energy is
associated to the transport of ions through the
inner mitochondrial membrane. We change its
units to joules:
17
o Given that the problem asks for the calcula-
tions in the movement of two protons, the
charge (z) with which we will work will be
+2.
o We will also need Faraday’s (F) and the ideal
gas (R) constants: F = 96500 C; R = 8.31J·mol-
1·K-1.
o The temperature (T) at which the process
takes place is 25ºC = 298 K.
o Finally, we will make use of research data.
In liver mitochondria, the inner membrane
voltage (ΔV) was measured to be 0.17 V
when the convention is (Vinter.space. - Vmatrix)
(Data extracted from Reference [2]). This
membrane voltage arises from the fact that
there are different concentrations of ions at
each side of the membrane, generated by
the free passing of these through ion chan-
nels as well as their active transport by
transmembrane proteins. Each side of the
membrane is charged with an electric po-
tential, and the voltage represents the dif-
ference in these. We also know that 1 V = 1
J·C-1.
3.2. FORMULAE
Once we have all our data in the corresponding
units, we find a formula that relates them be-
tween each other. It will be the following:
(Eq. 1)
In our case, instead of just any ion, we will treat
protons. We can write:
(Eq. 2)
If we take into consideration that pH = - log [H+]
and that Ln (x) = 2.3 log (x), we can express the
right side of Eq. 2 as:
(Eq. 3)
Combining the result obtained in Eq. 3 with Eq. 1,
we arrive to:
(Eq. 4)
Where the convention we use is ΔpH = (pHinter. space
- pHmatrix) and ΔV = (Vinter.space. - Vmatrix).
3.3. RESULTS AND CONCLUSIONS
We will introduce our data for the chemical po-
tential needed to produce one ATP molecule into
Eq. 4 and solve for ΔpH:
Looking at our final result and the convention
used for the change in pH, we arrive to the con-
clusion that in order to have two protons pumped
to produce one molecule of ATP, the intermem-
brane space must be 0.10 units of pH more acid
than the mitochondrial matrix.
Contrasting this result with experimental data
extracted from different text books (Reference 1
and 2), we found out that the real pH change in
the mitochondrial matrix is approximately 8,
whereas the real pH of the intermembrane space
is 7. This supports the idea that there exists an
18
active transport of protons between the mito-
chondrial matrix and the intermembrane space,
whereas on the other hand there is no active
transport between the intermembrane space and
the cell’s cytosol (across the outter mitochondrial
membrane), as there exists no gradient since both
compartments are at the same concentration of
protons (both at pH 7).
The result obtained in our exercise implies that
the slightest change in pH across the inner mito-
chondrial membrane would thrive the transport
of two protons. As explained previously, the pro-
ton-motive force generated by the gradient in the
concentration of protons across the inner mem-
brane drives the protons back into the matrix.
Since this is a process thermodynamically fa-
voured due to the system aiming to reach an
equilibrium across the membrane, even the
smallest change in pH will favour this transport
of protons. The crossing of protons through the
ATP-synthase will keep on going as long as the
electron transport chain keeps pumping protons
into the intermembrane space and the proton-
motive force is kept generated.
REFERENCES
[1] Haynie, D. (2008). Biological Thermodynam-
ics (2nd ed.). New York: Cambridge University
Press.
[2] Nelson, D., Cox, M., & Lehninger, A.
(2006). Lehninger principles of biochemistry (4th ed.,
p. 705).
[3] Alberts, B., Johnson, A., Lewis, J., Raff, M.,
Roberts, K., & Walter, P. (2019). The Mitochondri-
on. Retrieved from
https://www.ncbi.nlm.nih.gov/books/NBK26894/
Mª Reyes Becerra Pérez is currently enrolled in
the 2nd year of the Degree in Biotechnology in the
Universidad Pablo de Olavide. She is also mem-
ber of AsBAn (Andalusian Biotechnologists Asso-
ciation).
19
Ibuprofen versus prostaglandins synthesis Alejandro Cuenca Martagón
Summary—Enzymes are special proteins that catalyse most of biological processes in our body. Their activity is governed by
Michaelis-Menten mechanism which defines different parameters. Some of the enzymes can increase or decrease their activity
in presence of specific molecules, as inhibitors. This article discusses, in particular, the characterization of prostaglandins
formation enzymes and the effect of ibuprofen as an inhibitor of enzymes related to prostaglandins synthesis as
cyclooxygenases (COX).
Key words— Ibuprofen, COX, Michaelis-Menten, Inhibitors, Prostaglandins, Kmax, Vmax
—————————— ——————————
1. INTRODUCTION
nzymes are the foundations of most of the reactions in our body. Only inside of a human cell, there exists more than 1300 different types of enzymes. Hence,
they play an important role in our metabolism. In most cases, their activity rate is governed by Michaelis-Menten mechanism [1]. This model is valid when the substrate con-centration is larger than the enzyme concentration and as-suming steady-state conditions or pre-equilibrium. One mechanism to regulate the enzyme activity is using inhibitors. They are molecules that decrease the enzymatic activity. Therefore, they are used as models to fabricate drugs to treat diseases or decreasing the pain. Ibuprofen and the synthesis of prostaglandins are a good example of this model.
2. MICHAELIS-MENTEN MECHANISM
This mechanism describes how most of enzymes work. A substrate S combines with a molecule of enzyme E, form-ing the enzyme-substrate complex ES. After the catalytic process takes place, this complex breaks down into en-zyme and reaction products [2].
In 1913, Maud Menten and Leonor Michaelis developed
their theory and proposed an equation that explains the
kinetic behaviour of enzymes. They explained that the re-
action rate of enzymes (v) depends on:
- Vmax which it is the maximum rate achieved by the
system when all the enzymes are bound to a substrate
- [S] substrate concentration
- Km or Michaelis constant which represents the sub-
strate concentrations at which the reaction rate is half the
maximum rate.
𝑣 =𝑉𝑚𝑎𝑥 [𝑆]
[𝑆]+𝐾𝑚
3. TYPES OF INHIBITORS
Enzyme inhibitors are molecules that interfere with catal-
ysis, slowing or halting enzymatic reactions. There are two
main classes of enzymatic inhibitions: irreversible and re-
versible. In this article, we will focus on the latter one.
Depending on the structure at which this molecule binds
to, we can distinguish among three different types of re-
versible inhibitors:
E
Fig. 1. Scheme of the different types of reversible inhibitions [4]
(1)
(2)
20
3.1 How to distinguish the type of inhibition?
To distinguish among these three types of inhibition, we
use an analytical method using the double-reciprocal plot
(Lineweaver-Burk plot) supported by its graphical repre-
sentation.
Analytically, we use the apparent Vmax and apparent Km
as parameters to distinguish among the three types com-
paring them with a non-inhibited enzyme.
To obtain Lineweaver-Burk equation, we calculate the re-
ciprocal of the Michaelis Menten equation where the vari-
ables are th reciprocal of the substrate (1/[S[) and the re-
ciprocal of the the rate (1/v).
4. IBUPROFEN, SYNTHESIS OF PROSTAGLANDINS
AND PAIN
Prostaglandins are a class of fatty acid derivatives with a
variety of extremely potent actions on vertebrate tissues.
Prostaglandins are responsible for producing fever and in-
flammation and its associated pain. They are derived from
the 20-carbon fatty acid arachidonic acid in a reaction cat-
alysed by the enzyme COX. This enzyme uses oxygen to
convert arachidonic acid to PGG2, the immediate precur-
sor of many different prostaglandins.
Ibuprofen is a reversible inhibitor of COX. By inhibiting
the synthesis of prostaglandins, ibuprofen reduces inflam-
mation and pain.
4.1. Calculate Vmax and Km of the enzyme
TABLE 1
EXPERIMENTAL DATA OF THE ENZYME [6]
[Arachodonic acid] (mM)
Rate of formation of PGG
(mM/min)
Rate of formation of PGG with 10mg/ml ibuprofen
(mM/min)
0.5 23.5 16.67
1.0 32.2 25.25
1.5 36.9 30.49
2.5 41.8 37.04
3.5 44.0 38.91
To calculate this parameter, we use the Lineweaver-Burk
plot properties. It exists several ways to calculate these
parameters, yet we will use the slope to determine Km
and the y-intercept to obtain Vmax.
First, we calculate the reciprocal of all data that we have
been given.
TABLE 2
RECIPROCAL OF THE EXPERIMENTAL DATA OF THE ENZYME
1/[Arachodonic acid] (mM)
1/Rate of formation of PGG
(mM/min)
1/Rate of formation of PGG with 10mg/ml ibuprofen
(mM/min)
2.000 0.042 0.059
1.000 0.031 0.039
0.667 0.027 0.032
0.400 0.023 0.026
0.286 0.022 0.025
After that, we plot it using a plotting software, such as
Excel, and we obtain the graphic equation.
𝑦 = 0.0117𝑥 + 0.0188
The slope of the line corresponds to Km/Vmax and the y-
intercept to 1/Vmax.
Hence, we solve for Vmax and Km:
1
𝑉𝑚𝑎𝑥= 0.0188
𝑚𝑖𝑛
𝑚𝑀
𝑉𝑚𝑎𝑥 = 53.19𝑚𝑀
𝑚𝑖𝑛
Fig. 2. Lineweaver-Burk plot [5]
(3)
(4)
(5)
21
𝐾𝑚
𝑉𝑚𝑎𝑥= 0.0117 𝑚𝑖𝑛
𝐾𝑚 = 0.0177 min∗ 53.19𝑚𝑀
𝑚𝑖𝑛= 0.622 𝑚𝑀
4.2. Determination of the type of reversible inhibition
Depending on the relation between the apparent Km and
Vmax of the inhibited enzyme with respect to the non-in-
hibited enzyme, we can distinguish the type of inhibition.
Fistly, we plot using the data obtained in both cases.
Linear equations:
With ibuprofen: 𝑦 = 0.0202𝑥 + 0.0188
Without ibuprofen: 𝑦 = 0.0117𝑥 + 0.0188
As we can observe, in both cases the y-intercept remains
constant, however, the slope changes. Hence, since the
first parameter depends on the Vmax, the maximum rate
in both cases remains constant. Regarding Km, as the
slope changes and Vmax remains constant, we can con-
clude that Ibuprofen exerts a competitive inhibition on
prostaglandin endoperoxide synthase.
This is due to the fact that the binding site of the inhibitor
to the enzyme is the same as the substrate: the active site;
causing a competition between the inhibitor and the sub-
strate. Hence, the maximum rate will be reached, but it
will take more time to achieve it, provoking a rise of Km
(concentration of substrate which permits the enzyme to
achieve half Vmax)
5. CONCLUSIONS
Enzimatic reactions are complex processes that occur in-
side of living beings. Due to their difficulties to be studied
in a very precise way, scientists need general models to
predict their behaviour. Michaelis Menten equation pro-
vides a very accurate model which is fulfilled by most of
enzymatic reactions. Hence, it is considered one of the
main pillars of the enzymatic study.
ACKNOWEDGEMENTS
The author wishes to thank Juan Antonio Anta for his
help in editing and correcting this article.
REFERENCES
[1] Enzyme Science. https://enzyscience.com/pages/enzyme-faq
[2] Michaelis-Menten Mechanism and schemes. https:// goldbo ok.iu-
pac.org/plain/M03893-plain.html
[3] Michaelis Menten equation. https://calistry.org/calculat e/michaelis-
menten-Equation
[4] Inhibition scheme https://en.wikipedia.org/wiki/Enzyme _inhibi-
tor#/media/File:Types_of_inhibition_en.svg
[5] Lineweaver-Burk plot. https://en.wikipedia.org/wiki/Linew
eaver%E2%80%93Burk_plot#/media/File:Lineweaver-Burke_plot.svg
[6] David L. Nelson and Michael M. Cox, Lehninger, Principles of Biochemis-
try. Macmillan, pp. 239, 2013.
Fig. 3. Lineweaver-Burk plot of the enzyme in the presence and in the absence of ibuprofen
Alejandro Cuenca Martagón estu-diante de Biotecnología de segundo curso en la Univerdad Pablo de Ola-vide.
(6)
(7)
22
PIXE para el estudio de elementos sustentados en patrimonio gráfico y
documental Elena De La Rosa Regot
Resumen—Las técnicas de origen nuclear están ganando terreno en el análisis del patrimonio. En el caso de los documentos,
su principal uso se encuentra en el estudio de elementos sustentados, en especial de tintas metaloácidas. Su aplicación,
aunque con limitaciones, resulta de gran utilidad para conocer los elementos que componen estos materiales.
Palabras Claves— IBA, Patrimonio documental, PIXE, Técnicas de origen nuclear, Tintas metaloácidas.
—————————— ——————————
1. INTRODUCCIÓN
n el diagnóstico del Patrimonio Cultural, es de vital importancia el conocimiento de los materiales que lo conforman para poder adecuar los tratamientos y
métodos de conservación a cada objeto. Actualmente, las técnicas más utilizadas son aquellas que permiten un aná-lisis no destructivo de las obras de arte [1].
Las técnicas de origen nuclear o IBA (Ion Beam Analy-sis) [2] se han aplicado al conocimiento de materiales pa-trimoniales desde los años 90 del siglo XX [2], [3]. Ac-tualmente, se trata de técnicas bastante usadas a causa de su gran potencial [3], pese a sus limitaciones. Normal-mente se aplican de forma conjunta, ya que se comple-mentan fácilmente, incluso con otras técnicas de análisis no nucleares, como la Fluorescencia de Rayos X (FRX) [2].
2. TÉCNICAS DE ORIGEN NUCLEAR
Existen diferentes técnicas de origen nuclear. Todas ellas se basan en la interacción de un haz producido por un acelerador de iones con la materia a analizar [3]. Dicho haz está compuesto de iones ligeros —protones o helio— que pueden generar, con más facilidad que otras partícu-las, diferentes tipos de reacciones en el interior de los átomos que forman la materia [2], [3].
Según los fenómenos que se produzcan, se pueden ob-tener cuatro tipos de emisión, o radiación secundaria, por parte del material analizado y que son la base de diferen-tes técnicas analíticas [2], [3], como muestra la Figura 1: Rayos X: Particle Induced X-ray Emission (PIXE) Rayos γ: Particle Induced Gamma-ray Emission
(PIGE) Partículas: Rutherford Backscattering Spectrome-
try (RBS); Elastic Recoil Detection Analysis (ERDA); Nuclear Reaction Analysis (NRA)
Radiaciones ultravioleta (UV), infrarroja (IR) y vi-sible: ionoluminiscencia (IOL)
El hecho de que con un mismo haz de iones se puedan producir todas estas emisiones de forma simultánea con una sola exposición facilita el uso conjunto de estas técni-cas [3]. Para ello, serán necesarios diferentes detectores para cada radiación [2], [3]. Además, cada técnica propor-ciona diferentes datos, como la composición elemental, tanto de elementos pesados como ligeros, o su distribu-ción hacia el interior del material [2].
Sin embargo, entre las técnicas de origen nuclear, el uso de PIXE destaca por encima de las demás en el análi-sis de documentos [4], en especial de sus elementos sus-tentados [3], [5]. Ello se debe a que el fenómeno en el que se basa esta técnica es el que presenta una mayor probabi-lidad de ocurrir: la emisión de rayos X [3], [6].
3. PARTICLE INDUCED X-RAY EMISSION (PIXE)
3.1. Fundamentos
La excitación de los átomos se produce con la irradiación de iones con una energía entre 0,5 y 10 MeV. En patrimo-nio, la más empleada se suele situar entre 2 y 5 MeV [2], [3], si bien se han usado algunas más elevadas [1]. Así se consigue la expulsión de los electrones de las capas inter-nas [7], lo que produce la ionización del átomo [3]. La transición de los electrones de las capas superiores a las inferiores para ocupar esas vacantes genera rayos X carac-terísticos de cada elemento [7]. El uso de protones, en lugar de electrones, para producir rayos X genera menos
————————————————
Elena De La Rosa Regot. Restauradora de materiales celulósicos, bibliográficos y fotográficos. [email protected].
E
Fig. 1. Representación de los diferentes fenómenos y técni-cas de origen nuclear. [2]
23
ruido que pueda alterar la lectura de los espectros [6], [7]. La irradiación puede llevarse a cabo en una cámara de
vacío o con un haz externo [5]. Este segundo método es el más utilizado en patrimonio, ya que permite el análisis no destructivo de obras de cualquier forma y dimensión [2].
Para captar y discriminar los rayos X emitidos y sus in-tensidades [2] existen diferentes detectores, como los de germanio de alta pureza, de estado sólido de Si(Li) y de estado sólido enfriados por nitrógeno o efecto Peltier [2], [3]. Estos están compuestos por una ventana, un semi-conductor y una resistencia, que captan y transforman los rayos X en señales de voltaje. Estas se procesan de forma electrónica y se genera un espectro de rayos X [3].
3.2. Características
PIXE es una técnica de carácter multielemental [8], [9], no destructiva [4], [9] y, en principio, no invasiva [10]. Sin embargo, existen casos donde la exposición a PIXE ha originado cambios a nivel elemental, aunque han podido ser revertidos con luz UV [2], [6]. Así pues, debe minimi-zarse en lo posible la zona a analizar y la energía aplicada para su análisis [4], [8], [9].
Es una técnica muy precisa [4], [8] y sensible [7], [9], ya que permite el análisis de elementos traza de varias partes por millón (ppm) [3], [7]. Además, ofrece resultados tanto cualitativos como cuantitativos [2], [11]. Está considerada una técnica rápida, ya que sus tiempos se encuentran en-tre 3 y 15 minutos [3]. Además, PIXE permite su aplica-ción en análisis puntual, mapeado o escaneado en super-ficie [3], [6], [12] y en perfiles de concentración elemental —profundidad o alcance— [1], [3].
Por el contrario, su uso está limitado a elementos más pesados que el sodio [9] y por ello es ideal para el estudio de materiales inorgánicos [3], si bien su combinación con RBS o PIGE permite el análisis de materiales orgánicos [1], [3]. PIXE tampoco ofrece información molecular [9].
Sin embargo, el principal inconveniente de la técnica es el alto costo de su equipamiento, aunque si se dispone del mismo, el costo de los análisis puede ser parecido al de otras técnicas de uso más común [3]. Otro de sus incon-venientes es la necesidad de trasladar el objeto al labora-torio [3]. No obstante, su uso combinado con otras técni-cas que pueden usarse in situ —FRX, Raman, IR— permi-te elegir zonas de muestreo para su posterior traslado a las dependencias de PIXE [8].
3.3. Centros de investigación
Pese a su alto coste, muchos centros cuentan ya con un acelerador de iones que les permite realizar estos análisis. En Europa, por nombrar algunos, encontramos el Centro de Micro-Análisis de Materiales (CMAM) de la Universi-dad Autónoma de Madrid [2], [11], en España; el centro de investigación ENEA Frascati [1] o el Laboratorio di tecniche nucleari per i beni culturali (LABEC) [12], ambos en Italia; el Vienna Environmental Research Accelerator (VERA), en Austria [13]; el Microanalytical Centre del Jožef Stefan Institute, en Eslovenia [9], [10], [14]; el Cam-pus tecnológico e nuclear del Instituto Superior Técnico de Portugal [6] o el Accélérateur Grand Louvre d'Ana-lyses Elémentaires (AGLAE), en Francia [15].
4. APLICACIONES EN EL PATRIMONIO GRÁFICO Y
DOCUMENTAL
Al tratarse de una técnica en superficie [4], [10], el uso de PIXE se ha extendido en el análisis de documento, ya sea en soporte papel [6], [16], pergamino [3] o papiro [17]. Aunque no permite el análisis de dichos soportes, ya que se trata de materiales orgánicos, sí que permite conocer la presencia de impurezas en estos [9] o la composición de sus elementos sustentados [18], así como comprobar la eficacia de los tratamientos de restauración aplicados [3], [8]. Por ejemplo, en la Figura 2 se observan los cambios producidos después del tratamiento de estabilización de tintas metaloácidas en soporte papel mediante el trata-miento con fitato cálcico/bicarbonato cálcico [8]: el lavado preliminar por inmersión en agua reduce el contenido en azufre, ya que retira los sulfatos solubles presentes en las tintas; posteriormente se introduce en un baño de fitato cálcico, que tiene un efecto quelante; y por último se su-merge en una disolución de bicarbonato de calcio, cuyo residuo neutralizador produce el aumento de calcio.
Ello permite recabar información sobre el objeto para elaborar el diagnóstico y la propuesta de restauración, así como ampliar nuestros conocimientos sobre su historia y técnica [9] e, incluso, de su autoría [19] y cronología [20] mediante la identificación de los elementos presentes en su composición.
4.1. Elementos sustentados analizados
PIXE ha sido ampliamente utilizado para el estudio de los elementos sustentados aplicados en patrimonio gráfico y documental: tintas caligráficas [6], [19], iluminaciones [17], [21], técnicas pictóricas diversas [12], [13], [18], etc.
De todos ellos, las tintas metaloácidas han sido las más analizadas y las investigaciones que se han llevado a cabo han respondido a diferentes inquietudes. Como es bien sabido, las tintas metaloácidas pueden contener diferentes elementos en su composición [6], [7], [19] —se calcula que solamente en el ámbito europeo existen más de 250 rece-tas diferentes [8]— y, por tanto, su composición química diferirá de unos documentos a otros [6]. Estas diferencias, que PIXE es capaz de detectar [8], [22], permiten conocer aquellos elementos que han podido contribuir al mal (o buen) estado de los documentos [6], [8] —por ejemplo, el hierro y el cobre aceleran el deterioro [4] mientras que el zinc lo ralentiza [8]—; comparar las mezclas usadas en distintos documentos para establecer la autoría y crono-
Fig. 2. Espectro PIXE antes y después del tratamiento de las tintas metaloácidas. El tratamiento obtuvo resultados satisfactorios, tal y como
muestra la disminución de azufre (S) y el aumento de calcio (Ca). [8]
Energía de Rayos X (keV)
Inte
nsid
ad (c
ts)
--------- 1602019 - antes del tratamiento - - - - - 1704018 - después del tratamiento
24
logía de los mismos [3], [19]; comprobar la eficacia de los tratamientos de desacidificación [8], etc.
El análisis PIXE se ha aplicado principalmente a los pigmentos de las iluminaciones para conocer su composición química elemental [5], [21]. Este conocimiento es muy útil para evitar tratamientos que puedan degradar algunos pigmentos concretos. En algunos casos, también ha servi-do para comprobar si existía alguna relación entre los fragmentos de una colección [17]. Por otro lado, las tintas negras de carbón no pueden ser identificadas mediante esta técnica, ya que están formadas por carbono, que es un elemento ligero [9], [19].
Finalmente, de entre todas las técnicas pictóricas anali-zadas, cabe destacar los dibujos de punta metálica, ya que solamente hay dos técnicas de análisis no destructivas con la sensibilidad suficiente para caracterizarlas: PIXE y FRX por radiación sincrotrón (SFRX) [13]. Con ellas se puede diferenciar el material que componía el instrumento usa-do para la obra (cobre, zinc, plata, plomo, etc.) [12], [13].
5. CONCLUSIONES
Las técnicas nucleares, y en especial PIXE, están mostran-do el gran potencial que poseen para la caracterización de materiales. A pesar de algunas limitaciones —el elevado coste del equipamiento—, cada vez más centros poseen laboratorios capaces de llevar a cabo estas analíticas.
Por otro lado, las ventajas que presenta permiten un análisis multielemental, no destructivo, no invasivo y con una alta sensibilidad. Además, aunque no permite el aná-lisis de elementos más pesados que el sodio, es fácilmente acoplable a otras técnicas nucleares que sí permiten el análisis de materiales orgánicos, como PIGE.
No obstante, debe reducirse el área de análisis y la energía aplicada para evitar posibles cambios en el mate-rial analizado.
REFERENCIAS
[1] M. Vadrucci, G. Bazzano, F. Borgognoni, M. Chiari, A. Mazzinghi, L. Picardi, C. Ronsivalle, C. Ruberto, y F. Taccetti, “A new small-footprint external-beam PIXE facility for cultural heritage applications using pulsed proton beams,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 406, pp. 314–317, Sep. 2017.
[2] C. Gutiérrez, “Ventajas y limitaciones del análisis de los bienes culturales con PIXE: el caso de los vidrios romanos y de los pigmentos blancos en la pintura,” in La Ciencia y el Arte III, Ministerio de Educación, Cultura y Deporte, 2015, pp. 269–279.
[3] J.L. Ruvalcaba Sil, “Las Técnicas de Origen Nuclear: PIXE y RBS,” in La Ciencia y el Arte, Ministerio de Educación, Cultura y Deporte, 2008, pp. 151–172.
[4] M. Budnar, J. Simčič, Z. Rupnik, M. Uršič, P. Pelicon, J. Kolar, y M. Strlič, “In-air PIXE set-up for automatic analysis of historical document inks,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 219–220, pp. 41–47, Jun. 2004.
[5] T. Calderón, “La escritura como elemento artístico de interés científico,” in La Ciencia y el Arte, Ministerio de Educación, Cultura y Deporte, 2008, pp. 212–222.
[6] R. Viegas, V. Corregidor, M.T. Peña, E. Alves, y L.C. Alves, “Preliminary studies on iron gall inks composition using an external ion beam,” Int. J. Conserv. Sci., vol. 4, no. Special, pp. 593–602, 2013.
[7] D. M. Goltz, “A Review of Instrumental Approaches for Studying Historical Inks,” Anal. Lett., vol. 45, no. 4, pp. 314–329, Mar. 2012.
[8] J. Duh, D. Krstić, V. Desnica, y S. Fazinić, “Non-destructive study of iron gall inks in manuscripts,” Nucl. Instruments
Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 417, pp. 96–99, Feb. 2018.
[9] J. Vodopivec, M. Budnar, y P. Pelicon, “Application of the PIXE method to organic objects,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 239, no. 1–2, pp. 85–93, Sep. 2005.
[10] M. Budnar, M. Uršič, J. Simčič, P. Pelicon, J. Kolar, V. S. Šelih, y M. Strlič, “Analysis of iron gall inks by PIXE,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 243, no. 2, pp. 407–416, Feb. 2006.
[11] A. Zucchiatti, A. Climent-Font, O. Enguita, M.T. Fernandez-Jimenez, G. Finaldi, C. Garrido, y J.M. Matillas, “PIXE analysis of Italian ink drawings of the XVI century,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 240, no. 1–2, pp. 520–526, Oct. 2005.
[12] N. Grassi, L. Giuntini, P. A. Mandò, y M. Massi, “Advantages of scanning-mode ion beam analysis for the study of Cultural Heritage,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 256, no. 2, pp. 712–718, Mar. 2007.
[13] P. Milota, I. Reiche, A. Duval, O. Forstner, H. Guicharnaud, W. Kutschera, S. Merchel, A. Priller, M. Schreiner, P. Steier, E. Thobois, A. Wallner, B. Wünschek, y R. Golser, “PIXE measurements of Renaissance silverpoint drawings at VERA,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 266, no. 10, pp. 2279–2285, May 2008.
[14] M. Uršič, M. Budnar, J. Simčič, y P. Pelicon, “The influence of matrix composition and ink layer thickness on iron gall ink determination by the PIXE method,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 247, no. 2, pp. 342–348, Jun. 2006.
[15] M. Morelle, Y. El Masri, Ch. Heitz, R. Prieels, J. Van Mol, J.C. Dran, J. Salomon, T. Calligaro, y M. Dubus, “PIXE and RBS applied to cultural heritage objects: Complementarity and limitations,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 240, no. 1–2, pp. 600–605, Oct. 2005.
[16] M. Manso, M. A. Reis, J. Candeias, y M. L. Carvalho, “Portable energy dispersive X-ray fluorescence spectrometry and PIXE for elemental quantification of historical paper documents,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 298, pp. 66–69, Mar. 2013.
[17] T. Christiansen, D. Buti, K. N. Dalby, P. E. Lindelof, K. Ryholt, y A. Vila, “Chemical characterization of black and red inks inscribed on ancient Egyptian papyri: The Tebtunis temple library,” J. Archaeol. Sci. Reports, vol. 14, pp. 208–219, Aug. 2017.
[18] A. Zucchiatti, A. Climent-Font, J. Gómez-Tejedor, S. Martina, C. Muro García, E. Gimeno, P. Hernández, y N. Canelo, “Building a fingerprint database for modern art materials: PIXE analysis of commercial painting and drawing media,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 363, pp. 150–155, Nov. 2015.
[19] A. Zucchiatti, A. C. Font, y M. C. Galassi, “PIXE and IRR analysis of sixteenth-century ink drawings by Luca Cambiaso and his school,” Stud. Conserv., vol. 57, no. 3, pp. 131–141, Jul. 2012.
[20] P. Del Carmine, L. Giuntini, W. Hooper, F. Lucarelli, y P. A. Mandò, “Further results from PIXE analysis of inks in Galileo’s notes on motion,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 113, no. 1–4, pp. 354–358, Jun. 1996.
[21] O. Kakuee, V. Fathollahi, P. Oliaiy, M. Lamehi-Rachti, R. Taheri, y H. A. Jafarian, “External PIXE analysis of an Iranian 15th century poetry book,” Nucl. Instruments Methods Phys. Res. Sect. B Beam Interact. with Mater. Atoms, vol. 273, pp. 178–181, Feb. 2012.
[22] M. Aceto y E. Calà, “Analytical evidences of the use of iron-gall ink as a pigment on miniature paintings,” Spectrochim. Acta Part A Mol. Biomol. Spectrosc., vol. 187, pp. 1–8, Dec. 2017.
Elena De La Rosa Regot Licenciada en Bellas Artes y graduada en Conservación y Restaura-ción por la Universidad de Barcelona. Se ha especializado en materiales celulósicos y obje-tos fotográficos. Ha colaborado en instituciones como el Museo Nacional de Arte de Cataluña, el Archivo Nacional de Cataluña y el Museo Nacional Centro de Arte Reina Sofía, entre otros. Actualmente es jefa del equipo de res-tauración en el Taller de Restauración de Do-
cumento Gráfico del monasterio de Sant Pere de les Puel·les, en Barcelona, y cursa el Máster en Diagnóstico del Estado de Conser-vación del Patrimonio Histórico en la Universidad Pablo de Olavide de Sevilla.
25
Técnicas de análisis para la identificación de aglutinantes en la pintura de caballete
Daniel Morales Martín
Resumen— Los aglutinantes pictóricos en pintura de caballete presentan una compleja composición estructural. A pesar de
los tratados artísticos y de otras fuentes documentales, algunos de los componentes del medio pictórico siguen siendo
materiales desconocidos. Las técnicas analíticas permiten identificar gran parte de estas sustancias filmógenas, aportando
la información necesaria para abordar la metodología de conservación-restauración más apropiada a cada obra en particu-
lar de acuerdo a su naturaleza.
Palabras Claves— Aglutinantes, Cromatografía, Ensayo de tinción, FTIR, Pintura de caballete.
—————————— ◆ ——————————
1. INTRODUCCIÓN
a pintura de caballete es el resultado de una compleja
y delicada estructura heterogénea que da lugar a una
experiencia figurativa en dos dimensiones [1]. Bajo
esta definición se incluye toda aquella pintura ejecutada
sobre un soporte de carácter móvil como madera, tela,
vidrio, planchas metálicas, piel y marfil, entre otros. La
Pintura nace como un medio de representación y expre-
sión gráfica que queda sujeto a la experimentación creati-
va de los artistas, hecho que va a permanecer ligado a su
propia naturaleza desde su inicio hasta la actualidad con
el Arte Contemporáneo. La constante búsqueda expresiva
a través de la plasticidad de los materiales lleva a los artis-
tas a recurrir a multiples medios que van a determinar las
características estéticas de su trabajo. Junto a los diferen-
tes soportes y sus acabados, los aglutinantes son uno de
los principales factores que intervienen en este juego y, a
su vez, estos últimos van a determinar la técnica pictórica
utilizada [2], [3]. Gracias a los diferentes tratados, manua-
les y a los catálogos de materiales para bellas artes se
tiene constancia de este desarrollo técnico. No obstante,
dichas fuentes siguen generando incógnitas en el ámbito
práctico, ya que estos escritos no son estándares fijos,
sino que las fórmulas para preparar los aglutinantes y
otros medios pictóricos varían en función del artista, la
época y el entorno en el que se inscribe cada obra. Este
hecho constituye un punto de inflexión en la identidad,
estabilidad y comportamiento de las pinturas [2]. Aquí, las
técnicas de análisis adquieren un papel primordial al per-
mitir identificar la naturaleza y composición de los ligan-
tes empleados.
En este artículo se presentan los principales exámenes
que permiten abordar de forma científica el estudio y la
caracterización de los aglutinantes utilizados en pintura
de caballete a lo largo de la historia. De este modo, se
proporciona al lector una útil herramienta con la que ob-
tener la información necesaria para desarrollar un criterio
y una metodología de estudio e intervención apropiados
a las características técnicas de las obras; un hecho que
permite minimizar el riesgo de tratamientos de restaura-
ción como la limpieza de la superficie pictórica, interven-
ción irreversible y de alto riesgo debido al fenómeno de
lixiviación, ligado a la naturaleza del aglutinante [4].
2. AGLUTINANTES Y MEDIOS PICTÓRICOS
El aglutinante, definido como «sustancia que mantiene las
partículas tanto de los pigmentos como de las cargas
inertes, unidas entre sí, cohesionadas; y con el soporte o
la capa anterior» [5], es el responsable de las propiedades
físicas, químicas y estéticas de los estratos pictóricos [6].
Estos aspectos varían en función de la naturaleza del li-
gante, lo que a su vez deriva en alteraciones característi-
cas que se pueden ver acentuadas por la metodología de
aplicación del medio filmógeno [2], [7].
La composición de los aglutinantes es muy compleja,
teniendo en cuenta que se les puede incorporar aditivos
como secativos (pigmentos secantes), retardantes (aceites
esenciales) o estabilizantes (ceras y resinas), entre otros
[2], [3].
De forma general, se clasifican en función de su natu-
raleza, diferenciando entre dos grandes grupos: agluti-
nantes naturales y sintéticos. Dentro del primero se cuen-
ta con una subdivisión según su origen, que puede ser
animal, vegetal o mineral. Entre los aglutinantes naturales
de procedencia animal se encuentran las colas (proteínas),
el huevo entero o sus partes por separado (proteínas,
aceites y grasas), la caseína (proteínas), algunas ceras (és-
teres de ácidos grasos saturados) tales como la china o la
de abeja y ciertas resinas como la goma laca (ácido ses-
quiterpénico). Las gomas (polisacáridos), las dextrinas y el
almidón (polisacáridos), los aceites secantes (ácidos gra-
sos) y las resinas (compuestos terpénicos) son los princi-
pales medios pictóricos de origen vegetal. Un aglutinante
de naturaleza mineral es la cera de parafina (hidrocarbu-
ros alcanos) [2], [7], [8]. Todos estos materiales pueden
mezclarse formando emulsiones conocidas como temple
————————————————
Daniel Morales Martín. Máster en Diagnóstico del Estado de Conserva-ción del Patrimonio Histórico, Universidad Pablo de Olavide. [email protected]
L
26
graso o magro, dependiendo de la fase dispersante [2].
Entre los aglutinantes sintéticos más utilizados se encuen-
tran las resinas alquídicas (poliésteres saturados modifica-
dos con ácidos grasos), vinílicas (polivinilacetato), acrílicas
(derivados del ácido acrílico o metacrílico), el látex (natu-
ral o vinílico), el esmalte nitrocelulósico (éster de celulosa)
y los denominados óleos al agua (aceite secante emulsio-
nado en agua por la acción de un tensoactivo a base de
ácido graso) [2], [9]. La gran mayoría de los ligantes sinté-
ticos se presentan en dispersión, lo que implica la incor-
poración de aditivos de diversa índole, en parte descono-
cidos, para estabilizar las emulsiones [9].
Al igual que los aglutinantes tradicionales, los com-
temporáneos no son sustancias puras, lo que dificulta en
ambas categorías el conocimiento exacto de sus com-
ponentes [7].
3. TÉCNICAS DE ANÁLISIS PARA LA IDENTIFICACIÓN
DE AGLUTINANTES PICTÓRICOS
La caracterización de los materiales filmógenos que com-
ponen los estratos pictóricos es fundamental para abordar
tratamientos de conservación-restauración tales como la
limpieza y/o la eliminación de barnices y repintes, o la
consolidación. Este hecho permite seleccionar, de acuerdo
a los criterios de intervención actuales, los productos de
restauración más adecuados en función de su afinidad
con el material original garantizando al mismo tiempo la
inocuidad y la reversibilidad o la retratabilidad del proce-
so efectuado [10]. De igual modo, la identificación de los
aglutinantes permite interpretar parte de las alteraciones
sufridas en las obras y con ello buscar el criterio y ajustar
la metodología de intervención más apropiados [1]. Para
esta tarea contamos con varias técnicas analíticas basadas
en unos fundamentos fisicoquímicos determinados. Por
un lado, no todos los métodos de examen tienen un ca-
rácter versátil y universal que permita reconocer los mate-
riales por igual, siendo algunos imperceptibles para los
equipos de medida. Por otro lado, los analitos no son
muestras frescas, sino envejecidas, lo que conlleva cam-
bios en su estructura química que se han de tener en
cuenta para la identificación [7] (Tabla 1).
3.1. Cromatografía
Las técnicas instrumentales de separación por cromato-
grafía permiten conocer la compleja estructura de los
aglutinantes a partir de una pequeña muestra de donde
se liberan y separan los distintos componentes de la mis-
ma. Estos análisis se basan en las diferencias entre las
propiedades de los distintos componentes del analito. En
función de estas, se define el tipo de examen a realizar
[11].
La cromatografía de gases (GC) es una de las metodo-
logías de carácter universal ya que puede identificar una
gran variedad de compuestos naturales y sintéticos en
función de su volatilidad. El acoplamiento del espectró-
metro de masas (EM) al equipo permite la cuantificación
del resultado y su identificación sin necesidad de recurrir
a patrones modelo. El método de preparación de la mues-
tra puede ser la vaporización o la pirolisis, separando los
componentes por la acción de un disolvente o por ruputra
térmica, respectivamente [7], [11]. La sililación, método de
derivación para la vaporización por inyección, proporciona
de forma simultánea información sobre proteínas y grasas
mezcladas en una misma muestra. Si bien la reproducibi-
lidad del método se ve en cierta medida cuestionada por
algunos aspectos derivados del proceso de sililación [12].
La GC por vaporización permite identificar lípidos, proteí-
nas, resinas, ceras y polisacáridos, mientras que la GC pi-
rolítica detecta macromoléculas de alto peso molecular
como los aglutinantes oleosos y los de origen sintético,
entre ellos los alquídicos, polivinílicos, poliacrílicos y el
nitrato de celulosa [7].
La cromatografía líquida (LC) presenta diversas varian-
tes en función de la afinidad del analito con la fase esta-
cionaria. La cromatografía líquida en columna o de alta
resolución (HPLC) es la técnica más utilizada para la carac-
terización de aminoácidos (colas proteicas) y ácidos gra-
sos (aceites secantes). El uso de detectores ultravioleta-
visible (derivatización de la muestra con agentes cromófo-
ros) o de fluorescencia (modificación del analito con com-
puestos fluorógenos) permite realizar un análisis cuantita-
tivo. Sin embargo, la HPLC-Fluorescencia tiene mayor sen-
sibilidad, proporcionando una mejor resolución [7], [11].
Otros detectores como la espectroscopía de masas ofre-
cen un examen cuantitativo y cualitativo, además de iden-
tificar directamente, sin previa derivatización, los aminoá-
cidos [7]. Yendo más allá, una nueva tecnología denomi-
nada nanocromatografía líquida o nanoionización por
electrospray (nanoLC o nanoESI) permite identificar la es-
pecie animal de la que proceden las colas proteicas al
reconocer secuencias individuales de enlaces péptidos
[11]. La cromatografía de exclusión (SEC) separa los com-
puestos de la mezcla en función del tamaño de sus molé-
culas, que se filtran al pasar por la fase estacionaria. Este
método permite identificar resinas acrílicas y sustancias
derivadas del envejecimiento de los aceites. La cromato-
grafía líquida en capa fina (TLC) detecta los compuestos
en base al factor o índice de retención, lo que permite un
análisis cualitativo de lípidos, resinas naturales, polisacári-
dos y proteínas, siendo necesaria la hidrólisis previa de los
dos últimos [7], [11].
TABLA 1 TÉCNICAS PARA LA IDENTIFICACIÓN DE AGLUTINANTES
Técnicas de análisis Tipo Aplicación
Cromatografía de gases* Cualitativo/Cuantitativo Universal
Cromatografía líquida* Cualitativo/Cuantitativo Universal
Electroforesis capilar Cualitativo/Cuantitativo
Proteínas y ácidos
grasos
Espectroscopía infrarroja
transformada de Fourier Cualitativo Universal
Espetroscopía Raman Cualitativo
Proteínas y ácidos
grasos
Ensayo de tinción Cualitativo
Proteínas, polisa-
cáridos y ácidos
grasos
Análisis microquímico Cualitativo Ácidos grasos
* Las cualidades que se presentan en las columnas contiguas dependen del tipo
de detectores y de la preparación del analito.
27
3.2. Electroseparación
La electroforesis capilar (EC), basada en un principio elec-
troquímico (diferencia en el comportamiento de las espe-
cies iónicas ante el suministro de una corriente eléctrica),
permite identificar la sustancia aglutinante de acuerdo a la
separación de los iones según su relación carga-tamaño.
Esta técnica de análisis instrumental requiere una reducida
cantidad de muestra que ha de ser hidrolizada, salvo en el
caso de las resinas. Con el previo calibrado del equipo
mediante patrones se obtiene la caracterización de pro-
teínas, gomas vegetales, ceras, resinas y aceites secantes.
Los electroforegramas muestran una cuantificación de los
componentes [7], [11].
3.3. Espectroscopía FTIR y RAMAN
Estas técnicas de análisis permiten la caracterización de
los aglutinantes en base a la determinación de los grupos
funcionales [11]. Ambos métodos permiten identificar el
medio pictórico a través de su comparación con espectros
patrón recogidos en una base de datos y que deben reali-
zarse con los equipos utilizados para el estudio de la pin-
tura (Fig. 1). Las bandas características de cada compuesto
pueden variar en función de las propiedades del instru-
mento [13].
La espectroscopia infrarroja por transformada de Fou-
rier (FTIR) es un método de alta sensibilidad que permite
realizar el análisis cualitativo de la muestra a partir de una
cantidad mínima de la misma. Según las características del
analito se puede recurrir a la reflectancia difusa (DRIFT),
cuando se trata de muestras sólidas o pulverizadas (re-
quieren una mínima preparación previa), o a la reflectan-
cia total atenuada (ATR) para cualquier material (sin nece-
sidad de preparación). Además, el modo ATR permite rea-
lizar el análisis sin proceder a la toma de muestra [14].
Cuando se trata de sustancias muy complejas la resolu-
ción del espectro resulta difícil de interpretar. No obstan-
te, el método FTIR permite identificar cualquier tipo de
aglutinante [7], [11], [14].
La espectroscopía Raman se caracteriza por ser una
técnica no destructiva, acercándose más a los principios
éticos actuales que rigen el análisis de las obras de arte
que aquellas otras técnicas que requieren toma de mues-
tras del material original [15], [16]. Permite obtener un
análisis cualitativo de los componentes del aglutinante,
siendo aplicado en la identificación de ceras naturales,
proteínas, resinas y aceites secantes. Si bien los espectros
pueden presentar baja resolución debido a la fluorescen-
cia emitida por los biomateriales, aspecto que dificulta la
interpretación de los resultados [7], [11] (Fig. 2).
3.4. Ensayos de Tinción
Esta técnica se basa en la interacción del aglutinante con
una sustancia colorante diluida en un medio de pH ácido
o básico. El ensayo, que se realiza sobre una muestra de
corte transversal, cuenta con una serie de condicionantes.
Estos son la pureza y la concentración del reactivo, el pH
de la disolución, el tiempo de tinción y la temperatura
[17].
De forma general, los principales tipos de tinción per-
miten identificar ligantes protéicos, lípidos y amiláceos. La
determinación de los compuesto filmógenos se realiza,
bajo luz visible o ultravioleta, de acuerdo a la coloración
obtenida tras la aplicación del reactivo [18] (Tabla 2). La
mayor o menor intensidad de la tinción es considerada
como un factor para distinguir entre varios aglutinantes
de un mismo grupo. Según este parámetro con la Fucsina
ácida se puede diferenciar entre cola animal (color de tin-
ción rosa intenso) y caseina o huevo (color de tinción rosa
claro), y con el reactivo Aceite rojo O entre aceite (color
de tinción rojo intenso) y yema o huevo entero (color de
tinción rojo claro) [17]. Sin embargo, esta valoración que-
da sujeta a un principio subjetivo.
Fig. 2. Espectro Raman de una pintura al óleo del siglo XIX que presenta una baja resolución debido a la interferencia de la fluo-rescencia emitida por parte de los componentes de la muestra
analizada (fuente propia).
TABLA 2 RELACCIÓN ENTRE LOS REACTIVOS DE TINCIÓN, LA COLORA-
CIÓN RESULTANTE Y LA NATURALEZA DEL AGLUTINANTE
Reactivo de tinción Coloración Aglutinante
Fucsina ácida Rosa Proteíco
Rojo Ponceau S Naranja, rojo, rosa Proteíco
Negro de Amido AB2 Azul claro/oscuro Proteíco
Rodamina B Rojo, naranja* Lípido
Diclorofluoresceína Amarillo, rosa* Lípido
Negro Sudán B Azul claro/oscuro Lípido
Aceite rojo O Rojo Lípido
Lugol Azul/violeta Amiláceo
* Color bajo iluminación ultravioleta.
Fig. 1. Espectro FTIR-ATR de un temple magro del siglo XVI. En color negro (a) se presenta el espectro de la muestra pictórica anali-zada y en azul (b) el patrón de un aglutinante proteico (cola animal)
(fuente propia).
Longitud de onda cm-1
Inte
nsi
dad A
TR
Longitud de onda cm-1
Inte
nsi
dad R
am
an
28
Los ensayos de tinción son un método muy limitado, si
bien permiten caracterizar la superposición de estratos
cuyo material ligante es diferente, como sucede en las
técnicas mixtas [17], [2] (Fig. 3).
3.5. Análisis microquímico
Este último método, prácticamente desplazado por los
anteriores, identifica fundamentalmente aglutinantes gra-
sos. La caracterización se hace en base a la reactividad de
la muestra, previamente hidrolizada con una disolución de
amoniaco, ante un agente oxidante (peróxido de hidró-
geno). Este procedimiento genera un fenómeno eferves-
cente al liberar oxígeno que permite determinar la pre-
sencia de un aglutinante oleoso (Fig. 4). Otros procesos
metodológicos más complejos posibilitan el estudio de
algunos ligantes específicos como la resina de colofonia
[17].
Los principales inconvenientes de estos análisis radi-
can en el tamaño de la muestra, la cantidad del aglutinan-
te presente en la misma y la modificación de los paráme-
tros de reactividad de las sustancias filmógenas a causa
de su envejecimiento natural [11], [17], [19].
4. CONCLUSIONES
La caracterización de los aglutinantes pictóricos es una
ardua tarea debido a su compleja estructura y mezcla. Se
cuenta con múltiples métodos de análisis cuantitativo y
cualitativo que permiten identificar los principales com-
ponentes del medio filmógeno. Sin embargo, la completa
determinación de las sustancias aglutinantes sigue siendo
en parte una incertidumbre. De entre los métodos de
examen analizados en el presente artículo, las técnicas
cromatográficas son las que tienen mayor precisión ade-
más de tener un carácter universal. Por el contrario, las
muestras han de ser previamente sometidas a un comple-
jo proceso de preparación para conseguir su disolución
y/o derivatización. La espectroscopía FTIR acoplada a un
microscopio tiene, igualmente, una aplicación universal
sin necesidad de preparar demasiado las muestras pictóri-
cas, aunque la interpretación de los resultados puede ver-
se obstaculizada cuando se trata de materiales complejos.
El resto de técnicas tienen más limitaciones en cuanto a su
aplicación y precisión, por lo que son utilizadas en menor
medida para este tipo de ensayos.
REFERENCIAS
[1] C. Salas y M. Porras, Proyecto COREMANS. Criterios de interven-
ción en pintura de caballete. España: Ministerio de Cultura y De-
porte, 2018.
[2] A. Villarquide, La pintura sobre tela I. Historiografía, técnicas y materia-
les. San Sebastián: Nerea, 2004.
[3] M. Doerner. Los materiales de pintura y su empleo en el arte.
Barcelona: Editorial Reverté, 6º edición, 1998, (traducción de la
18º edición alemana).
[4] A. Sánchez, C. Muro y M. D. Gayo, “Protocolo para la evaluación
del riesgo de sistemas de limpieza con disolventes orgánicos en
superficies pintadas al óleo”, en 13ª Jornadas de Conservación
de Arte Contemporáneo, Madrid, pp. 317-328, 2012.
[5] A. Calvo, Materiales, técnicas y procedimientos. De la A a la Z. Barcelo-
na: Serbal, pp. 16, 1997.
[6] J. Rodríguez, M. P. Saéz, y J. A. Durán, “Evaluación experimental
del comportamiento cromático de pigmentos inorgánicos en
diversos aglutinantes pictóricos”, PH investigación, nº 1, pp. 41-
53, 2013. [En línea]. Disponible en:
http://www.iaph.es/revistaph/index.php/revistaph/article/
view/4018
[7] J. Peris, “Estudio analítico de materiales empleados en barnices,
aglutinantes y consolidantes en obras de arte mediante méto-
dos cromatográficos y espectrométricos”, Tesis Doctoral, Dpto.
de Química analítica, Universidad de Valencia, Valencia, Espa-
ña, 2007. [En línea]. Disponible en:
http://roderic.uv.es/handle/10550/15821
[8] I. Garófano, “Materiales orgánicos naturales presentes en pin-
turas y policromías. Naturaleza, usos y composición química”,
Revista pH, nº 80, pp. 56-71, 2011.
[9] V. E. Selva, Dall´olio all´acrilico, dall´impressionismo all´arte con-
temporánea. Italia: il Prato, 2015.
[10] A. Macarrón, A. Calvo y R. Gil, Criterios y normativas en la con-
servación y restauración del Patrimonio Cultural y Natural. Ma-
drid: Síntesis, 2018.
[11] M. T. Doménech, Análisis químico y examen científico de patrimonio
cultural. Madrid: Síntesis, 2018.
Fig. 3. Ensayo de tinción con Fucsina ácida para determinar la naturaleza del medio pictórico de una obra del siglo XX. Tras la observación (20x) se descarta la presencia de un
aglutinante proteico como medio cohesivo en las capas de color (fuente propia).
Fig. 4. En la imagen se muestra la caracterización de un agluti-nante pictórico mediante análisis microquímico. En un recipien-te se ha colocado la muestra pulverizada, se le ha añadido el agente saponificante (NH3 al 30%) y seguidamente el oxidante (H2O2 al 30%). Al incorporar este último se ha generado una efervescencia más o menos prolongada (señalada en la foto-grafía con un círuclo amarillo) que revela la presencia de un
ligante graso (fuente propia).
29
[12] E. Parra y B. García, “Derivación con MTBSTFA de aminoácidos y
ácidos grasos. Una determinación simultánea de aglutinantes
protéicos en capas de pintura” en Investigación en Conserva-
ción y Restauración: Segundo congreso del Grupo Español del
IIC. Barcelona: Museu Nacional d´Art de Catalunya, pp. 5-14,
2005.
[13] P. Vandenabeele, M. Ortega, D. Tenorio y L. Moens, “Raman
spectroscopic análisis of Mexican natural artists´materials”,
Spectrochimica Acta Part A, nº 68, pp. 10851088, ene. 2007.
[14] A. Poliszuk and G. Ybarra, “Analysis of cultural heritage materials by
infrared spectroscopy”, in Infrared Spectroscopy: Theory, Developments
and Applications, New York: Nova Science Publishers, pp. 519-536,
2014.
[15] S. Ruiz et al, “Identificación con metodologías fotónicas no des-
tructives de una obra inedita de Theodor Gaspar Smitz (1635-
1707), Unicum, nº 10, pp. 202-204, 2011.
[16] N. Salvadó, S. Butí y N. Oriols. Presa de mostres de policromies,
metodología. Barcelona: Generalitat de Catalunya Departament
de Cultura i Mitjans de Comunicació, 2008.
[17] D. J. Yusá, "Ensayos de tinción o histoquímicos. Identificación de aglu-
tinantestradicionales y adhesivos naturales" en Estudio químico analítico
de obras de arte. Un enfoque práctico. Valencia: Universitat Politècnica
de València, pp. 55-60, 2015.
[18] A. Rodriguez y F. Bazeta, “Del microanálisis al macroanálisis en el bien
cultural”. Estudios sobre arte actual, nº 1, 2013.
[19] M. Matteini y A. Moles, Ciencia y Restauración. San Sebastián: Nerea,
2001.
Daniel Morales Martín recibió el título
de Graduado en Conservación y Res-
tauración de Bienes Culturales por la
Universidad de Granada en 2018. Máster
en Diagnóstico del Estado de Conserva-
ción del Patrimonio Histórico por la Uni-
versidad Pablo de Olavide.
30
Luminol, El Compuesto Químico que arroja luz sobre la escena del Crimen
Tania Asencio Bermúdez
Resumen— Este artículo presenta qué es el Luminol, así como su uso en la escena del crimen, el proceso para que se logre la
luminiscencia y las ventajas y desventajas que este método ofrece.
Palabras Claves— Luminol, luminiscencia, sangre, escena del crimen.
—————————— ◆ ——————————
1. INTRODUCCIÓN
uién no ha visto alguna vez una serie o película policíaca en la que todo se resuelve y consiguen dar con el asesino gracias al hallazgo de sangre en una
escena, a simple vista, impecable, debido a un líquido fluorescente esparcido en la oscuridad. Este líquido fluorescente es lo que llamamos Luminol, pero, ¿qué es realmente el Luminol?
El Luminol (C8 H7 N3 O2) es un derivado del ácido
ftálico, sólido a temperatura ambiente, de color amarillo
pálido, soluble en la mayoría de solventes orgánicos y
ligeramente soluble en agua. Es una molécula sencilla sin
centros asimétricos, que se prepara comercialmente a
partir del ácido 3-nitroftálico mediante la condensación
de este ácido con hidracina (N2 H4). La reducción del
grupo nitro a la amina primaria correspondiente permite
la síntesis del Luminol (figura 1) [1].
Fig. 1. Síntesis de Luminol a partir del ácido 3-nitroftálico
2. HISTORIA DEL LUMINOL
2.1. Curiosidades relacionadas con el Luminol
El Luminol fue sintetizado por primera vez en 1853 como
5-amino-2, 3-dihidro-1, 4-ftalazinadiona. Posteriormente,
en 1928, el científico alemán H. Albrecht, publica “La
Quimioluminiscencia del Luminol”, en una revista
alemana. Es a partir de este momento cuando comienzan
los estudios del Luminol en áreas como la Biología o la
Medicina.
En 1934, E. Huntress, propone el nombre de “Luminol”, el
cual significa “productor de luz”, en un artículo publicado
en el “Journal of the American Chemical Society”. Pero, no
fue hasta unos años más tarde, en 1937, cuando Walter
Specht, científico del Instituto Universitario de Medicina
Legal de Jena (Alemania), propuso el uso del Luminol para
detectar sangre en escenas de crímenes. Anteriormente,
solo se había utilizado para encontrar cobre en la minería
[2].
3. QUIMIOLUMINISCENCIA
Inicialmente, el Luminol no tenía uso en Medicina
Forense, de hecho, la aplicación directa de este no
produce la luminiscencia.
Para que esta ocurra, es necesario “excitar” al Luminol.
Esto sucede preparando una solución acuosa del Luminol
junto con un agente oxidante, como puede ser el agua
oxigenada (H2 O2), y un hidróxido que porporcione un
medio básico.
En presencia de estas sustancias, la oxidación del Luminol
ocurre lentamente, mediante la secuencia de reacciones
que se pueden observar en la figura 2.
En el primer paso, se observa como la base atrapa los
hidrógenos unidos a los átomos de nitrógeno.
Posteriormente, en el segundo paso, la reacción del
dianión resultante con oxígeno molecular, permite el
intercambio de las amidas por los correspondientes
ésteres, mediante una adición cíclica. Este paso está muy
favorecido, debido a que se forma nitrógeno molecular, el
cual es un grupo saliente muy bueno gracias a su mínima
reactividad.
————————————————
Tania Aeencio Bermúdez, Universidad Pablo de Olavide. [email protected].
Q
31
Fig. 2. Mecanismo propuesto para la quimioluminiscencia del
Luminol
En cuanto al tercer paso, el peróxido formado es muy
inestable, provocando su ruptura y dando lugar al anión
3-aminoftalato. Sin embargo, tal ruptura del peróxido la
produce esta molécula en estado excitado. Esto origina
que, cuando la mólecula alcanza su estado basal, libere
energía en forma de luz, de una coloración azul.
La reacción aquí mostrada es lenta, pero se acelera en
presencia de hierro (Fe). En el caso de la sangre, el hierro
presente en la hemoglobina origina que el proceso sea
más rápido, y es por ello que la luz se produce de manera
casi inmediata al contacto con esta [1].
4. VENTAJAS E INCONVENIENTES DEL LUMINOL
4.1. Ventajas
La primera ventaja a tener en cuenta es que los reactivos
son fáciles de adquirir y la preparación de la solución del
Luminol es rápida. Otra de las ventajas es que, el Luminol,
permite analizar pequeñas trazas de sangre, incluso si
estas no son fáciles de visualizar.
También encontramos una ventaja si la sangre es seca y
degradada, puesto que, el Luminol reacciona frente a esta
de forma más intensa y duradera que con la sangre fresca.
Además, se ha demostrado que puede extraerse ADN de
muestras tratadas con Luminol.
Por último, también es ventajoso si la luminiscencia
desaparece, ya que puede volver a reproducirse
añadiendo una nueva disolución de luminol-peróxido de
hidrógeno [1], [3].
4.2. Inconvenientes
El principal inconveniente del Luminol reside en que es
una técnica destructiva y puede dañar la muestra que se
analiza. Es por ello, que debe usarse solo después de
haber tomado muestras para otros análisis que sean
necesarios.
Otro inconveniente es que puede dar falsos positivos en
presencia de otras sustancias como el cobre o
compuestos que lo contengan, además de ciertos
productos blanqueantes, como puede ser la lejía (NaOCl),
produciéndose la oxidación del Luminol, más rápidamente
con esta. Por este motivo, si el lugar del crimen ha sido
limpiado con lejía u otro producto blanqueante, puede
dar lugar a que los residuos hagan que toda la escena
emita un brillo uniforme, ocultando los posibles restos de
sangre.
Otros falsos positivos pueden producirse por productos
alimenticios derivados del rábano o por partículas de
humos residuales (humo de tabaco).
El Luminol puede detectar pequeñas cantidades de sangre
encontradas en la orina, por lo que el resultado podría
verse distorsionado. También reacciona con la materia
fecal, causando el mismo brillo que si se tratase de
sangre.
Por último, la presencia de Luminol, puede dificultar la
realización de otras pruebas [1], [3].
5. CONCLUSIONES
El Luminol posee la habilidad de detectar sangre incluso
varios años después de su descomposición, teniendo así
un valor práctico importante en investigaciones de casos
que han sido cerrados y en reconstrucciones de escenas
del crimen.
Gracias a este método, los investigadores pueden incluso
distinguir la posición inicial de un cádaver cuando este ha
sido movido por un sospechoso o algún animal.
Por tanto, a pesar de que puede dar lugar a falsos
positivos, es posible concluir que el Luminol tiene una
gran importancia en el área criminalística, ya que es una
de las herramientas principales para la resolución de casos
en los que aparecen sangre, además de ser un método de
fácil obtención y preparación.
REFERENCIAS
[1] Revista de Química PUCP, “El Luminol”, vol.25, no-1-2, Cedrón,
J.C. (2011).
[2] Cristian López, “Investigación en Escenas del Crimen: Uso del Luminol”,
https://www.academia.edu/24608154/How_luminol_works.
[3] Página Web Wikipedia. https://es.wikipedia.org/wiki/Luminol.
Tania Asencio Bermúdez- Estudiante de cuarto año del Grado en Criminología de la Universidad Pablo de Olavide.
32
El Proceso de Eutrofización: otra de las múltiples caras de la contaminación.
Marta Romero Gallardo
Resumen— El proceso de Eutrofización es otra forma, poco conocida, de contaminación química que se produce por un
aporte excesivo de nitratos y fosfatos a un medio acuático como puede ser un río, un lago o un estanque de la mano del
hombre. En el presente artículo se hará una descripción de dicho proceso, adentrándonos en las causas que lo producen y las
consecuencias posteriores del mismo. Además, se tratarán casos específicos del proceso de eutrofización que se han dado en
nuestro país así como los tratamientos que se le han dado para paliarlo y medidas para evitarlo.
Palabras Claves— Contaminación, Eutrofización, Fitoplactón, Fosfatos, Nitratos.
—————————— ◆ ——————————
1. INTRODUCCIÓN
a contaminación es uno de los grandes problemas que
no afecta a una región en concreto del mundo sino a
todas las personas por igual.
Una de las contaminaciones que más daño causa en los
distintos medios es la contaminación química. Esta puede
ser definida como la presencia de un factor ajeno a un
medio concreto que puede alterar nocivamente el estado
natural de este, causándole inestabilidad, desorden y
daño a su ecosistema, al medio físico en el que se haya
producido la contaminación y a los seres vivos que allí
habiten.
Los contaminantes químicos son aquellos compuestos,
naturales o sintéticos, que pueden llegar a lesionar con su
presencia cualquier tipo de medio, así como la salud de
las personas. [1]
Uno de los medios que más sufre de contaminación, es el
medio acuoso, cuyos principales contaminantes son:
gases que generan dentro del medio acuático (H2S, N2O,
Sulfuro de dimeltilo y CO), productos orgánicos arrojados
al agua (petróleo, aceites y grasas, detergentes, pesticidas)
y materiales radiactivos.
¿Qué es el Proceso de Eutrofización?
Una masa de agua, ya sea río, lago, embalse, se considera
eutrofizada cuando contiene unos niveles muy elevados
de nutrientes con respecto a lo habitual en el ecosistema.
Este incremento de nutrientes puede producirse de
manera natural por el propio trasporte de nutrientes en
las corrientes que da lugar al envejecimiento de la propia
masa de agua.
Sin embargo, el máximo culpable de esta forma de
contaminación del agua es el hombre ya que
constantemente se arrojan vertidos de origen agrícola y
doméstico ricos en Nitrógeno y Fósforo que rompen con
el equilibrio biológico entre la fauna y la flora de dicho
ecosistema.
En un primer momento, el ecosistema es oligotrófico,
lo que significa que es un sistema que recibe una entrada
normal en nutrientes, se encuentra en equilibrio. Estas
aguas se caracterizan por ser claras, lo que permite una
óptima entrada de luz. Las especies tanto animales como
vegetales que se encuentran en este ecosistema son los
propios de aguas bien oxigenadas.
A medida que se van vertiendo contaminantes, se
produce una entrada en exceso de Nitrógeno y Fósforo
que producen la proliferación de algas unicelulares
(principalmente verdes) que empiezan a crecer
excesimente. Esta masa de algas hace que el agua se vaya
volviendo cada vez más turbia, impidiendo la penetración
de la luz, y vaya perdiendo el oxígeno disuelto por la
disminución del efecto de la fotisíntesis.
Debido a la disminución de la fotosíntesis las plantas
van muriendo y los restos de materia vegetal y la propia
materia orgánica que va arrastrando las corrientes de
agua, se van depositando en el fondo produciendo una
masa de sedimento orgánicos.
En condiciones de anoxia (falta de oxígeno), las
bacterias empiezan a transformar dichos sedimentos
orgánicos, desprendiendo en este proceso sustancias tales
como metano, amonio y sulfuro de hidrógeno, que como
ya hemos comentado, contaminan en abundancia el agua.
[2], [3], [4], [5].
¿Cuáles son las causas que lo producen?
Las causas de eutrofización, como se ha indicado en el
apartado anterior, pueden tener origen natural, ya que
todos los medios líquidos van recibiendo nutrientes
constantemente por las corrientes y el clima; o de la mano
del hombre, que es la más común. Este tipo de
contaminación se debe a:
- La Agricultura, constantemente se emplean
fertilizantes y plaguicidas en los cultivos altos en
nitrógeno que penentran en la tierra, pudiendo
llegar a ríos o estanques cercanos, así como a
aguas subterráneas.
- La Ganadería, la mala gestión de recogida de los
excrementos de los animales, altos en nitrógeno,
pueden llegar a contaminar las aguas más
cercanas.
————————————————
Marta Romero Gallardo. Grado en Criminología, Universidad Pablo de Olavide. [email protected].
L
33
- Residuos Urbanos, constantemente se vierten
contaminantes químicos al medio acuoso
resultado de la actividad diaria del hombre como
lo son los detergentes, ricos en fosfatos.
- Residuos procedentes de la actividad industrial,
son los vertidos más tóxicos formados productos
nitrogenados y fosfatados como lo son los fenoles
y los clorofenoles.
- Residuos procedentes de la actividad forestal,
cuando se realizan las deforestaciones masivas,
todos los nutrientes de las plantas, entre los que se
encuentra el Nitrógeno, pueden penetrar en la
tierra.
- Contaminación atmosférica, todos los gases
contaminantes emitidos por la actividad humana,
llegan hasta la atmósfera produciendo el
fenómeno conocido como lluvia ácida, que
trasporta consigo todos los componentes tóxicos
desprendidos, como el Nitrógeno y el Azufre, a las
masas de agua. [6]
¿Cuáles son las consecuencias de este proceso?
La principal consecuencia de este proceso es que el
aporte excesivo de nutrientes ricos en Nitrógeno y
Fósforo, hacen que también crezcan en abundancia las
plantas y organismos que habiten en dicho ecosistema.
Debido a ello se consume gran cantidad del oxígeno
presente en el agua hasta llegar a su agotamiento.
Debido a este agotamiento de oxígeno, las aguas dejan
detener su color natural para pasar a tener un color verde
que desprende un olor desagradable, cuyo consumo
puede ocasionar problemas de salud a las personas de la
zona así como problemas respiratorios.
A medida que se va acabando el oxígeno, las especies
vegetales y animales mueren ocasionando en el fondo del
lago, río, estanque, etc; un sedimento, conocido como
fango, que disminuirá la capacidad de agua.
El crecimiento abundante de algas puede a llegar a
cubrir toda la superficie acuática ocasionando que cauces
que anteriormente eran navegables dejen de serlo.
Otro gran problema es la muerte de animales ya que
no sólo puede llegar a afectar a la producción piscícola de
la zona, sino también puede ocasionar la intoxicación de
animales que frecuentemente consuman el agua de esa
zona produciéndose la muerte de los mismos o afectando
a otras especieas y hasta incluso alcanzar a los humanos.
Las nuevas condiciones que aquiere el medio acuático
eutrofizado, crea o atrae nuevas especies invasoras que se
adaptan a estas condiciones, desplazando a los
organismos de ese hábitat. [6]
En muchos casos los fangos que se forman en el fondo
del embalse son absorbidos por los sistemas de riego,
ocasionando el colapso de las bombas y provocando la
muerte de las plantas que se abastecen del agua de ese
riego ya que dichos fangos suelen contener metales
pesados, bacterias y materia orgánica en descomposición.
Además, a menudo ocurre la proliferación de insectos
como mosquitos que pueden causar numerosas
enfermedades tanto a los animales como a las personas
[7].
Casos de eutrofización en España
En España tenemos muchos casos de contaminación
preocupantes que poco a poco está llegando al proceso
de eutrofización.
La Ría del Nervión (Baracaldo) recibe constanmente
numerosos residuos procedentes de la fabricación del
pesticida lindano, que está siendo muy utilizado en los
cultivos y es altamente cancerígeno. Por este mismo
pesticida se encuentra altamente contaminado el Río
Gallego (Huesca) en el que se han detectado metales
pesados y dioxinas debido a una fábrica que vertía los
residuos a vertederos conectados con este río.
También por el Norte, observamos que en un tramo
del Río Ulla tiene afluentes muy próximos a una mina de
cobre por lo que en las corrientes se transportan
constantemente metales pesados procedentes de las
minas que se van depositando a lo largo del río.
Otro caso a destacar es el del Río Llobregat que se
encuentra altamente salinizado por las minas de sal del
Cardona. Esto es un problema muy grave ya que de este
río se abstece gran parte del área metropolitana de
Barcelona.
Por la misma zona de Cataluña nos encoentramos el
embalse de Flix (Tarragona) que, tras una gran limpieza de
más de 300.000 toneladas de lodos tóxicos y desechos
contaminantes, aún siguen quedando casi el 20% de los
residuos.
El Río Jarama (Aranjuez) se encuentra cada vez más
contaminado, llegando a límites extremos ya que no es
capaz de depurar la cantidad de contaminantes químicos,
sobre todo de uso doméstico, que se vierten
constantemente de toda el área metropolitana de Madrid.
En las mismas condiciones que se encuentra el Río
Llobregat, encontramos el Río segura, altamente
contaminado por la salinidad procedente de regadíos y
fertilizantes.
El Río Guadaletín (Lorca) es uno de los mayores
problemas en cuento a contaminación de la Región de
Murcia ya que la industria del curtido vierte
mensualmente grandes cantidades de metales pesados y
sustancias muy nocivas para la salud.
También en el sur se encuentra el Río Guadalquivir, que
al ser uno de los ríos más largos de España recibe muchos
vertidos químicos en distintos puntos de su curso del que
se puede hacer mención de la sosa caústica invertida en el
prensado de las aceitunas en Alcalá de Guadaíra, Sevilla
[8].
El Lago de Sanabria está sufriendo del proceso de
eutrofización desde hace largo tiempo debido al aporte
excesivo de aguas fecales y residuales ya que las
estaciones depuradoras que intervenían en el proceso de
reducción de contaminantes no se encuentran en
funcionamiento y la red de alcantarillado es poco
eficiente.
El agua del Lago Enol (Picos de Europa) cada vez se está
volviendo más turbia y las plantas características de este
ecosistema han empezado a crecer en abundancia, dos de
los ítems que más señalan al proceso de eutrofización.
Según los estudios llevados a cabo, se ha constantado
que los culpables de este desastre han sido el cambio
34
clim´tico y la gran aportación de materia orgánica por las
lluvias y el deshielo de las zonas cercanas al lago [9].
Debido al incremento de la temperatura y la falta de
salida de agua, la Laguna Negra (Soria), se está volviendo
cada vez más verde debido a la proliferación incontrolada
de algas que está ocasionando la aparición de especies
vegetales nuevas que antes no había en dicho ecosistema
[10].
Pero, sin lugar a duda, el caso más grave de esta forma de
contaminación es el que esta teniendo lugar en el Mar
Menor, del que se han visto afectadas 40 playas de la
zona cuyas aguas se están volviendo cada vez más turbias
debido a la presencia masiva de fitoplacton y algas tóxicas
[11].
2. SOLUCIONES ANTE EL PROBLEMA
Cuando nos encontramos ante un embalse con aguas
aparentemente eutrofizadas, es importante conocer cual
es el nivel de contaminación. Para ello es necesario
determinar la cantidad de clorifila que presentan las algas,
el contenido en exceso de fosfatos y nitratos y el valor
que alcaza la penetración de la luz.
Una vez que sabemos el nivel de eutrofización, el primer
paso a seguir es corregir esa gran cantidad de entrada de
nutrientes al ecosistema, aunque esto no es siempre
posible ya que los medios a emplear son muy costosos.
Una de las técnicas más usadas es la biomanipulación,
que consiste en manipular artificialmente las cadenas
tróficas del ecosistema afectado. Esto puede realizarse,
bien introduciendo nuevas especies que se alimenten de
zooplacton para evitar la proliferación en abundancia de
éste, o bien, si hubiera ya esta especie zooplanctívora,
reducirla para permitir que haya más cantidad de
zooplacton en el agua y que, por consiguiente, también
aumente el consumo de fitoplacton. [6]
Otra técnica usada en estos casos es la aireación del
fondo que se consigue con la introducción de ozono
(Ozoaireación), ya que el ozno se auto descompone en
oxígeno contribuyendo a la mayor oxigenación del agua
que fortalece la proliferación de bacterias aerobias que se
encargarán de la reducción de los nutrientes orgánicos y
desechos. Con esta aireación también se consigue
eliminar la estratificación producida en los fondos,
disminuyendo así la temperatura de la superficie y
llenando de oxígeno el fondo, donde antes se había
agotado, reduciendo así la cantidad de fangos que se
puedan acomular en años posteriores.
También podríamos intervenir antes de que se
produzca la contaminación siguiendo los siguientes
pasos:
- Las aguas residuales resultantes de la actividad
humana, deberían pasar por un tratamiento es
estaciones depuradoras de aguas residuales,
donde se elimine el fósforo y el nitrógeno presente
en las mismas.
- Evitar el uso incontrolado en estiércol en la
ganadería utilizando solo el justo y necesario.
- Realizar prácticas de cultivo que sean menos
contaminantes de las que se estén utilizando, tales
como aplicar fertilizantes que sean más eficientes.
- Imponer a las industrias una menor emisión de
Oxídos de Nitrógeno y amoniaco, altamente
contaminantes.
- En cuanto a lo que confiere a lo doméstico, hacer
un menor uso de detergentes con polifosfatos.
3. CONCLUSIONES
La eutrofización es un problema bastante grave, y poco
conocido que debe ser más tenido en cuenta ya que
afecta a la mayoría de las aguas superficiles y sus efectos
son muy perjudiciales para la biodiversidad de los
ecosistemas y el consumo humano, entre otros grandes
perjuicios.
Hay que tener en cuenta que las aguas más ricas en
biodivesidad son las más susceptibles de sufrir
contaminación y puede generar grandes problemas
económicos por la reducción de la producción piscícola,
alteraciones en la construcción de embalses, subidas de
nivel del agua, etc.
Algo bueno y necesario en todo ecosistema, como lo es el
aporte de nutrientes, puede llegar a ser peligroso y
dañino al convertirse en contaminante y, a veces, es muy
difícil volver al equilibrio del mismo cuando se trata de
masas abundantes.
Si ha estado en manos del hombre la contaminación,
también sufre las consecuencias que puede generar.
Cuidar el medio ambiente y regular constantemente la
limpieza del agua es el primer gran paso para evitar este
tipo de desastres.
REFERENCIAS
[1] “Ecured”, Contaminación Química. [Online.] Available:
https://www.ecured.cu/Contaminaci%C3%B3n_qu%C
3%ADmica
[2] C. Borrás, “Ecología Verde”, ¿Qué es la
contaminación? [Online]. Available:
https://www.ecologiaverde.com/que-es-la-
eutrofizacion-34.html
[3] “Oxicom Aeration”, Problema de Eutrofización.
[Onine]. Available:
http://aerationoxicom.com/eutrofizacion/
[4] A. Guillén, “Iagua”, Lago de Sanabria: Situación
actual y proceso de eutrofización. [Online]. Available:
https://www.iagua.es/blogs/antonio-guillen/lago-de-
sanabria-situacion-actual-y-proceso-de-eutrofizacion
[5] “Iagua”, Eutrofización: Causas, consecuencias y soluciones. [Online]. Available:
https://www.iagua.es/noticias/sewervac-
iberica/eutrofizacion-causas-consecuencias-y-
soluciones
[6] “Greenteach”, La Eutrofización. [Onine]. Available:
https://www.greenteach.es/eutrofizacion/
[7] J.A Gavira Vallejo, “Ambiente”, Eutrofización: Causas y Consecuencias. [Online]. Available:
https://triplenlace.com/2012/09/27/eutrofizacion-
causas-y-efectos/
35
[8] “ABC Sociedad”, La Contaminación silenciosa: cuatro
de cada diez ríos en España suspenden en calidad
de sus aguas”. [Online]. Available:
https://www.abc.es/sociedad/abci-contaminacion-
silenciosa-cuatro-cada-diez-rios-espana-suspenden-
calidad-aguas-201710282023_noticia.html
[9] V. Martín, “El Comercio”, La Contaminación de Lago
Enol obliga a crear un plan para proteger sus aguas”.
[Online]. Available:
https://www.elcomercio.es/asturias/oriente/201703/27
/contaminacion-lago-enol-obliga-20170327014701-
v.html
[10] J. C. San José, “Medio Ambiente”, La Laguna Negra
se ha vuelto verde por un proceso de eutrofización.
[Online]. Available:
https://cadenaser.com/emisora/2017/07/10/ser_soria/
1499687867_897001.html
[11] R. Limón, “Contaminación”, El Mar Menor, al borde
de colapso. [Online]. Available:
https://elpais.com/politica/2016/06/15/actualidad/1466
007368_066035.html
Marta Romero Gallardo estudiante en la Universidad Pablo de Olivide del cuarto curso del Grado en Criminología.
36
El uso de cosméticos como evidencia forense Jesús Palomino Marchena
Resumen— Con este artículo se pretende mostrar al lector un recorrido por aquellos puntos neurálgicos que articulan este
ámbito desconocido de la ciencia forense y de la literatura hispana, mostrando la realidad y potencial que hoy en día tienen
estas técnicas en el transcurso de una investigación criminal y lo que se espera de su poder de análisis.
Palabras Claves— Cromatografía, Evidencia cosmética, Espectroscopía Raman, Pintalabios, TLC.
—————————— ◆ ——————————
1. INTRODUCCIÓN
or todos los lectores seguramente sea bien conocida
aquella escena de la serie CSI (Cómo Sí Inculpar)
donde unos atormentados investigadores se estancan
en la investigación de un delito donde el presunto autor
solamente ha dejado un pequeño vestigio que lo rela-
cione con los hechos, como bien podría ser el contorno
de unos labios impresos con pintalabios en el cuello de la
víctima, maquillaje azarosamente colocado en algún
recóndito objeto, un texto escrito en un espejo con el
mismo pintalabios, etcétera. Pero ello no será óbice para
que el culpable reciba su castigo, ya que, tras la extracción
de una ínfima parte de ese vestigio, se dirigen a ese tem-
plo de la sabiduría y oscurantismo como es el laboratorio,
habitado por un ser taciturno, con grave adicción a las
bebidas estimulantes y vestimenta estrafalaria. Tras un
breve análisis ocular de la muestra, la persona al cargo del
laboratorio mira a los investigadores por encima de sus
anteojos y se pone manos a la obra, no sin antes
asegurarles que la probabilidad de hallar alguna con-
clusión vehemente es baja.
Transcurrido un período de tiempo indeterminado entre 1
y 24 horas, el personaje a cargo del laboratorio sale ex-
tenuado de su cubículo y espera a dar las buenas noticias
a nuestros protagonistas: es el momento en el que el
monitor del ordenador muestra una tímida barra in cre-scendo hasta que de pronto aparecen unas grandes letras
rotuladas a tamaño 140 con relleno verde centelleante
que dice: MATCH. A partir de ese instante los investiga-
dores tienen la marca, modelo, lote, fecha de venta, coor-
denadas geográficas y cliente al que se le dispensó dicho
objeto y se procede a su detención.
Este relato aparente inverosímil ha sido utilizado en multi-
tud de ocasiones por la industria del entretenimiento para
mostrar un nada realista trabajo de los analistas forenses,
los cuales tienen que lidiar con situaciones muy diferentes
a las allí planteadas. A menudo se encuentran con mues-
tras muy degradadas, muy similares unas de otras, mez-
cladas con otros compuestos, insuficientes para determi-
nados tipos de análisis y en el dilema de si utilizar una
técnica u otra en base a su ratio destructividad/eficacia.
El análisis de cosméticos como evidencia de una escena
de un crimen no está exento de los problemas anterior-
mente mencionados, a los que hay añadir algunos más
que se mencionaran más adelante. Huelga decir que se
trata de un campo relativamente incipiente, donde la lit-
eratura en nuestro idioma patrio es inexistente (igual que
ocurre con nuestros vecino galos y germanos) y su uti-
lización en nuestro país residual o nula (no habiendo sido
posible encontrar en bases de datos ni una sola sentencia
que recoja como prueba indiciaria o de cargo alguno de
estos tipos de análisis o noticia que plasme el uso en un
caso real), centrándose el grueso de los trabajos sobre
esta aplicación concreta de los cosméticos en las cuatro
décadas anteriores y siempre dentro de la literatura an-
glosajona [3].
2. EL VESTIGIO COSMÉTICO COMO PRUEBA
Primeramente, deberemos definir qué se entiende por
cosmético. Pues bien, la palabra cosmético proviene del
griego kosmētikós, que significa “todo aquello que tiene el poder o la habilidad de decorar”, es decir, todos
aquellos productos que son rociados, espolvoreados,
frotados o aplicados para limpiar, embellecer, favorecer el
atractivo o para alterar el aspecto.
Dicho esto, las evidencias cosméticas no son más que
productos cosméticos hallados en la escena de un crimen
(más frecuentes en casos de violaciones, asesinatos, abu-
sos y agresiones sexuales, robos y cartas anónimas) y que
se convierten, debido a su posible utilidad esclarecedora,
en muestras dubitadas necesitadas de un análisis quími-
co-forense para su posterior cotejo con una muestra in-
dubitada que permita a los órganos judiciales establecer
————————————————
Jesús Palomino Marchena. Facultad de Derecho, Universidad Pablo de Olavide. [email protected]
P
37
inferencias inculpatorias. Pintalabios, eyeliner, sombra de
ojos y esmalte de uñas son algunos de los cosméticos
más utilizados en el día a día y que pueden ser fácilmente
transferibles a la ropa, vasos, pañuelos, cigarrillos y las
más variadas superficies de contacto en el transcurso de
un crimen, incluso permanecer relativamente útiles duran-
te algunos años [4], de ahí su utilidad en el análisis foren-
se.
3. EL PRELUDIO DEL ANÁLISIS DE LA EVIDENCIA
COSMÉTICA
El lector avezado no entenderá como podemos seguir
hablando de ciencia forense sin antes mencionar el cono-
cido principio de intercambio de Locard, que dice así: "Es imposible que un criminal actúe, considerando la inten-sidad de un crimen, sin dejar rastros de esta presencia"
[8]. Teniendo en cuenta el principio enunciado por Locard
debemos tener en cuenta que estamos ante un vestigio
con potencial para ser analizado y mostrar ese lazo de
unión entre criminal y crimen.
El primer caso documentado que utiliza el análisis de un
cosmético para el esclarecimiento de un crimen es pro-
tagonizado por el mismo Edmund Locard en 1912 en el
caso de Marie Latelle. Esta joven fue hallada muerta en el
salón de la casa de sus padres en Lyon, Francia. La coarta-
da del novio de Marie era perfecta, contando con el res-
paldo de sus amigos, pero un raspado de uñas rebeló que
el tejido de piel acumulado bajo estas estaba cubierto de
polvo. El polvo incluía estearato de magnesio, un polvo
blanco comúnmente usado como agente aglutinante;
óxido de zinc, un protector solar; bismuto, un mineral
iridiscente usado para hacer polvos brillantes, y un óxido
de hierro rojo. Estos componentes denotaban que se trat-
aba de colorete, y según el químico de Lyon que lo fabri-
caba, sólo lo fabricó para Marie Latelle, lo cual propor-
cionaba el vínculo perfecto para unir al autor del crimen y
los hechos, que resultó ser su novio [7].
Tras los primeros pasos dados en 1912, los estudios de
este tipo de evidencias han sido muy escasos y descom-
pensados en función del cosmético a analizar (de-
pendiendo de la prevalencia de los mismos en los casos,
su dificultad de extracción, aplicación masiva en la
población y multitud de variables), encontrándonos al
pintalabios como figura central en los trabajos hasta 2019
por su gran aceptación en todo el mundo y en clara
desventaja el resto de los cosméticos, como puede ob-
servarse en la siguiente gráfica realizada por R. Chophi et
al. [3] que muestra el número de estudios hasta 2019 en
este ámbito.
Fig. 1 Distribución de estudios (R. Chopi, et al)
4. TÉCNICAS EMPLEADAS PARA EL ANÁLISIS DE LA
EVIDENCIA COSMÉTICA
En esta sección recogeremos las técnicas que a día de
hoy, fruto del avance de la teconología en este ámbito, los
laboratorios utilizan para lograr lo más parecido a ese
match que exponíamos al principio del artículo: unos re-
sultados que permitan, en mayor o menor medida, calcu-
lar la probabilidad de que el cosmético dubitado sea el
mismo que el indubitado con el que se compara.
Para la exposición de técnicas tomaremos como referencia
los análisis reputados como más éxitosos en este tipo de
muestras, ya que la finalidad del artículo es conocer la
realidad del análisis de los cosméticos y separar las téc-
nicas empleadas para todos desbordaría los fines de este.
A continuación, se muestra un diagrama que recoge las
posibles vías de análisis cuando un laboratorio recibe una
muestra cosmética dubitada.
Fig. 2 Elaboración propia de vías de análisis
4.1. Comparación Visual
Se trata de que el analista compare la muestra dubitada
con la muestra indubitada basándose en el tono de color
principalmente. Esta técnica se muestra muy poco reve-
ladora a la hora de formar posibles compatibilidades, pero
su potencial reside en su poder de exclusión, ya que si
una muestra difiere muy notablemente de color respecto
a la otra (pensemos en pintalabios color marrón y otro
color rojo cereza) podría asegurar con certeza que se trata
de productos distintos (sin perjuicio de poder realizar más
análisis). Por otro lado, el analista puede valerse de los
distintos tipos de microscopios disponibles para observar
aspectos como los agentes perlantes, lo cual ayudaría a
dar mayor solidez a las posibles asociaciones y exclu-
siones entre muestras.
➢ TÉCNICAS CROMATOGRÁFICAS
Debemos decir que las técnicas cromatográficas (del
griego chroma-graphia, escritura en color) son las reinas
en el campo del análisis de la evidencia cosmética por
varios motivos: la gran mayoría de ellas son simples, rápi-
38
das, de bajo coste, versátiles y requieren una muestra
relativamente pequeña. Su uso respecto del total de téc-
nicas empleadas supera ampliamente al resto, copando
en torno al 60% de los análisis empleados para estos fines
[3].
Sus orígenes se remontan al año 1906, momento en que
el biólogo ruso M.S Tsweet consiguió separar los distintos
componentes coloreados de un extracto vegetal (aunque
hoy en día pueden ser usadas para sustancias incoloras
que posteriormente son nebulizadas con un compuesto -
por ejemplo el yodo- que reacciona con la muestra y
emite fluorescencia bajo determinadas longitudes de on-
da, como la UV) [9].
4.2 TLC (Thin Layer Chromathograpy)
Se trata de uno de los análisis más utilizados por los an-
alistas forenses cuando de lo que se trata es de analizar
una evidencia cosmética debido a que cumple en gran
parte todos los postulados que forman el método ideal de
análisis (rápido, reproducible, barato, necesidad de poca
muestra o sin preparación de muestra y no destructivo).
Consiste en la separación de los componentes de la
muestra (habiendo retirado previamente ceras y grasas en
el caso de pintalabios, ya que interfieren en los resulta-
dos) sobre una delgada capa de fase estacionaria (nor-
malmente una placa de silica gel). La muestra, en can-
tidades muy pequeñas (menos de 10 µg), se coloca en un
extremo de la placa a unos 2 cm del borde inferior. La
separación se efectúa en un espacio cerrado que contiene
una fase móvil (los forenses utilizan varios disolventes
para conseguir la separación deseada, desde cloruro de
metileno para colores solubles en aceite hasta acetona, el
cual ha demostrado ser uno de los mejores para separar
los componentes de los pintalabios), la cual asciende por
la placa gracias al efecto de capilaridad. Cuando la fase
móvil asciende hasta 2-3 cm del borde superior de la
placa la separación se detiene [10]. Posteriormente se
comparan los factores de retención de cada muestra con
la muestra a comparar (pero esta técnica adolece de que
los resultados entre distintas muestras pueden ser muy
similares debido a que los componentes utilizados por los
fabricantes suelen ser muy parecidos - algunos autores
como A. Srivastava [5] han encontrado el mismo factor de
retención en 5 de las 10 muestras de pintalabios analiza-
das-, es por ello que debe utilizarse como una técnica no
confirmatoria, sino presuntiva).
Fig.3 Reproducción de TLC
4.3. HPLC (High Performance Liquid Chromatography)
Esta técnica de separación se basa en la distinta distribu-
ción de los componentes de una muestra entre dos fases:
una fase estacionaria, situada en el interior de un tubo
estrecho o columna y una fase móvil líquida que se mue-
ve a través de la primera, arrastrando en su movimiento a
la muestra [10].
Fig. 4 Reproducción de HPLC
Es ampliamente utilizada en áreas como la farmacológica,
la industria alimentaria y biotecnológica. En el caso que
nos atañe, la HPLC es usada para la separación de mues-
tras y para una determinación cualitativa (también cuanti-
tativa) de sus componentes. Se emplea para discriminar
distintos cosméticos basándose en el cromatograma ca-
racterístico generado para cada uno.
Fig. 5 Cromatograma ejemplificativo
Para el caso de cosméticos, es utilizado para detectar sus-
tancias como filtros UV, antioxidantes, conservantes,
agentes blanqueadores, etcétera. En contraposición a la
TLC, mencionada en el apartado anterior, esta técnica re-
quiere más muestra (entre 30-50 µg), más tiempo de aná-
lisis y el riesgo de que los materiales colorantes emplea-
dos interfieran en los resultados (es por ello que se reco-
mienda utilizar papel de filtro blanco para mitigar esa in-
terferencia) [6].
Respecto a la pregunta de si un pintalabios sin utilizar
presentaría el mismo cromatograma que un pintalabios
utilizado, Reuland y Trinler realizaron un estudio [11] para
comprobarlo. Detectaron que tras una hora y media algu-
nos picos del cromatograma desaparecían (debido a la
evaporación de compuestos volátiles y aquellos mezcla-
dos parcialmente con agua) e incluso en otros aparecían
nuevos picos. En conclusión, debe tomarse con mucha
precaución el cromatograma resultante de esta técnica en
39
caso de un pintalabios ya usado.
4.4 GC (Gas Chromathograpy)
En cromatografía de gases la separación de los compo-
nentes de la muestra problema se lleva a cabo en base a
su distinto reparto entre una fase gaseosa que fluye (fase
móvil o gas portador) y una fase estacionaria (que suelen
ser columnas de capilares o tubulares abiertas) [10].
Fig. 6 Reproducción de Cromatográfo de gases
Esta técnica es utilizada para analizar los componentes
orgánicos volátiles de los productos cosméticos. Con la
llegada de las columnas de capilares en conjunción con
un horno que proporciona una temperatura estable, se ha
permitido discriminar aquellas ceras con gran peso mole-
cular (un pintalabios está formado hasta en un 15% por
ceras). Este poder de discriminación resulta muy útil si
tenemos en cuenta que los fabricantes utilizan diferentes
combinaciones de ceras (de abeja, de carnauba) en pro-
porciones variables, lo cual muestra distintos y complejos
cromatogramas. El problema reside en que con el aumen-
to del número de fabricantes algunos cromatogramas se
vuelven indistinguibles, en especial aquellos que utilizan
ceras similares en sus productos, lo cual limita el poder de
discriminación de esta técnica. El potencial de esta técnica
está muy limitado en función del detector usado y es más
recomendable su uso combinado con otras técnicas que
permitan una mayor discriminación entre muestras.
4.5. GC-MS (Gas Chromatography Mass Spectrometry)
Esta técnica no es más que un cromatógrafo de gases
(GC) acoplado a un espectrómetro de masas (MS), me-
diante el cual se pueden separar, identificar y cuantificar
mezclas complejas de sustancias químicas [12].
Fig. 7 reproducción de Cromatógrafo de gases
con espectrómetro de masas acoplado
Ha sido satisfactoriamente empleada en el análisis de
cremas y perfumes, pintalabios, eyeliners y esmalte de
uñas, pero su potencial de discriminación es limitado por
aquellos productos que han sido fabricados con compo-
nentes muy similares. En algunos estudios [13] fueron
analizados 21 brillos de labios y solo 6 mostraron un úni-
co patrón iónico; además, el coste de la instrumentación
es alto.
➢ TÉCNICAS ESPECTROSCÓPICAS
Los métodos espectrométricos o técnicas espectroscópi-
cas son aquellos empleados en química que se funda-
mentan en la interacción de la radiación electromagnética,
u otras partículas, con un analito (nuestra muestra pro-
blema) para identificarlo o determinar su concentración.
En estos casos, el instrumento que realiza tales medidas
es un espectrómetro o espectrógrafo.
4.5. Espectroscopía Infrarroja
La espectroscopia infrarroja (espectroscopia vibracional)
implica una interacción de radiación infrarroja con la
muestra que deseamos analizar. El método de la espec-
troscopia infrarroja se realiza con un instrumento llamado
espectrómetro infrarrojo (o espectrofotómetro) que pro-
duce un espectro donde puede observarse la absorbancia
de la luz infrarroja en función de la longitud de onda em-
pleada en la muestra.
Se ha descrito esta técnica como útil por sus buenos re-
sultados en este campo y la necesidad de una muestra de
tamaño muy reducido. Produce un análisis rápido y los
resultados de este son altamente reproducibles. El uso
más importante descrito en el análisis de muestras cos-
méticas ha sido en la identificación de componentes or-
gánicos (grupos funcionales) debido a que su espectro es
generalmente complejo y nos da muchos valores que
pueden ser usados para discriminar entre muestras.
La aplicación de herramientas estadísticas como el Análi-
sis de componentes principales, Análisis Clúster o el Coe-
ficiente de Correlación a esta técnica ha permitido incre-
mentar el poder de discriminación de este análisis, ya que
espectros similares para el ojo humano pueden ser clasifi-
cados y agrupados con ayuda de estas herramientas, lo
cual hace que los resultados y compatibilidades sean más
objetivos.
4.6. Espectroscopía Raman
Nos encontramos ante una técnica analítica que permite
la identificación molecular no destructiva de nuestra
muestra dubitada, siendo altamente valiosa por ello. Per-
mite incluso la identificación molecular de la muestra du-
bitada aun encontrándose ésta en un soporte de plástico
transparente, como una bolsa de almacenamiento de
pruebas.
La técnica consiste en hacer incidir una longitud de onda
concreta sobre nuestra muestra. La luz atravesará las mo-
léculas dando en su salida una longitud de onda igual que
la que la incidió (recibe el nombre de Rayleigh y no apor-
ta información sobre la composición de la muestra) y una
pequeña porción de longitud de onda diferente (llamada
Raman, que es la que nos aporta información sobre la
composición molecular de nuestra muestra), mostrando
40
un espectro único que posteriormente será comparado
con el de nuestra muestra indubitada.
Respecto a su aplicabilidad en lo que nos concierne, en un
principio se probó excitar muestras de pintalabios con
632.8 nm, pero las ceras y aceites interferían con los resul-
tados, mostrando solo 15 espectros únicos de las 62
muestras usadas [4]. Posteriormente se probó con 780 nm
y resultó que el 95% de 80 pintalabios mostró diferencias,
por lo que se ha mostrado esta longitud de onda como
adecuada para analizar muestras de pintalabios, que uni-
do a su rapidez, reproducibilidad y sensibilidad hace de
ella una gran técnica para emplear en evidencias cosméti-
cas.
Otros autores como J. Went et al. [4] han mostrado que
esta técnica es capaz de analizar muestras con una degra-
dación de dos años, mostrando 15 muestras de pintala-
bios de las 20 analizadas el mismo espectro pasado ese
tiempo. También se ha rebelado muy útil para analizar una
muestra sobre distintos soportes, mostrando también
variaciones muy pequeñas, a excepción de las muestras
de pintalabios sobre cigarrillos, ya que estos últimos han
sido tratados con dióxido de titanio (un agente blanquea-
dor) y algunos cosméticos también lo contienen, por lo
que se debería descartar el uso de esta técnica cuando el
soporte es un cigarrillo por aparecer sobrerrepresentado
este elemento.
5. CONCLUSIONES
El mundo real dista mucho de ser un ordenador que arro-
ja un resultado rápido, preciso y fiable, y aunque falta por
descubrir la técnica analítica ideal, hay algunos firmes
candidatos que se posicionan como tal, como la espec-
troscopía Raman o el ATR-FTIR.
Por otro lado, facilitaría mucho el trabajo de los analistas
la creación de una librería de datos compartida donde los
fabricantes vertieran sus documentos sobre la caracteriza-
ción, composición y propiedades de sus distintos produc-
tos cosméticos; así como la posibilidad de que estos mis-
mos fabricantes añadiesen componentes conocidos en
cantidades también conocidas que sirvieran de identifica-
dor único para un producto concreto.
REFERENCIAS
[1] Tying lipstick smears from crime scenes to specific brands,
https://www.acs.org/content/acs/en/pressroom/newsreleases/2
016/march/lipstick-forensics.html
[2] P. Romanowsky, Forensic science and cosmetics
https://chemistscorner.com/forensic-science-and-cosmetics/
[3] R. Chophi, S. Sharma, S. Sharma, R. Singh, “Trends in the forensic
analysis of cosmetic evidence”, Forensic Chemistry, no. 14, 2019.
[4] M.J Went et al., “Application of Raman spectroscopy for the
differentiation of lipstick traces”, Analytical Methods, vol. 5, no.
20, 2013.
[5] A. Srivastava, “Lipstick Stain: A Silent Clue for Criminal Identifica-
tion”, International Journal of Humanities and Social Science In-
vention, vol. 2, no. 12, 2013.
[6] J. Andrasko, “Fonresic analysis of lipsticks”, Forensic Science
International, no. 17, 1891.
[7] E. Bergslien, An introduction to Forensic Geoscience, pp. 11-12,
2012.
[8] R. Morrish’s, “The Police and Crime-Detection Today”, Oxford
University Press, 1940.
[9] M.J Gismera, Introducción a la cromatografía líquida de alta
resolución, 2012.
[10] I. Sierra, et al., Prácticas de análisis instrumental, Dykinson, 2008.
[11] D.J Reuland, W.A Trinler, “A comparison of lipstick smears by
high performance liquid chromatography”, J. Forensic Sci. Soc.,
vol. 20, no. 2, 1980.
[12] Gas Chromatography Mass Spectrometry (GC/MS),
http://www.bris.ac.uk/nerclsmsf/techniques/gcms.html
[13] M. Zellner, L. Quarino, “Differentiation of twenty-one glitter lip-
glosses by pyrolysis gas chromatography-mass spectroscopy”, J.
Forensic Sci., vol. 54, 2009.
[14] F. Salahioglu, M.J. Went, “Differentiation of lipsticks by Raman
Spectroscopy”, Forensic Sci. Int., no. 223, 2012.
Jesús Palomino Marchena cursa actualmen-te el quinto curso de Derecho y Criminología en la Universidad Pablo de Olavide (Sevilla).
41
Falsos positivos al volante Ángela Rodríguez Carrera
Resumen—Los controles de drogas en la conducción son prácticas cada vez más frecuentes y generalizadas, y sus resultados
tienen importante repercusión legal. Por ello, desarrollaremos la técnica en la que se basa la detección de drogas en el
organismo de los conductores y con especial relevancia los falsos positivos.
Palabras Claves—Conductores, control, drogas, falsos positivos, fluido oral.
—————————— ◆ ——————————
1. INTRODUCCIÓN
a Dirección General de Tráfico es la encargada de reali-
zar los controles de drogas en los conductores en todo
nuestro país. Todos los años, se lanzan campañas de
control de drogas tóxicas, estupefacientes y sustancias
psicotrópicas, pero ¿realmente sabemos en qué consis-
ten? ¿Conlleva algún riesgo? ¿Podemos negarnos a reali-
zar la prueba? Indagaremos sobre estas cuestiones e in-
tentaremos resolver algunas incógnitas que aun en la ac-
tualidad no quedan muy clarificadas.
Pero ¿en qué consiste un control de drogas? La técni-
ca en la que se basa esta comprobación científica se reali-
za mediante la utilización de un instrumento desarrollado
para tal fin. El objetivo de este método es obtener cono-
cimiento de si existe o no presencia de drogas en nuestro
organismo. Se tomará como muestra la saliva de la perso-
na requerida en el control ya que posee como ventaja que
se trata de una técnica no invasiva. Aunque hemos de
destacar que en algunas ocasiones también se realizan
extracciones de sangre a pesar de ser éstas un método
invasivo.
2. METODOLOGÍA Y SUSTANCIAS QUE SE ANALIZAN
Una vez que el/la conductor/a sea requerido por un agen-
te de la autoridad, éste le informará sobre sus derechos y
obligaciones. Entre ellos, que la prueba tiene carácter
obligatorio, por lo que no nos podemos negar a su reali-
zación ya que conllevaría a la comisión de un delito tipifi-
cado como tal en el Código Penal (SAP Murcia 274/2019 de 01/10/2019 [1] o SAP León 1033/2019 de 09/10/2019 [2]).
El procedimiento que se lleva a cabo en los controles de
drogas a los conductores por parte de los agentes de trá-
fico exige un proceso exhaustivo. Este minucioso proce-
dimiento se muestra en la Figura 1.
Figura 1. Esquema explicativo del proceso del control de drogas.
Si el/la conductor/a se niega a la realización de la prueba,
se considerará un delito contra la Seguridad Vial tipificado
en el artículo 383 del Código Penal que conlleva una “pe-na de prisión de seis meses a un año y privación del dere-cho a conducir vehículos a motor y ciclomotores de por tiempo superior a uno y hasta cuatro años” [3].
Simultáneamente a la realización de la prueba o a la
negación de toma de ésta, siguiendo un protocolo pre-
viamente establecido, el agente de la autoridad valorará
los signos aparentes o externos que presente el/la con-
ductor/a en cuestión tales como habla incoherente, titu-
beante y repetitiva, temblor, nerviosismo, embriaguez
aparente, etc. y que pudieran influir en la conducción.
Si el/la conductor/a se somete a la realización del control
de drogas, se obtendrá la primera toma de muestra de
saliva o fluido oral a la que se le denomina ‘indiciaria’ y
detecta la posible presencia de sustancias ilegales. En esta
prueba se puede detectar un consumo reciente de dis-
tintas sustancias psicotrópicas, estupefacientes o drogas
tóxicas como son el cannabis, cocaína, opiáceos,
anfetaminas y metanfetaminas. Si se da positivo en algún
tipo de sustancia, se toma una segunda muestra de saliva
a la que denominamos ‘confirmatoria’ cuyo objetivo es
detectar el tipo concreto de sustancia y su cuantificación.
Por último, se realiza una prueba de contraste si así lo
solicita el/la conductor/a mediante una muestra de sangre
extraída por personal sanitario en un centro hospitalario o
de salud que, siempre manteniendo la cadena de custodia
L
42
(en tubos precintados, dentro de neveras precintadas,
vehículos expresamente dedicados al transporte de mues-
tras biológicas…), se transportará junto con las otras dos
muestras de saliva hasta el laboratorio para su posterior
análisis. Es de destacar que si esta última muestra re-
sultase positiva el solicitante deberá pagar los gastos de
su realización.
En el laboratorio se recepcionan las muestras con su cor-
respondiente documentación adjunta, registrando la hora
y fecha de llegada para cumplir con exhaustividad la ca-
dena de custodia. A continuación, se procede a introducir
los datos en el Sistema de Gestión de Laboratorio medi-
ante el escaneado de muestras para que siempre se tenga
un control preciso de cada una de ellas. Los equipos
analíticos utilizados para la detección y cuantificación de
estas sustancias son un cromatógrafo de masas y un es-
pectómetro de gases. Estos aparatos son capaces de
medir más de 40 tipos diferentes de sustancias y en can-tidades tan pequeñas como un nanogramo [4].
Los resultados del análisis son revisados uno a uno por
personal facultativo especializado y se procede a la firma
del informe final de toxicología para su envío tanto a la
Jefatura provincial de la Dirección General de Tráfico co-
mo al Juzgado correspondiente. Dicho informe se incor-
pora al expediente y continúa su tramitación bien en vía
administrativa (sanción de 1.000€ y pérdida de 6 puntos [5]) o bien en vía penal (dónde el Código Penal en su ar-tículo 379 párrafo segundo en relación con el párrafo pri-mero establece para dicho delito contra la Seguridad Vial penas de prisión de 3 a 6 meses, o multa de 6 a 12 meses, o trabajos en beneficio de la comunidad de 30 a 90 días y privación del derecho a conducir de 1 a 4 años [6]).
3. TÉCNICAS UTILIZADAS PARA LA DETECCIÓN DE
DROGAS DE ABUSO Y FALSOS POSITIVOS
Las drogas tóxicas que se detectan en las técnicas utiliza-
das por los agentes de la Dirección General de Tráfico en
los controles a conductores son principalmente el canna-bis, cocaína, opiáceos, anfetaminas y metanfetami-nas [7].
Pero ¿con qué técnica se realiza la extracción y se de-
muestra la tipología de la sustancia?
En España, en los últimos años, el fluido oral ha sido con-
siderado como un medio biológico útil para la realización
de este tipo de controles. La determinación de drogas
presentes en la saliva se basa en que estas sustancias tóxi-
cas están presentes en la sangre y por el mecanismo de
filtración pasan a la saliva que se excreta por las glándulas
salivales [8].
La saliva posee numerosas ventajas [9] ya que es fácil su
obtención ya que se trata de una técnica no invasiva y
que, por lo tanto, al conductor no se le somete a situ-
aciones de estrés ni de otro tipo de incomodidad en el
caso de que se tenga que repetir la obtención. Por otro
lado, también su almacenamiento y transporte de la
muestra es sencillo y, en cuanto a su proceso, posee un
bajo coste. Con relación a su análisis en el laboratorio, la
saliva es una óptima muestra para poder trabajar con ella
ya que es sencillo realizar los procedimientos de di-
agnósticos con ella, no coagula y su manipulación es rela-
tivamente escasa.
En general, los dispositivos que coleccionan saliva se
componen de un sistema colector de este fluido y un tubo
de transporte. El algodón que se sitúa en el colector
recoge, en las mejores condiciones de salivación, un máx-
imo de un mililitro de fluido oral. Una vez que se ha
recogido la muestra se deposita en el tubo de transporte
el cual contiene una solución para preservar en perfectas
condiciones la muestra tomada hasta su llegada al corre-
spondiente laboratorio para su posterior análisis.
Nuestro país representado por la Dirección General de
Tráfico ha participado en numerosos proyectos sobre esta
área de trabajo. Especial relevancia posee el estudio de-
sarrollado sobre “Presencia de alcohol, drogas y medica-mentos en conductores españoles” en el cual se toman
muestras de saliva para validar un equipo denominado
Dräeger DrugTest 5000 [10]. Este estudio ha permitido
descubrir un nuevo método de colección de fluido oral en
los controles a conductores ya que, tal y como hemos
explicado anteriormente, utiliza el procedimiento de toma
de muestra de saliva no invasivo. Seguidamente a la ob-
tención de la muestra se inserta el instrumentos el cual
posee un material esponjoso que se encuentra compri-
mido y por el que la saliva queda impregnada en el apara-
to lector. Esta herramienta nos permite que el resultado
de la prueba pueda ser leído. Asimismo, el dispositivo
contiene un mecanismo útil el cual se encarga de con-
trolar que la prueba se haya realizado correctamente
apareciendo si es así una línea confirmatoria de normali-
dad. Los resultados que puede arrojar se pueden clasificar
en [11]: Verdadero positivo (se define como el número de muestras positivas confirmadas divido entre el número total de positivos obtenidos), Verdadero negativo (definido como el número de muestras que resultaron confirmadas negativamente dividido entre el número total de negativos obtenidos), Falso positivo (se define como el número de muestras confirmadas como negativas, pero que arrojaron ser positivas erróneamente divido entre el número total de positivos obtenidos) o Falso negativo (definido como el número de negativos que fueron con-firmados posteriormente como positivos dividido entre el número total de negativos obtenidos) Como podemos observar, hay veces en la que el detector
mide una sustancia que en realidad no es o viceversa. Por
ello, la sensibilidad del aparato utilizado en los disposi-
tivos de la Dirección General de Tráfico tiene que ser muy
patente y, más concretamente, en el caso de los falsos
positivos, la especificidad. La especificidad se define como
la proporción de casos que han resultado negativos y que,
posteriormente, se han confirmado como tales. Por lo
tanto, necesitamos que el equipo a utilizar en dichos
asuntos sea muy preciso para poder detectar correc-
tamente todo el conjunto de muestras obtenidas. Un re-
43
sultado denominado como falso positivo puede ocurrir en
cualquier prueba realizada en un laboratorio que posea
menos del cien por cien de especificidad. Esta característi-
ca se basa en la capacidad que posee el instrumento uti-
lizado para diferenciar a los conductores que están bajo la
influencia de las drogas y cuáles no.
Este instrumento posee algunas ventajas como la facilidad
de obtención de la muestra y la manejabilidad de esta
para su posterior análisis en el laboratorio puesto que no
requiere de mayor preparación. Sin embargo, aun existen
varios aspectos reprochables hoy en día a este instrumen-
to. El tiempo (unos diez minutos) que necesita el lector
para arrojar un resultado es aún cuestionable. A pesar de
ello, tampoco podríamos intentar aminorar considerable-
mente ese ´tiempo de espera´ ya que se podría afectar al
procedimiento y podría emitir otros resultados no fiables.
Por lo expuesto, a parte de la primera prueba realizada
para la detección de diversas sustancias tóxicas con el
analizador legalmente válido (en la actualidad, el denomi-
nado Dräeger DrugTest 5000) se realiza una segunda con
carácter evidencial por un sistema de contra análisis au-
torizado.
La técnica en la que se basa el instrumento utilizado hoy
en día por los agentes de la Guardia Civil de Tráfico en los
controles de drogas a conductores es de enzimoinmuno-
análisis que es el fundamento químico-toxicológico del
test en saliva. ELISA, como se le denomina a esta técnica
por sus siglas en inglés (Enzime Linked InmunoSorbent Assay) es un método biomolecular que emplea la especi-ficidad de un anticuerpo y la sensibilidad de los análisis de enzima para detector antígenos. Además de descubrir si hay presencia de dicha sustancia tóxica sirve también para cuantificarla [12]. Esta técnica es muy selectiva ya que su
base es la especificidad de la interacción del anticuerpo
con su antígeno, por lo tanto, si el antígeno no se encuen-
tra en la muestral el anticuerpo de detección no se fija. No
obstante, a pesar de ser una técnica ultrasensible [13],
existen varias limitaciones en dicho procedimiento debido
a que pueden influir algunas sustancias que son interac-
ciones no específicas y que pueden obtenerse por ello
falsos positivos debido a reacciones cruzadas. Los anti-
cuerpos del que se vale este análisis están diseñados pre-
cisamente para detectar sustancias estupefacientes, tóxi-
cas y/o psicotrópicas. Sin embargo, cuando el anticuerpo
reconoce de manera errónea como antígeno una molécu-
la que posea una estructura química similar a este. Es lo
que ocurre con algunos medicamentos [14] los cuales
poseen estructuras químicas similares a estas drogas que
pueden reaccionar a los reactivos contenidos en el in-
strumento y originar los falsos positivos. Por todo ello, al
ser la especificidad del anticuerpo para el antígeno menor
del cien por cien se producen las reacciones cruzadas y
temenos que clasificar esta técnica como presuntiva.
4. ESTADÍSTICAS EN ESPAÑA
En nuestro país, la Fiscalía General del Estado anualmente
publica una memoria abarcando diferentes áreas de tra-
bajo. En uno de estos ámbitos se encuentra la Fiscalía An-
tidroga la cual, en la última Memoria publicada en el año
2018, se arrojan unos valores espeluznantes en cuanto a
los positivos en sustancias tóxicas en los conductores de
nuestro país.
En 2017, que son los últimos datos que tenemos hasta
que se publique la memoria del año 2019 que corre-
sponderá a los datos del año 2018, ha crecido considera-
blemente el volumen de controles de detección de
drogas, que “alcanzaron el número de 89.812, lo que supone un incremento del 37,8 % respecto del año 2016.
Estamos ante las más altas cifras de controles de detec-ción de drogas y de expedientes sancionadores correla-tivos desde que se generalizaron en nuestro país en el año 2012” [15].
En lo referente a las drogas, tal y como detallan los in-
formes de la Dirección General de Tráfico, durante “el tres
y el nueve de junio de 2019, de las 3.826 pruebas de de-
tección de drogas que se realizaron a conductores, 1.360
resultaron positivas en los test indiciarios, de ellos, 1.166
detectados en controles preventivos, 139 tras haber co-
metido una infracción y 55 por estar implicado en un ac-
cidente”.
“De los 1.360 conductores que dieron positivo a drogas, a
14 de ellos se les instruyó diligencias para su posterior
traslado a la autoridad judicial, a 10 por conducir bajo las
influencia de drogas tóxicas, estupefacientes o sustancias
psicotrópicas y a los 4 restantes por negar a someterse a
dichas pruebas” [16].
Siguiendo una tendencia habitual, “las drogas más con-
sumidas son el cannabis (959 casos), la cocaína (524
casos) y las anfetaminas (197casos). Por ello, se diseñaron
las pruebas salivares para la detección de la presencia de
drogas en los conductores y las cuales se están incremen-
tando progresivamente con la idea de llegar a gener-
alizarse como las que se hacen para la detección del alco-
hol” [17].
Por último, es de destacar que, según López-Rivadulla,
Manuel, González-Luque, Juan Carlos y Álvarez González,
Francisco Javier, “la conducción después del consumo de
sustancias psicoactivas es un hecho frecuente en España,
alcanzando el 17% de los conductores españoles. Casi un
11% de conductores conducen tras haber consumido ot-
ras sustancias psicoactivas distintas al alcohol y que el
cannabis y cocaína explican la mayor parte de los casos
positivos a drogas” [18].
5. CONCLUSIONES
Las pruebas de control de drogas realizados por la Direc-
ción General de Tráfico en las carreteras españolas poseen
varias limitaciones al obtener la toma de muestra medi-
ante fluido oral. La principal es la tecnológica, ya que, co-
44
mo es habitual, está avanza de manera muy rápida y se
produce una ausencia de conocimientos por parte del ser
humano. Las técnicas utilizadas carecen del cien por cien
de sensibilidad y especificidad, con relación a las concen-
traciones de los analitos en saliva. En consecuencia, los
falsos positivos son prácticas más frecuentes de lo que
podemos imaginar. Por lo tanto, se debe seguir investi-
gando a fin de mejorar y perfilar dichos métodos de de-
tección para que puedan ser totalmente precisos.
Como consecuencia del aumento significativo de la pres-
encia de drogas en la conducción en España y teniendo
consciencia la sociedad de nuestro país que se trata de
uno de los problemas más graves para la Seguridad Vial,
el Gobierno dictó una Ley específica que entró en vigor en
el año 2014 donde se recoge la “tolerancia cero” en cuan-
to los efectos de las drogas durante la conducción. En
este sentido, el hecho de sancionar la sola presencia de
drogas en el organismo puede dar lugar a los denomina-
dos falsos positivos. Esto es así ya que la detección medi-
ante la saliva puede hallar restos de consumo de hasta
varios días antes del momento de realización de la prueba
ya que existen sustancias que perduran en el organismo,
aunque no se esté bajo sus efectos. Asimismo, algunos
medicamentos de prescripción habitual por los faculta-
tivos pueden poseer una estructura similar a las drogas
que detecta el dispositivo utilizado y pueden provocar
reacciones cruzadas.
A pesar de que la sensibilidad y la especificidad de los
instrumentos utilizados en los controles de drogas ac-
tualmente en nuestro país no ostenta un cien por cien de
fiabilidad, se ha conseguido bastante en estos últimos
años. Por lo tanto, en un futuro próximo se podrá mejorar,
seguramente, estos valores. Todo es cuestión de tiempo.
REFERENCIAS
[1] “Sentencia de la Audiencia Provincial de Murcia. Nº resolución:
274/2019 de 01/10/2019” en buscador CENDOJ (Centro de
Documentación Judicial del Consejo General del Poder Judicial).
http://www.poderjudicial.es/search/AN/openDocument/cd9104
18a54fc24c/20191030 (Enlace web)
[2] “Sentencia de la Audiencia Provincial de León. Nº resolución:
1033/2019 de 09/10/2019” en buscador CENDOJ (Centro de
Documentación Judicial del Consejo General del Poder Judicial).
http://www.poderjudicial.es/search/AN/openDocument/39f259d
412860f46/20191108 (Enlace web)
[3] “Artículo 383 del Código Penal” en Página Web del Boletín Ofi-
cial del Estado (BOE). https://www.boe.es/buscar/pdf/1995/BOE-
A-1995-25444-consolidado.pdf (Enlace web)
[4] Gomis Yagües, Vicente: “Tema 3: Cromatografía de gases y Tema
5: Espectrometría de masas” del Repositorio Institucional de la
Universidad de Alicante. 2008.
https://rua.ua.es/dspace/bitstream/10045/8249/4/T5masas.pdf
(Enlace web)
[5] “Tabla de sanciones y multas de tráfico de la DGT” en Página
Web Oficial de la ITV (Inspección Técnica de Vehículos).
https://itv.com.es/tabla-sanciones-dgt (Enlace web)
[6] “Artículo 379 párrafo segundo en relación con el párrafo prime-
ro del Código Penal” en Página Web del Boletín Oficial del Es-
tado (BOE). https://www.boe.es/buscar/pdf/1995/BOE-A-1995-25444-
consolidado.pdf (Enlace web)
[7] “Artículo 379 párrafo segundo en relación con el párrafo primero del
Código Penal” en Página Web del Boletín Oficial del Estado (BOE).
https://www.boe.es/buscar/pdf/1995/BOE-A-1995-25444-
consolidado.pdf (Enlace web)
[8] González-Luque, Juan Carlos y Quintela-Jorge, Oscar: “La determinación
de drogas en fluido oral en conductores de vehículos: ¿se abre el
camino a la intervención preventiva?” en Revista Española de Drogode-
pendencia. 2011. https://www.aesed.com/upload/files/vol-36/n-
3/v36n3_7.pdf (Enlace web)
[9] González-Luque, Juan Carlos y Quintela-Jorge, Oscar: “La determinación
de drogas en fluido oral en conductores de vehículos: ¿se abre el
camino a la intervención preventiva?” en Revista Española de Drogode-
pendencia. 2011. https://www.aesed.com/upload/files/vol-36/n-
3/v36n3_7.pdf (Enlace web)
[10] López-Rivadulla, Manuel et al.: “Evaluación del Dispositivo Dräeger
Drugtest 5000 para la detección de drogas de abuso en saliva”. Grupo
de Trabajo sobre Control de drogas en el tráfico Rodado y Servicio de
Toxicología Forense del Instituto Universitario de Medicina Legal. Santi-
ago de Compostela, Noviembre 2011.
http://www.dgt.es/Galerias/seguridad-vial/investigacion/estudios-e-
informes/INFORME-EVALUACION-DEL-DISPOSITIVO-DRAEGER-
DRUGTEST-17.pdf (Enlace web)
[11] López-Rivadulla, Manuel et al.: “Evaluación del Dispositivo Dräeger
Drugtest 5000 para la detección de drogas de abuso en saliva”. Grupo
de Trabajo Control de drogas en el tráfico Rodado y Servicio de Toxi-
cología Forense del Instituto Universitario de Medicina Legal. Santiago
de Compostela, Noviembre 2011.
http://www.dgt.es/Galerias/seguridad-vial/investigacion/estudios-e-
informes/INFORME-EVALUACION-DEL-DISPOSITIVO-DRAEGER-
DRUGTEST-17.pdf (Enlace web)
[12] Bernett, Chloe: “Usos de ELISA” en Página Web News Medical Life Sci-
ences. Junio 2019. https://www.news-medical.net/life-sciences/ELISA-
Applications-(Spanish).aspx (Enlace web)
[13] Sánchez Martínez, Pilar María: “La saliva como fluido diagnóstico”. UGC
Bioquímica Clínica. Hospital Universitario Virgen Macarena. Sevilla.
2012-2013.
http://www.seqc.es/download/tema/7/3324/346271904/840334
/cms/tema-8-la-saliva-como-fluido-diagnostico.pdf/ (Enlace web)
[14] “Drogas, medicamentos y falsos positivos al volante” en Página Web de
Asociación Española de Automovilistas. Febrero 2017.
https://aeaclub.org/drogas-medicamentos-y-falsos-positivos-
al-volante/ (Enlace web)
[15] Segarra Crespo, Maria José: “Memoria Anual”. Presentada al inicio del
año judicial por la Fiscalía General del Estado. Madrid, 2018.
https://www.fiscal.es/memorias/memoria2019/FISCALIA_SITE/in
dex.html (Enlace web)
[16] “Más de 470 conductores son detectados cada día al volante habiendo
consumido alcohol o drogas”. Nota de prensa de la Dirección General
de Tráfico (DGT) publicada en la Revista Nacional en su Web Oficial el 13
de junio de 2019. http://www.dgt.es/Galerias/prensa/2019/06/NP-
Resultados-campana-DGT-alcohol-drogas-junio-2019.pdf (Enlace web)
[17] “Más de 470 conductores son detectados cada día al volante habiendo
consumido alcohol o drogas”. Nota de prensa de la Dirección General
de Tráfico (DGT) publicada en la Revista Nacional en su Web Oficial el 13
de junio de 2019. http://www.dgt.es/Galerias/prensa/2019/06/NP-
Resultados-campana-DGT-alcohol-drogas-junio-2019.pdf (Enlace web)
[18] López-Rivadulla, Manuel, González-Luque, Juan Carlos y Álvarez Gonzá-
lez, Francisco Javier: “Prevalencia de consumo de sustancias psicoactivas
45
en conductores españoles. Resumen de principales resultados. DRUID-
Project WP2”. Universidad de Santiago de Compostela, Sapienza Uni-
versidad de Roma, Ministerio del Interior y La Dirección General de Tráfi-
co (DGT). Diciembre 2011. https://slideplayer.es/slide/3470276/ (Enlace
web)
Orden, B. y González Marcos, M.I.: “Pruebas de detección rápida para el
diagnóstico. Infecciones respiratorias”. 2015.
https://monograficos.fapap.es/adjuntos/monografico-respiratorio-
2/04_pruebas_deteccion_rapida.pdf (Enlace web)
“Cómo se hace un control de drogas, paso a paso” de la Dirección Gen-
eral de Tráfico (DGT) publicada en la Revista Nacional en su Web Oficial
el 3 de julio de 2018. http://revista.dgt.es/es/sabia-
que/normas/2018/0703como-se-hace-un-control-de-
drogas.shtml#.XfIR35NKjIW (Enlace web)
“Así se hace un control de drogas” de la Dirección General de Tráfico
(DGT) publicada en la Revista Nacional en su Web Oficial en junio de
2019. http://revista.dgt.es/es/multimedia/video/2019/06JUNIO/0603-
Control-alcohol-drogas.shtml#.XbarQpJKjIU (Enlace web)
“25.000 pruebas diarias de alcohol y drogas” de la Dirección General de
Tráfico (DGT) publicada en la Revista Nacional en su Web Oficial el 3 de
junio de 2019.
http://revista.dgt.es/es/noticias/nacional/2019/06JUNIO/0603-Control-
alcohol-drogas.shtml#.Xbat45JKjIU (Enlace web)
“Tenemos un problema” de la Dirección General de Tráfico (DGT) publi-
cada en la Revista Nacional en su Web Oficial el 3 de julio de 2018.
http://revista.dgt.es/es/reportajes/2018/07JULIO/0703drogas-tenemos-
un-problema.shtml#.XbavQJJKjIV (Enlace web)
“Los efectos de las drogas en la conducción” de la Dirección General de
Tráfico (DGT) publicada en la Revista Nacional en su Web Oficial el 3 de
junio de 2015. http://revista.dgt.es/es/opinion/encuentros-
digitales/2015/200150603encuentro-digital-sobre-drogas-juan-
carlos.shtml#.XdJbNtVKjIV (Enlace web)
“Alcohol y Drogas-Controles” de la Dirección General de Tráfico (DGT)
publicada en la Revista Nacional en su Web Oficial.
http://revista.dgt.es/es/categorias/alcohol-y-drogas-controles.shtml (En-
lace web)
Ángela Rodríguez Carrera. 1997. Natural de Peñaflor (Sevilla). Alumna del quinto curso del Doble Grado de Derecho y Criminología en la Universidad Pablo de Olavide (Sevilla).
46
Plaguicidas: Un Riesgo Latente. Sara Cobo Domínguez
Resumen— Un plaguicida es cualquier sustancia destinada a prevenir, destruir, atraer, repeler o combatir cualquier plaga, incluidas las
especies indeseadas de plantas o animales, durante su producción, transporte, distribución y elaboración de alimentos para animales.
Además de usarse en la agricultura, se emplean para controlar vectores de enfermedades tropicales, como los mosquitos, y así proteger
la salud pública.
Palabras Claves— Intoxicación, Contaminación, Plagas, Agricultura, Químicos.
—————————— ◆ ——————————
1. INTRODUCCIÓN
En el uso de los plaguicidas podemos señalar a principios
del siglo pasado, donde se pueden distinguir distintas fases
de desarrollo histórico. La primera señala el
descubrimiento de la acción del plaguicida de algunos
compuestos como el azufre, siendo una época de avances
lentos. La segunda etapa presenta un desarrollo más
rápido y comienza en el año 1992, donde Holanda
introduce el uso de los aceites insecticidas. Y la última fase,
se desarrolla el descubrimiento de las propiedades
insecticidas del Dicloro Difenil Tricloroetano (DDT), llevado
a cabo por Müller en 1940. Con ello se desarrollan las bases
científicas de investigaciones posteriores. [3]
Los plaguicidas no son necesariamente venenos, pero
pueden ser tóxicos para los humanos u otros animales. En
la definición de plaga se incluyen insectos, hierbas,
microbios, hongos… aquellos organismos que aparecen de
manera súbita y en gran cantidad, generando diferentes
daños a las personas y cultivos entre otros. Por lo tanto, su
finalidad es evitar la propagación de los seres vivientes que
se constituyen como plagas. [1]
El término de plaguicida está más ampliamente
difundido que el nombre genérico: biocida. Su desarrollo
fue esencial para el crecimiento de la agricultura. Gracias a
su efectividad y su bajo costo, permitió en 1980 proteger
los cultivos de casi cualquier amenaza. Sin embargo, a la
larga, se demostró que el uso de plaguicidas afecta al
medioambiente e incluso puede modificar plagas,
haciéndolas más resistentes. [2]
2. DISTINTOS TIPOS DE PLAGUICIDAS
Los plaguicidas se pueden clasificar en distintos tipos;
según el tipo de organismo que se desea controlar, ya sea
animal, vegetal o microbiana; según el grupo químico del
principio activo; según su persistencia al medio ambiente
y, por último, según su toxicidad aguda, expresada como
el valor DL50. En base a esto, podemos distinguir distintos
tipos. [4]
2.1. Insecticidas
Los insecticidas son productos químicos utilizados para
controlar o matar insectos portadores de enfermedades. Se
suelen utilizar principalmente en los huertos, granjas, casas,
almacenes y se usan en una amplia variedad de cultivos
como maíz, tabaco, plantas hortícolas. A veces también se
utilizan para controlar a las termitas.
En cuanto a sus características destacamos su gran
especificidad, su baja toxicidad en humanos, bajas dosis
letales, también su bajo coste y por ser latente. [5]
Los dos tipos principales son: En primer lugar, los
organoclorados, los primeros en ser empleados en
fumigaciones masivas, comprenden los derivados clorados
del etano, entre cuyos compuestos se encuentra el DDT;
además, derivados como clordano, aldrina, dieldrina,
heptacloro, endrina y toxafeno, y compuestos relacionados
con el hexaclorociclohexano como el lindano (Fig.1). Se
caracteriza por permanecer durante mucho tiempo en el
ambiente, se dice que son persistentes, lo cual, la
utilización de estos productos en hogares hace que la
inhalación en hogares sea más perjudicial en personas.
Para que un compuesto químico actúe como insecticida
necesita ser liposoluble, lo que facilita su paso por la
quitina. Se emplean como insecticidas y como acaricidas.
[6]
Figura 1. Composición de los insecticidas organoclorados.
En segundo lugar, podemos destacar los insecticidas
organofosforados, se trata de aquellas sustancias orgánicas
47
derivadas del ácido fólico (Fig,2), se absorben por
intermedio de los lípidos del caparazón de los insectos. Se
encuentran ampliamente extendidos en la actualidad, ya
que son muy utilizados por el medio laboral como
doméstico. El manejo incorrecto es responsable de un gran
número de intoxicaciones agudas y actualmente, se da más
importancia a este tipo de insecticidas. Se caracterizan por
ser un sustituto de DTT en Europa. Perduran menos que los
clorados, pero pueden provocar graves daños y a pesar de
estar prohibidos en muchos países, que sea muy
económico hace que aún se permita en ciertos lugares. [7]
Figura 2. Composición de los insecticidas organofosforados.
2.2. Herbicidas
Se trata de un producto químico que permite destruir las
hierbas indeseadas. Su acción principal suele ser
concentrarse en las hormonas de las plantas para impedir
que éstas crezcan. Algunos de ellos deben aplicarse sobre
las plantas que se desean eliminar, mientras que otros se
echan en el suelo.
Su acción es de corto plazo, sin embargo, los herbicidas
que se aplican sobre el terreno, tienen una duración a largo
plazo. Están los derivados de las triazinas y derivados de la
urea, impidiendo la fotosíntesis.
Podemos dividirlos en dos tipos: en primer lugar, los
selectivos, estos afectan a un tipo específico de plantas,
eliminando aquellas no deseadas sin provocar algún tipo
de daño al resto de los cultivos. En segundo lugar, los no
selectivos, al contrario que los selectivos, destruyen una
variedad de plantas, es por ello que suelen usarse en
carreteras o zonas industriales.
Los herbicidas pueden provocar graves daños al medio
ambiente, animales o personas por su toxicidad, por lo que
se deben de administrar con responsabilidad. Pueden
llegar a alterar la fertilidad del suelo y, por lo tanto, atentar
contra la productividad agrícola. [8]
2.3. Fungicidas
Los fungicidas se tratan de sustancias tóxicas empleadas
para impedir el crecimiento o para la eliminación de
hongos y mohos perjudiciales en plantas o animales. Si
estos son usados en exceso pueden causar daños
fisiológicos.
La mayoría de ellos se fumigan o espolvorean sobre
semillas, hojas o frutas y su aplicación pueden ser mediante
rociado, pulverizado, revestimiento o por fumigación. Se
pueden clasificar según su modo de acción, su
composición y su aplicación.
Según su modo de acción, se pueden encontrar los
llamados protectores, aplicados antes de que lleguen las
esporas de los hongos, actuando solamente en su
superficie donde los hongos se han depositado y así evitar
que germinen y penetren las células. Y los erradicadores,
aplicados para aquellas plantas que ya están enfermas por
hongos, absorbido a través de la raíz y se movilizan por
toda la planta.
Según su composición, se pueden encontrar numerosos
tipos como compuestos de cobre, de mercurio, de estaño,
metálicos, extractos vegetales, aceites…
Según su aplicación se usan en revestimientos de
semillas, para desinfección del suelo y para aplicación
sobre las plantas. [9]
3. EFECTOS AMBIENTALES Y EN LA SALUD.
El uso cotidiano de estos químicos contribuye a la crisis de
la agricultura que dificulta la preservación de los
ecosistemas, recursos naturales, y, además, afecta a la salud
de la comunidades rurales y consumidores. Algunos de los
plaguicidas han sido identificados como un peligro a largo
plazo para el medio ambiente e incluso están prohibidos o
restringidos por convenios internacionales.
En cuanto a los efectos provocados en el medio
ambiente, se da principalmente por aplicaciones directas
en el cultivo, lavado inadecuado, filtraciones en los
depósitos de almacenamiento y residuos, derrames
accidentales, uso inadecuado de la población, entre otros.
Estos factores son la causa de la distribución por la
naturaleza. Los restos de los plaguicidas se dispersan en el
ambiente y se convierten en contaminantes amenazando
la estabilidad. Cuando un plaguicida se mantiene en las
cadenas alimentarias, estos se distribuyen a través de ellas,
se concentran y se acumulan hasta que alcanzan una
concentración letal para algún organismo o bien hasta que
lleguen a niveles superiores.
La contaminación del aire tiene importancia cuando se
trata de aplicaciones por medio aéreos. Este efecto tiene
importancia si se llega a contaminar zonas habitadas o con
cultivos, ya que pueden ser muy sensible a los mismos.
La contaminación del suelo se debe a tratamientos
específicos y al tipo de suelo; los arcillosos y orgánicos
retienen más residuos que los arenosos. Los mayores
riesgos se presentan en plaguicidas organoclorados, ya
que son de difícil eliminación.
Por último, la contaminación del agua constituye
impurezas que pueden llegar a las personas directamente
48
mediante el agua potable, y de forma indirecta, a través de
la cadena biológica de alimentos. Pueden ser resistentes a
la degradación, y, en consecuencia, persistir largos
periodos de tiempo.
En cuanto a los efectos de los plaguicidas sobre la salud,
entran en contacto con las personas mediante las vías de
exposición; siendo respiratoria, digestiva y dérmica, ya que
pueden encontrarse en el aire inhalado, en el agua o en los
alimentos. Pueden tener efectos agudos y crónicos, siendo
agudos aquellas intoxicaciones de corto tiempo con
efectos localizados, y crónicos, aquellos vinculados a la
exposición por bajas dosis por un largo tiempo. Tendrán
un efecto negativo cuando el grado de exposición supere
los niveles considerados seguros.
Puede darse una exposición directa, como en el caso de
trabajadores de una industria, operación y agricultores, o
una exposición indirecta, en el caso de consumidores.
La toxicidad digestiva se debe a la ingestión de un
plaguicida con efectos tóxicos. Por inhalación se produce
al respirar una atmósfera contaminada por un plaguicida. Y
por la vía dérmica se centra en riesgos debidos al contacto
y absorción por la piel. (Fig.3) [10]
Figura 3. Afectados por el uso de los plaguicidas.
4. ALTERNATIVAS
Los productos naturales, utilizados antes de la llegada de
los químicos vuelven a ser demandados por la agricultura
ecológica, que, aunque no son del todo efectivos, algunas
plantas resisten a las plagas a modo de repelente natural.
En la actualidad se brinda el retorno a las fórmulas
orgánicas y naturales, y así, conseguir insecticidas
ecológicos a partir de extractos vegetales con fórmulas que
controlen y eliminen de manera eficaz determinadas
plagas.
Los responsables de las políticas, los simposios
nacionales sobre alternativas, los programas de manejos
integrado de plagas, los científicos, entre otros, han
catalizado la reforma de las políticas. Para ello se han
llevado a cabo dos enfoques: Manejo integrado de plagas
y Manejo ecológico de plagas. [10]
4.1. Manejo integrado de plagas
Fomenta el desarrollo de la agricultura orgánica, nuevas
estrategias de producción y el manejo de plaguicidas en
los cultivos intensos. Se añade un nuevo enfoque, donde el
hombre y su salud no se ven como un hecho
independiente. Se hace especial hincapié en el crecimiento
de cultivos sanos, el cual perturba lo menos posible los
ecosistemas agrícolas y fomenta los mecanismos naturales
de control de plagas.
Entre los elementos vitales está, el control biológico,
buenas prácticas agrícolas, el control físico, genético,
natural y legal, así como el uso de agentes de usa natural
como repelente, hormonas entre otros.
4.2. Manejo ecológico de plagas
Se aplica para los cultivos que se siembras en fincas de
pequeños agricultores, para el programa de agricultura
urbana y demás producciones de carácter agroecológico.
Donde el control biológico es la alternativa principal.
Algunas experiencias en el área de la Sanidad han
evidenciado una reducción total del uso de plaguicidas
químicos en un 63%.
Entre las principales alternativas se encuentran la
producción y uso de entomófagos, para debilitar más que
matar; entomopatógenos, capaz de causar una
enfermedad al insecto plaga; antagonistas y conservación
de enemigos naturales mediante la diversificación de los
sistemas, que actúan como biorreguladores de las plagas,
que aplican alternativas para el manejo de los organismos
que aloja el virus, bacterias y otros microorganismos que
pueden causar una enfermedad contagiosa, además de
propagarse.
5. CONCLUSIONES
Los plaguicidas son compuestos químicos que en un
principio han aportado beneficios al ser humano a lo largo
del tiempo y en la actualidad aún son prioritarios para su
utilización en áreas específicas.
Sin embargo, se han acumulado suficientes evidencias de
los riesgos para la salud y el ambiente que conlleva el uso
excesivo de los plaguicidas, además de comprometer la
sostenibilidad de los sistemas agrícolas, por lo que
correspondería a los gobiernos aplicar medidas de
mitigación antes los efectos provocados y a su vez,
encontrar alternativas.
Por otro lado, la falta de conocimiento sobre el uso de
los plaguicidas y sus efectos adversos, además de los
deseos por mejorar los cultivos, han llevado a los agrícolas
a dosificar mal los productos químicos con todos los
riesgos que esto significa. Por ello, es muy importante que
cada uno tomemos conciencia de cuidar nuestros recursos,
49
así como, saber cómo usarlos adecuadamente.
REFERENCIAS
[1] Plaguicida-Wikipedia Enciclopedia Libre
https://es.wikipedia.org/wiki/Plaguicida
[2] Definición- Qué es, Significado y Concepto
https://definicion.de/plaguicida/
[3] Antecedentes-Plaguicidas
http://tesis.uson.mx/digital/tesis/docs/22188/Anteced
entes.pdf
[4] Plaguicidas-Generalidades
http://sisbib.unmsm.edu.pe/BibVirtualData/Tesis/Salu
d/Milla_C_O/Generalidades.pdf
[5] Insecticidas- Qué es, Significados y Concepto
https://boletinagrario.com/ap-6,insecticida,480.html
[6] Nilda A.G.G.de Fernícola “Toxicología de los Insecticidas
Organoclorados”
http://hist.library.paho.org/Spanish/BOL/v98n1p10.pd
f
[7] E. Carod Benedico. Insecticidas organofosforados “De la guerra
química al riesgo laboral y doméstico”
http://scielo.isciii.es/scielo.php?script=sci_arttext&pid
=S1131-57682002000500005
[8] Herbicidas- Definición https://definicion.de/herbicida/
[9] Fungicidas- Wikipedia Enciclopedia Libre
http://es.wikipedia.org/wiki/Fungicida
[10] Dra. Asela M. Del Puerto rodríguez, Dra. Susana Suárez Tamayo,
Lic. Daniel E. Palacio Estrada “Efectos de los Plaguicidas sobre el
Ambiente y la Salud”
http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=
S1561-30032014000300010
Sara Cobo Domínguez, actualmente estudiante de
4º curso del Grado de Criminología en la
Universidad Pablo de Olavide.
50
Análisis de drogas de abuso en el humor vítreo
Álvaro Morales Rodríguez
Resumen— El análisis de drogas en el humor vítreo, como metodología prácticamente novedosa forense, resulta de gran
interés y utilidad para contribuir al esclarecimiento de hechos en investigaciones judiciales, debido a las favorables propiedades
anatómico-funcionales de dicha matriz. De esta forma, es posible desenmascarar hábitos tóxicos relacionados con el
fallecimiento a indagar. A pesar de ello, es necesaria una mejora de las técnicas de detección e interpretación de los resultados
obtenidos, así como crear criterios universales sobre su estudio.
Palabras Claves— - Drogas de abuso, humor vítreo, toxicología forense, hábitos tóxicos.
—————————— ——————————
1. INTRODUCCIÓN
as matrices biológicas con interés forense más em-pleadas para la detección de drogas de abuso inclu-yen el humor vítreo por sus condiciones anatómico-
funcionales. El auge de este tipo de análisis específicos data tras la publicación de un reporte sobre comparación de la concentración de barbitúricos entre una muestra de sangre y una muestra del humor vítreo emitido por Felby y Olsen en 1969, demostrándose su utilidad potencial en investigaciones judiciales.
2. ANATOMÍA DEL HUMOR VÍTREO
El humor vítreo es un líquido viscoso, transparente y al-calino (pH 7,5) situado en la cavidad extrema posterior del ojo llamada cámara vítrea, entre la superficie interna de la retina y la cara posterior del cristalino (Fig. 1).
Este fluido biológico está compuesto entre un 90% y un
99% por agua y el resto por colágeno y ácido hialurónico mayoritariamente, además de potasio, sodio, cloro, gluco-sa y proteínas, entre otros componentes. La proporción
celular es prácticamente mínima, con la excepción de cier-tas células involucradas en la síntesis de colágeno. De esta forma, el humor vítreo es una solución salina con baja concentración de proteínas. Sin embargo, estudios bio-químicos y biomicroscópicos demuestran que se trata de un complejo heterogéneo en cuanto a su composición. Cada globo ocular presenta un volumen de 2 mililitros de este, disponiéndose de un total de 4 mililitros por hu-mano aproximadamente, dependientes de la edad y del tamaño del ojo.
Además, carece de vascularización al no ser irrigado por ningún vaso sanguíneo y no se renueva desde su formación embrionaria.
Sus funciones principales son mantener la forma del ojo, permitir la transmisión de luz a la retina y que esta se halle uniforma para poder recibir imágenes.
3. PROCEDIMIENTO ANALÍTICO DEL HUMOR VÍTREO
Debido a su interés forense, el humor vítreo es aspirado directamente durante la autopsia legal para su posterior análisis, mediante punción de la cámara vítrea en el ángu-lo externo del ojo con una aguja hipodérmica de 30G montada en una jeringa de 5 mililitros (Fig. 3). El volu-men extraído es variable, entre 1 y 5 mililitros totales. El fluido debe recolectarse de cada ojo por separado, ya que es frecuente composiciones químicas diferentes entre sendos globos oculares.
————————————————
Álvaro Morales Rodríguez. Facultad de derecho, Universidad Pablo de Olavi-de [email protected].
L
Figura 2. CUERPO VÍTREO HUMANO.
1. Humor vítreo. Figura perteneciente a una muestra cortesía del New En-gland Eye Bank subida por Jerry Sebag.
Figura 1. ANATOMÍA DEL OJO HUMANO, figura tomada del Trabajo Final de Integración de la Carrera de Posgrado de Medicina Legal realizado por la Dra. Sonia Facal titulado Estu-dio sobre la detección de xenobióticos en humor vítreo en el campo de la medicina forense, page 7.
51
Para obtener los resultados deseados se sugiere un
análisis inmediato de las muestras vítreas. En caso de im-posibilidad deben ser almacenadas como máximo a 4ºC. El almacenamiento de las muestras es preferible que sea cada ojo por separado en tubos de 5 mililitros, con el obje-tivo de evitar la evaporación de sustancias volátiles de interés al limitar la superficie expuesta. En ocasiones, se emplean estabilizadores, como el fluoruro sódico o el fluoruro potásico, para bloquear cualquier actividad en-zimática que pueda generar o degradar determinados xenobióticos.
La alta viscosidad del humor vítreo desencadena poca repetibilidad en el estudio de un mismo electrolito pre-sente en la misma muestra por el mismo analista. Dada dicha naturaleza, existen multitud de técnicas preparati-vas de las muestras del humor vítreo destinadas al análi-sis, recomendándose la centrifugación combinada con agitación, entre otras.
Se dispone de una gran variedad de técnicas analíticas del humor vítreo como la cromatografía de gases, la cro-matografía líquida de alta resolución, la espectrometría de masas, la electroforesis capilar y el análisis inmunoen-zimático. Específicamente, se distinguen técnicas de pro-cesamiento presuntivas y técnicas de procesamiento con-firmativas.
Por un lado, las técnicas de procesamiento presuntivas suponen un análisis inicial con la finalidad de identificar muestras negativas. En caso de obtención de un resultado positivo es necesario un análisis complementario para su confirmación. Este tipo de metodología analítica se carac-teriza por ser sensible, rápida, económica y selectiva a familias de drogas de abuso. Los inmunoensayos enzimá-ticos, los inmunoensayos por fluorescencia polarizada, los radioinmunoanálisis y las cromatografías de capa fina son algunas de las técnicas de este tipo que se emplean para el análisis forense de drogas de abuso en el humor vítreo.
Por otro lado, las técnicas de procesamiento confirma-tivas constituyen un segundo análisis con el objetivo de identificar drogas de abuso con alta sensibilidad. Suelen aportar información cuantitativa y más confiable, con mayor validez legal. Generalmente, se utiliza un método basado en un principio químico distinto al empleado en las técnicas de procesamiento presuntivas. La cromato-grafía de líquidos acoplada a espectrometría de masas, la cromatografía de gases acoplada a espectrometría de ma-
sas y la electroforesis capilar acoplada a espectrometría de masas son algunas de las técnicas de este tipo usadas en investigaciones forenses para la detección de drogas de abuso en la matriz vítrea.
4. IMPORTANCIA FORENSE DEL ANÁLISIS DEL
HUMOR VÍTREO
En base a su estructura y composición, el humor vítreo es una matriz biológica idónea para la detección de sustan-cias tóxicas que hayan sido ingresadas por cualquier vía. Entre las sustancias detectables cabe destacar xenobióti-cos y fármacos como antidepresivos tricíclicos, barbitúri-cos o benzodiacepinas. Asimismo, pueden aislarse mar-cadores bioquímicos y electrolitos como ácido láctico, creatinina, glucosa o urea. En esta línea, también es posi-ble hallar drogas de abuso con un elevado interés forense, así como alcohol, cannabinoides, cocaína, codeína, heroí-na, metadona, metanfetaminas, morfina, MDMA, y oxi-codona, entre otras. De hecho, se ha observado que las concentraciones de drogas de abuso en la matriz vítrea suelen reflejar las concentraciones en sangre circulante entre una y dos horas previas al fallecimiento. Por ello, el humor vítreo supone una matriz alternativa en análisis post mortem de drogas de abuso, constituyendo una mues-tra muy útil en investigaciones de muertes donde la san-gre disponible está limitada en términos de calidad o can-tidad. En ocasiones, la circunstancia que rodea al falleci-miento dificulta el estudio toxicológico forense para el esclarecimiento de la causa de la muerte.
La matriz vítrea es relativamente sencilla en términos analíticos en comparación a las demás matrices biológicas de utilidad forense. Es conveniente su examen en muertes por shock hemorrágico, quemaduras o politraumatismos y en fenómenos de momificación o embalsamiento, entre otros. La ubicación anatómica del ojo en la órbita ósea contribuye a proteger el humor vítreo frente a traumas externos y a retrasar la captación y eliminación de drogas de abuso. También es una muestra privilegiada en etapas avanzadas de la putrefacción corporal por su aislamiento físico en el globo ocular junto a su lejanía anatómica del colon, protegiéndose de la contaminación externa, inva-sión de microorganismos y propagación de bacterias cor-porales. De la misma manera, no se ve afectado en gran medida por algunos cambios post mortem, como la redis-tribución.
A pesar de la no vascularización del humor vítreo, las drogas de abuso llegan al ojo por el torrente sanguíneo hasta los vasos retinales y penetran en la matriz vítrea por difusión simple a través de la barrera lipídica localizada entre la cavidad que la contiene y la sangre, conocida co-mo la barrera hematorretiniana. El bajo peso molecular, la no unión a proteínas y la alta hidrosolubilidad son facto-res que favorecen la difusión de este tipo de sustancias, correspondiéndose los hallazgos intravítreos con la frac-ción libre de los tóxicos circulantes en sangre. De este modo, es posible una relación directa entre la concentra-ción de tóxicos en el torrente sanguíneo y en el humor vítreo.
Figura 3. ÁREA Y ÁNGULO DE PUNCIÓN VÍTREA, figura tomada del Chapter Two, Pathophysiology of death in Knight’s Forensics Pathology, fourth editicion, page 87.
52
4.1. INCONVENIENTES DE SU ESTUDIO
El análisis del humor vítreo para la detección de dro-gas de abuso incluye una serie de desventajas relevantes que deben ser tenidas en cuenta para disponer de la ma-yor fiabilidad posible de dicha prueba en su presentación judicial.
En primer lugar, el escaso volumen presente de dicho fluido en sendos globos oculares limita los estudios que se pueden realizar, siendo más acusado en la fase más tardía de la vida de un individuo por el reemplazamiento del ácido hialurónico por el proteoglicano como principa-les componentes estructurales junto al glucógeno.
Por otra parte, se ha descrito el fenómeno de redistri-bución post mortem para ciertas drogas, ocasionando una liberación desde tejidos con mayor concentración hacia tejidos circundantes con menor concentración de las mismas. Algunos autores defienden la existencia de un cierto grado de difusión post mortem de algunas drogas de abuso desde el cerebro hacia el humor vítreo, problemati-zando su cotejo analítico. Por tanto, es posible la medición de concentraciones alteradas.
Las patologías, traumatismo y/o cirugías de los globos oculares pre-mortem pueden comprometer la validez de las muestras vítreas al alterar la barrera hematorretiniana y el consecuente examen de las presentes sustancias tóxi-cas. De la misma forma, el muestreo vítreo debe abortarse si la fiabilidad del análisis se desestabiliza por las condi-ciones de la matriz en general, así como rigidez, calcifica-ción u osificación ocular.
Asimismo, los tóxicos hidrofílicos poseen mayor pro-babilidad de concentración en el humor vítreo similar a la sanguínea, a diferencia de las sustancias lipofílicas o con elevada afinidad proteicas que pueden representar con-centraciones muy dispares en ambas matrices.
Realmente, la interpretación de resultados de muestras de la matriz vítrea resulta tener mayor dificultad que las muestras hemáticas o de orina en condiciones adecuadas, ya que los métodos analíticos que se aplican en la actuali-dad están calibrados y validados principalmente para estudios de plasma y orina.
Además, la detectabilidad de las drogas depende de una amplia serie de factores como el tipo de droga en cuestión, la vía de administración, la dosis y frecuencia de consumo, las diferencias individuales en el metabolismo, la separación temporal entre el momento de consumo y el de recolección, y la sensibilidad del método usado. Se producirá una menor razón de concentración humor ví-treo/sangre antes de alcanzar el equilibrio. Junto a ello conviene resaltar también las relevantes limitaciones que acompañan el cotejo de drogas en el humor vítreo, como la posibilidad de investigación de drogas no detectables bajo un determinado nivel, de no poder indicar claramen-te la cantidad de droga ni el momento de consumo de la misma y de no disponer de técnicas analíticas lo suficien-temente sensibles y específicas para la detección de ciertas drogas.
5. CONCLUSIONES
El análisis de drogas de abuso en el humor vítreo resulta
ser de suma esencia para concretar las causas, mecanis-mos y formas de muerte en el esclarecimiento de deter-minados hechos de interés forense. De esta forma, es po-sible informar sobre hábitos relacionados directa o indi-rectamente con el fallecimiento, como intoxicaciones es-porádicas, adicciones o sobredosis. El humor vítreo cuenta con una gran facilidad de obten-ción de muestras estériles de las cuales se permite detec-tar metabolitos específicos de drogas de abuso, aun a con-centraciones bajas. Conjuntamente, existen compuestos químicos cuya detección es mayor en la matriz vítrea que en la sangre, así como la cocaína, la 6-monoacetilmorfina y la fenciclidina. Actualmente, la utilización del humor vítreo con la finali-dad de detectar drogas de abuso no se encuentra tan di-fundido y tampoco existen criterios uniformes universal-mente sobre su análisis. A pesar de ello, hoy en día resul-ta ser provechosa la correlación existente sobre la concen-tración de etanol en el humor vítreo y en la sangre, cuya relación encontrada entre sendas matrices en dicho orden ronda 1.15-1.20:1, pues la fermentación post mortem no es significativa en el globo ocular. En esta línea, es conve-niente una mejora de las técnicas de detección e interpre-tación de los resultados obtenidos que contengan umbra-les de detección más bajos que los de otras matrices. Así, potenciar este tipo de estudios es muy ventajoso en inves-tigaciones forenses al poder determinarse una gran canti-dad de sustancias en muestras extraídas, incluso cuatro días después del fallecimiento de la persona.
AGRADECIMIENTOS
Deseo agradecer a los responsables de la asignatura de química forense del grado de criminología de la Univer-sidad Pablo de Olavide la oportunidad de escribir un ar-tículo de libre temática en relación a la criminalística con la posibilidad de publicación en una revista científica re-conocida nacionalmente, permitiendo visibilizar conoci-mientos que forman parte de dicha ciencia y demostrando su esencialidad en el esclarecimiento de hechos en inves-tigaciones judiciales. Referencias [1] Alvarado, A. T., Raudales, I. and Vega, J. P., ``Determinación de
alcohol post mortem: aspectos a considerar para una mejor in-
terpretación, ´´ Medicina Legal de Costa Rica, vol. 25 no. 1, Sep
2008.
[2] Akemi, A., Mozaner, D., Geraldo, E., Blanes, L., Doble, P. and
Spinosa, B., ``A Gas Chromatography-Mass Spectrometry Met-
hod for Toxicological Analysis of MDA, MDEA and MDMA in
Vitreous Humor Samples from Victims of Car Accidents, ´´
Journal of Analytical Toxicology, vol. 42, Sep 2018, doi:
10.1093/jat/bky044
[3] Antonides, H. M., Kiely, E. R. and Marinetti, L. J., ``Vitreous
Fluid Quantification of Opiates, Cocaine, and Benzoylecgonine:
Comparison of Calibration Curves in Both Blood and Vitreous
Matrices with Corresponding Concentrations in Blood, ´´ Jour-
nal of Analytical Toxicology, vol. 31, Oct 2007.
[4] Baniak, N., Campos-Baniak, G., Mulla, A. y Kalra J., ``Vitreous
Humor: A Short Review on Post-mortem Applications, ´´ Clini-
cal & Experimental Pathology, vol. 5 no. 1, 2015, doi:
53
10.4172/2161-0681.1000199
[5] Facal, S. S., ``Estudio sobre detección de xenobióticos en humor vítreo
en el campo de la medicina forense, ´́ Fundación H. A. Barceló Posgrados,
2017.
[6] Mariño-Gaviria, D. J., ``Detección post mortem de una nueva
sustancia psicoactiva DOC en humor vítreo, ´´ Colomb forense,
vol. 4 no. 1, pp. 7-14, Abr 2017, doi:
http://dx.doi.org/10.16925/cf.v4i1.1956
[7] Montefuso-Pereira, C. V. y Alves, L. M., ``El humor vítreo como
fluido de importancia clínica en ciencias forenses, ´´ Acta Bio-
química Clínica Latinoamericana, vol. 50 no. 11, pp. 27-35, Mar
2016.
[8] Pelander, A., Ristimaa, J. and Ojanperä, I., ``Vitreous Humor as
an Alternative Matrix for Comprehensive Drug Screening in
Postmortem Toxicology by Liquid Chromatography-Time-of-
Flight Mass Spectrometry´´, Journal of Analytical Toxicology, vol.
34, Jul/Ago 2010.
Álvaro Morales Rodríguez. Actual-mente es miembro de la Universidad Pablo de Olavide, donde cursa las asignaturas del itinerario de ciencias forenses del cuarto curso del grado de criminología.
54