Author

Sara Carreno

Browsing

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Can the offence behaviors of stranger rapists discriminate between UK and non- UK nationals?” de Almond, McMaus y Curtis; en él nos hablan de la posibilidad de discriminar entre violadores nacionales de Reino Unido y no nacionales fijándose en el comportamiento ofensivo que tienen durante el crimen.

Los delitos sexuales han aumentado un 41% en Reino Unido, siendo el 16% de las agresiones sexuales cometidas por desconocidos en el año 2013/2014. Este tipo delictivo es difícil de resolver y por ello la investigación se está centrando en generar inferencias entre los comportamientos en la escena del crimen y las características del agresor.

En Reino Unido el 14% de la población carcelaria es extranjera. El 34% de los delitos cometidos por estos presos son delitos violentos (22%) o delitos sexuales (12%). A estos datos se une la creciente preocupación de los ciudadanos por la inmigración y el delito. La investigación se ha centrado en la población carcelaria no británica sugiriendo la evidencia que, aunque el tamaño de esta población está aumentando hay pocas pruebas que apoyen que los delincuentes extranjeros sean más violentos que los nacionales. Los delincuentes extranjeros aportan a sus delitos una amplia gama de diversidad cultural, lingüística y religiosa y esto puede que haga que tengan diferentes comportamientos en la escena del crimen. El por qué de estas posibles diferencias puede deberse a la falta de comprensión del sistema legal del país, variaciones en la forma de investigar los crímenes o en lo que se considera un delito, barreras lingüísticas entre víctima y victimario y las propias diferencias de personalidad, ya que estudios anteriores mostraran variaciones en el neuroticismo y el narcisismo entre las diferentes nacionalidades (McCrae y Terracciano, 2005).

Este estudio pretende ver si los comportamientos en la escena sirven para discriminar entre autores nacionales y extranjeros, este hecho serviría para diferenciar más rápidamente sospechosos y centrar los esfuerzos de la investigación policial en el camino adecuado.

Los datos se obtuvieron de la base de datos SCASUK, utilizando 651 casos de violación por parte de un hombre desconocido contra una mujer mayor de 16 años. Todos los casos ocurrieron posteriormente al 1 de enero de 2000. Teniendo todos una sola víctima y solo agresor. Estos datos se dividieron en dos muestras. La primera formada por 217 delincuentes no británicos, siendo de 65 nacionalidades diferentes, la más comunes fueron la nigeriana (7,4%) y la polaca (6,5%), con una edad media de 28 años. La segunda muestra consistía en 434 delincuentes británicos, con una edad media de 27 años. En cuanto a las víctimas, las de la primera muestra tenían una edad media de 27 años y las de la segunda de 30 años.

Se analizaron de manera dicotómica (1 presente y 0 ausente) 70 variables de comportamiento relacionados con la participación interpersonal (autodivulgación, relación prolongada, referencias al disfrute de la víctima) y el tipo de violencia (mínima, moderada, severa).  Primero se analizó si había alguna asociación significativa entre las variables de comportamiento del delito y la nacionalidad del delincuente. Posteriormente se analizaba cualquier comportamiento llevado a cabo en el delito para comprobar que esa variable era óptima para la predicción de la nacionalidad.

De los 651 casos, 323 utilizaron la confianza como un método de aproximación, es decir, iniciaban una conversación o les hacían preguntas antes del ataque. Había una asociación significativa entre el método de aproximación y la nacionalidad, siendo 1’5 veces más probable que al usar la confianza la nacionalidad fuera extranjera (56,2%) que nacional (46,3%).

El 84’2% de los casos de violación cometida por un desconocido ocurrieron durante la noche. En este caso también fue más común que el autor fuera extranjero (89’4%) que en nacional (81’6%).

En la mitad de la tipología delictiva el agresor besaba a la víctima, siendo 1’42 veces más probable que si ocurría el delincuente sea extranjero (56’2%) frente a nacional (47’5%). Lo mismo ocurre en relación con el forzar a la víctima a practicar actos sexuales, sucede en la mitad de estos delitos, pero en esta ocasión es más probable que el agresor sea nacional (54’4%) si esto ocurre que extranjero (40’6%). Lo mismo sucede con la solicitud de actos sexuales, es más probable que ocurra con un violador nacional (45’6%), que con uno extranjero (37’7%).

En esta clase de delitos sólo un porcentaje muy bajo de los agresores piden disculpas (14%), siendo más posible que el agresor sea nacional (16’1%) que extranjero (9’7%). Sólo un 8% de los agresores destruyen pruebas forenses, siendo una conducta más común en agresores británicos (9’7%) que extranjeros (4’6%).

En el 14% de los casos de violación el agresor bloquea la entrada o salida para evitar que la víctima escape. Esta conducta es más común entre los violadores extranjeros (18’4%) que entre los nacionales (11’8%). En cuando a la presencia de armas de fuego solo se da en un 2’8% de los casos de violación, siendo 5’47 veces más probable que el agresor sea extranjero cuando está presente (6%) que si es nacional (1’2%).

En relación a la violencia presentada, en el 21’2% de los casos se considera mínima, en el 16’9% moderada y en el 4’6% severa. Se da la violencia mínima en aproximadamente un cuarto de las violaciones cometidas por extranjeros (26’3%), frente a un 18’7% de los casos cometidos por nacionales. Por último, en casi un tercio de las violaciones existe penetración vaginal usando las manos, los puños o los dedos. Se comprobó que su empleo era más probable en crímenes cometidos por nacionales (35’9%) que por extranjeros (25’3%).

En resumen, de las 70 variables se descubrió que once comportamientos discriminaban. Cuatro no superaron la regresión logística: la aproximación por confianza, la solicitud de actos sexuales, las disculpas y la destrucción de pruebas. Otros siete comportamientos tenían valor predictivo, cinco serían para el grupo de extranjeros: la nocturnidad, el besar a la víctima, el bloquear la entrada o salida, la violencia mínima y la posesión de un arma de fuego. Para los nacionales fueron predictivos la realización de actos sexuales y la penetración vaginal con la mano, puño o dedos.

 

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “The usefulness of past crime dates as an attractiveness index for residential burglars” de Hanayama, Haginoya, Kuraiski y Kobayashi; en el cual utilizan un modelo de elección discreta para comprobar los efectos del atractivo del vecindario en el proceso de selección de ubicación del crimen.

De sobra conocida es la importancia de entender cómo los delincuentes eligen sus objetivos y la ubicación de los mismo de cara a la investigación y a la prevención del crimen. Varias teorías se han encargado del tema: la teoría de la elección racional, la teoría de las actividades cotidianas y la teoría del patrón del crimen. También, hay estudios que sugieren que los datos de los delitos anteriores pueden servir para predecir la ubicación de crímenes futuros.

El atractivo de un vecindario como predictor de la actividad criminal se puede estimar a partir de los datos de delitos pasados, utilizando siempre el mismo tipo de delito, ya que esta característica puede variar de una tipología a otra. El modelo de elección discreta intenta explicar el resultado del comportamiento cuando un tomador de decisiones individuales debe elegir una alternativa única de un conjunto de alternativas distintas finitas.

Los principales aspectos que analiza el modelo de elección discreta en los robos residenciales son:

  • Lugar de residencia de ladrón: a mayor distancia en la residencia del ladrón menor posibilidad de robo. Esto se conoce como patrón de decaimiento en la distancia.
  • Número de unidades residenciales: un área con muchas unidades residenciales tiene más posibilidades de ser atractiva para el delincuente.
  • Viviendas unifamiliares: la presencia de un mayor número de viviendas unifamiliares hace más atractiva la zona ya que este tipo de construcción suele ser más accesible para el ladrón.
  • Heterogeneidad étnica y movilidad residencial: estos factores propician la ausencia de guardines capaces haciendo más atractiva la zona.
  • Valor inmobiliario de la residencia: algunos estudios han demostrado una correlación significativa entre el valor inmobiliario de la residencia y la posibilidad de ser elegido como objetivo criminal.
  • Distancia al centro de la ciudad: las áreas cercanas al centro corren más riesgo de robo ya que son más conocidas por todos, incluyendo los ladrones.

El objetivo del presente estudio es sumar los datos de delitos pasados para ver si pueden ayudar a determinar el índice de atractivo de una zona para esta actividad criminal. Se utilizó los robos resueltos cometidos en la ciudad en la ciudad de Sendai, localizada al norte de Tokio, entre los años 2007 y 2015 por un ladrón en solitario. En total se usaron 369 casos llevados a cabo por 70 ladrones. La proporción de robos cometidos en viviendas unifamiliares es de 42%. En cuanto a los aspectos antes mencionados se obtienen los datos del censo de Japón.

Los resultados apoyaron que la distancia de la residencia del agresor disminuye las posibilidades de selección como objetivo. Cuando la distancia aumenta un kilómetro solo se tiene un 0,70 de posibilidades de robo. El número de unidades residenciales tiene un efecto positivo en la posibilidad de que el ladrón elija esa zona. Cuando aumenta su número en 100 las posibilidades de ser el objetivo son de 1,05. Lo mismo ocurre con el tanto por ciento de viviendas unifamiliares, a un tanto por ciento más alto más posibilidades. Cuando aumenta un 10% aumenta en 1,06 veces la posibilidad de robo. Por el contrario, la proporción de extranjeros y la movilidad residencial se muestran indiferentes. También se ha descubierto que cuanto más robo ha habido en una zona mayores son las posibilidades de que vuelve a ocurrir. Cuando se aumenta en uno los robos ocurridos, aumenta la probabilidad en 1,16 veces.

La proximidad de la residencia del agresor fue la variable que más impacto tuvo en el proceso de selección de objetivos por parte de los ladrones de residencia. Después, la siguiente variable a la hora de elegir fue el número de residencias en la zona, seguido de la proporción de viviendas unifamiliares y para acabar el número de robos anteriores en la zona.

Estos resultados muestran que el número de casos de delitos pasados es una variable útil para determinar la atracción de un vecindario para los ladrones. También se puede decir que la precisión del perfil geográfico se incrementa si se incluye la tasa de robos residenciales en el pasado, además, de los otros índices de atractivo.

Los resultados del presente estudio están en línea con estudios anteriores y se puede afirmar que el patrón de decaimiento en la distancia es una guía sólida para los procesos de elección de la ubicación criminal. Esto es debido a que el delincuente reduce los costes del viaje y conoce mejor el área. Pero, hay que tener cuidado porque no sólo su residencia puede ser el punto de partida, se debe considerar también otros puntos de anclaje como sus residencias anteriores. Los resultados positivos en cuanto al mayor número de residencias pueden deberse a que de esa manera tienen más objetivos entre los que escoger y el tanto por ciento de viviendas unifamiliares debe de ser por las facilidades de accesibilidad que presentan. En cuanto a la tasa de extranjeros, quizás la no relevancia de esta variable se debe a la homogeneidad que presenta la población de Japón.

Aunque los resultados muestran la importancia de los robos pasados, el estudio tiene limitaciones. No se tuvo en cuenta otros posibles factores de elección como la infraestructura de las zonas, especialmente las carreteras. Además, hay que tener en consideración que ese realiza en la ciudad de Sendai en Japón y puede que las conclusiones no sean extrapolables a otros lugares ya que se ha sugerido en otros estudios que los factores que influyen en el crimen difieren según el país y la ciudad.

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Using baseline to diagnose internal state? Listen closely” de Leins; en él nos hablan de cómo se estable la línea base por parte de los entrevistadores en relación al comportamiento de los entrevistados.

El uso de la línea base puede ser un proceso válido para identificar los estados internos de los entrevistados si estos estados se corresponden de manera confiable con la conducta perceptible y los entrevistadores la perciben de manera fiable.

Este estudio tuvo dos fases, en la primera de ellas se desarrollan vídeos de estímulo para una observación posterior. Se entrevistaron a hombres adultos utilizando un estudio de protocolo. Los vídeos fueron desarrollados para provocar cambios en los estados internos. La segunda fase consistía en que los entrevistadores visionaran los videos e informaran sobre sus percepciones e interpretaran el comportamiento de los sujetos.

Como se ha dicho en la primera fase se pretendía grabar los vídeos que servirían para la segunda parte del experimento. Para ello se quería manipular los estados internos de las personas que estaban siendo entrevistadas y grabar los cambios de comportamiento que se produjeran y posteriormente solicitar que identificaran e interpretaran esos cambios de comportamiento. Para producir los cambios en el estado interno se creó un protocolo de entrevista que incluía temas que pueden provocar diferentes cogniciones y emociones. Para ello se realizó una encuesta en la que se preguntaba sobre como se sentiría contestando a preguntas relacionadas con su historial laboral, el estado de su relación, sus antecedentes penales, su educación, su afiliación política, su historial médico, su estado financiero, su consumo de drogas o alcohol o su opinión sobre temas políticos o sociales. Se comprobó que las preguntas sobre el estado financiero, sus antecedentes penales o sobre su consumo de drogas o alcohol presentaban mayor reticencia para responder que aquellas sobre su empleo, su educación o su opinión política. Gracias a esta clasificación se creó un protocolo de entrevista que incluía preguntas sobre temas generales e inocuos y otras sobre temas íntimo y más comprometidos.

Se reclutó a siete hombres de diferentes comunidades y culturas con edades entre los 20 y los 35 años del área metropolitana de Washington. Se les dijo que participarían en un experimento para mejorar las técnicas de entrevista.

Los entrevistados rellenaban primero un cuestionario previo a la entrevista. Después comenzaba la entrevista llevada a cabo por un agente especial retirado que tenía experiencia en entrevistas para autorizaciones del gobierno. Se empezaba con temas generales no amenazadores como la educación y su historial laboral. Para, a continuación, pasar a temas que fueran más amenazadores y produjeran cambios internos, como su historial médico, su salud mental o el uso de drogas o alcohol. La entrevista dura entre 45 – 60 minutos y fueron grabadas desde una vista frontal y otra de perfil. Al concluir la entrevista se revisaba el vídeo con cada entrevistado para que informara sobre sus sentimientos y emociones en cada momento.

Al final, para la siguiente fase, se utilizaron cuatro vídeos de 25 minutos de duración, de los cuales los ocho primeros minutos eran sobre temas inocuos, para a continuación pasar a los más incómodos. El promedio fue de once cambios del estado emocional y siete del estado cognitivo según los entrevistados.

En la segunda fase los vídeos fueron visionados por 18 entrevistadores profesionales con una edad media de 44 años siendo el 94% hombres y el 75% caucásicos, con trabajos en el ejército o en las fuerzas de seguridad federales. Todos ellos habían recibido capacitaciones sobre entrevista, habían realizado más de 50 a lo largo de su trayectoria profesional y contaban con más de cinco años de experiencia. Se les presentaban los vídeos grabados en un ordenador y se decidió aplicar la técnica de pensamiento en voz alta, grabándose todo lo que iban diciendo mientras visionaban las entrevistas. Posteriormente rellenaban un cuestionario sobre datos demográficos y la postvista. Se les dijo que debían ver los vídeos e informar de todo lo que percibieran que les ayudara a establecer y evaluar la línea base. Al final del vídeo debían calificar de fácil o difícil el establecer la línea base de cada entrevistado en una escala de Likert de cinco puntos. Cada entrevistador visionó dos vídeos. Las sesiones tenían una duración media de entre 75 y 90 minutos.

Se transcribió todo lo que dijeron sobre lo que habían usado para descubrir los estados internos y cuales habían sido estos. Las señales fueron codificadas en verbales, no verbales y otras. Después se calculó la tasa de aciertos y errores para cada vídeo. Las categorías de diagnóstico interno incluyen: emoción, cognición, veracidad y estrategia.

En todos los vídeos los participantes informaron de un total de 528 señales, las de tipo no verbal fueron las más identificadas. En general, los casos de señales reportados coincidían con el 27% de los estados internos destacados que identificaron los entrevistados. Se encontraron más aciertos durante el periodo de preguntas más incómodas que durante el de temas generales. Las señales verbales se revelaron como el tipo que más aciertos producía para descubrir el estado interno.

En cuanto a los estados internos encontrados que coincidían con la realidad, el 45% eran emocionales, el 33% eran cognitivos, el 14% eran relacionados con la veracidad y el 31% con los de estrategias.

Los entrevistadores informaron de varias pautas para establecer la línea base. Era de esperar que el tipo de señal más usada sea el comportamiento no verbal ya que es muy habitual que en los programas formativos para la realización de entrevista se hable de la importancia de fijarse en movimientos corporales, gestos, contacto visual, expresiones faciales, etc. A pesar de ello en este estudio se encontró que casi el 70% de las señales verbales identificadas como informativas parecían serlo realmente. Por tanto, también se encontró que los entrevistadores podían estar mejor preparados para prestar atención a lo que les dice los entrevistados de lo que se esperaba. La tasa de aciertos para los estados internos fue baja, un 27%, lo que sugiere que el uso de estados internos para establecer la línea base puede llevar a error, lo que implicaría no sólo perder oportunidades para establecer un buen rapport con el entrevistado sino también el que las entrevistas sean ineficaces.

La aplicación de procesos de referencia para diagnosticar los estados emocionales fue fructífera. Muchos diagnósticos eran relevantes y coincidían con los estados informados. La mayoría versaba sobre la comodidad frente a los temas a tratar. Muchos hicieron diagnósticos resaltando que la incomodidad no la veían como resultado de la culpa o de un sentimiento negativo sino de que hay temas que pueden ser difíciles de tratar según la cultura del sujeto. El uso de líneas base puede ser una adición práctica a los métodos para determinar cuándo profundizar en un tema y cuándo dejarlo.

Es cierto que en este estudio los estados cognitivos fueron menos detectados que los emocionales y habría que investigar en un futuro por esta línea ya que el estado cognitivo puede ayudar a la detección de mentiras.

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Shifting the focus variables to substantive domains when modeling homicide case outcomes” de Hawk y Dabney; en él nos hablan de la utilización de los dominios en la predicción de los resultados de la investigación de homicidios.

En el año 2016 en EE.UU. la tasa de resolución de homicidios era muy baja, un 59%, marcando un mínimo histórico. Se estima que 7.000 asesinatos se quedan sin resolver cada año. Lo que limita la perspectiva de mejora del índice de resolución de casos es la falta de comprensión de los factores que predicen si un caso se resolverá o no. Este estudio propone un modelo conceptual holístico y práctico para averiguarlo.

Se han detectado varios problemas, el acceso a los datos produce importantes problemas para la medición de procedimientos de investigación policial. Esto a su vez produce que al no trabajar con datos fiables las teorías que se realizan sobre la resolución de homicidios pueden no ser precisas. Otro problema es que los diferentes tipos de investigaciones sobre este tema no son extrapolables de un lugar a otro por diversas circunstancias. Todo ello genera que los resultados de las investigaciones científicas llevadas a cabo sobre la investigación de homicidios den unos resultados incongruentes e incluso contradictorios entre ellos.

Para ampliar y mejorar la investigación este estudio sistematiza las medidas de cinco dominios de investigación y analiza la importancia de cada posible modelo conceptual de agrupación para la posterior resolución. Estos cinco dominios son: sujetos involucrados, circunstancias del incidente, dinámica del caso, características ecológicas y factores del investigador.

Las medidas de los sujetos involucrados hacen referencia a las diferencias personales en víctima y autor y la forma en que su manifestación en el episodio violento puede generar pistas. Las circunstancias del incidente incluyen combinaciones en condiciones relacionales, temporales y físicas que pueden hacer cambiar la forma en que las personas interactúan, como puede ser la relación existente entre víctima y autor, el motivo, el tipo de arma o el día y la hora en la que se produce el crimen. La dinámica del caso hace referencia a los factores que la policía encuentra una vez se dan cuenta del asesinato, como pueden ser los tipos de evidencia que descubren, la ubicación de la escena del crimen o la presencia de policía en esa zona. Las características ecológicas, dentro de este dominio se incluye la cultura, la demografía de los residentes, la eficacia colectiva, las percepciones de la policía y la tasa de delincuencia. Dentro de las variables del investigador se considera la carga de trabajo, el esfuerzo, la experiencia y la técnica que usa.

Para comprobar esto se realizó un estudio en un área metropolitana de EE.UU. de casi medio millón de habitantes. En la década anterior (2000 – 2009) experimentó altos niveles de delincuencia, con 100 homicidios por año. En el momento en que se realizó el estudio la unidad del departamento de homicidios era la encargada de investigar todos los asesinatos reportados, las muertes bajo custodia, los secuestros, los tiroteos relacionados con la policía, los casos antiguos sin resolver y las muertes sospechosas. Para ello contaban con entre 15 y 20 investigadores, supervisados por entre cinco y siete sargentos, un teniente, un capitán y un comandante. Se permitió el acceso total a toda la documentación de todos los casos de homicidios acaecidos entre 2009 y 2011.

Los investigadores recopilaron datos de 252 archivos de homicidio en una plantilla estandarizada, posteriormente buscaron en la base de datos incidentes ocurridos en la misma localización del homicidio. También, se añadieron los antecedentes penales de todas las personas mencionadas en el caso. Además, se añadió información del censo. Posteriormente, se entrevistó al investigador principal de cada caso para que aportara detalles adicionales que se hubieran mencionado en los informes.

Se tuvo como variable dependiente la resolución del caso, considerándose como tales todos aquellos que hubiera finalizado con una detención. La tasa de resolución en esos años estaba en un 69%, siendo ligeramente superior a la media nacional de esa época (65- 67%). Como variables independientes se consideraron 16. En lo relacionado al dominio de sujetos involucrados se consideró el género de la víctima y del sospechoso, la edad de la víctima y el historial criminal del sospechoso. En lo relativo a las circunstancias del incidente se analizó la relación existente entre víctima y victimario, el motivo del crimen y la hora de comisión del mismo. En lo relacionado con la dinámica del caso se extrajeron datos de la presencia de testimonios, de armas y de evidencias tecnológicas y biológicas. También se analizó la frecuencia de la policía en el área y si el crimen había sido interior o exterior. En lo referente a las características ecológicas se analizó la población, el tanto por ciento de extranjeros y el de personas con un nivel educativo inferior a la educación secundaria. Por último, en lo relativo al investigador se recopiló información sobre el número de casos abiertos cada año, el número de casos que tiene asignados, la utilidad de los apoyos y de las revisiones de casos por parte de la unidad.

Los resultados obtenidos muestran que los casos donde la víctima tenía menos de 24 años tenían 3,5 veces más de posibilidades de ser resueltos que cuando la víctima era mayor. Esto puede ser así, porque se les da mayor prioridad a los casos donde la víctima era joven o porque las personas más pequeñas cuentan con la supervisión de los adultos y, por tanto, es más fácil obtener datos. Cuando el sospechoso tiene antecedentes penales hay 1,09 más de posibilidades de resolución. No se encontró una relación entre el sexo de víctima y autor y el índice de resolución de casos. Cuando había una relación entre víctima y autor las posibilidades de resolución aumentan un 6,89. Si el crimen estaba motivado por algún asunto relacionado con el submundo criminal las posibilidades de resolución se reducían un 0,38. Esto es así porque las personas involucradas daban información falsa a la policía o directamente no cooperaban con ella. En lo relativo a las evidencias aumentaban la resolución del caso 2,72 veces. De igual manera la mayor presencia de la policía en la zona hacía que las posibilidades creciesen 2,4. La localización interior del crimen aumenta en un 2,51. Cada vez que se aumentaba en una unidad la población se reducía por 0,99 las posibilidades de resolución, esto es así porque al haber más gente el delincuente se vuelve más anónimo y, por tanto, se dificulta su identificación. Sorprendentemente aumentaban en un 1,11 cuando había mayor presencia de extranjeros, se piensa que es así porque colaboraran más con la policía por el miedo a la deportación o alguna otra falta administrativa. Sin embargo, no se observó relación con el nivel educativo. Por cada caso abierto que tiene el investigador se reduce en 2,5 las posibilidades de resolución. Por el contrario, las revisiones del caso aumentan en un 1,80.

Se puede concluir que los casos que tendrían más posibilidades de resolverse serían aquellos que hubieran pasado en un escenario interior, donde la víctima es menor de 24 años, tiene relación personal con el autor. El victimario tenía antecedentes penales, pero no guardaba relación directa con el submundo criminal. Ocurría en una población pequeña con gran presencia policial y alto número de inmigrantes. La escena del crimen presentaba un gran número de evidencias. El investigador principal tenía pocos o ningún otro caso abierto y en su equipo se hacían revisiones periódicas del caso.

 

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Linking property crime using offender crime scene behavior: A comparision of methods” de Tokin, Lemeire, Santtila y Winter; en él hacen una comparativa entre la capacidad de siete modelos estadísticos para diferenciar delitos contra la propiedad vinculados de aquellos que no lo están.

El estudio compara siete modelos estadísticos diferentes que se derivan de los tres enfoques más comúnmente utilizados en la investigación conductual: el análisis de regresión logística binaria, el análisis de árbol de clasificación y el modelo probabilístico/bayesiano. Estos enfoques se aplican sobre tres conjuntos de datos: robos residenciales cometidos en Finlandia, robos de automóviles cometido en Reino Unido y robos comerciales cometidos en Finlandia. Este estudio contribuye a determinar cual es el método estadístico más apropiado para vincular los delitos a través del comportamiento del delincuente, siendo novedosa la aplicación estadística a la vinculación del comportamiento criminal.

Para llevarlo a cabo se utilizaron datos de 160 robos residenciales cometidos por 80 ladrones en serie en la región del Gran Helsinki de Finlandia entre 1990 y 2001. Se seleccionaron al azar dos delitos por delincuente del total de crímenes que hubieran cometido en ese periodo. Para cada robo se registraba: ubicación del delito, hora y día de la semana en que se cometió, tipo de propiedad robada, método de entrada, el comportamiento de búsqueda del delincuente una vez dentro y el valor de los objetos robados. Los datos utilizados para el robo de coches fueron los procedentes de 376 delitos de robo de vehículos cometidos por 188 ladrones en serie en Northamptonshire, en Reino Unido entre enero de 2004 y mayo de 2007. Se registró: ubicación del robo, el tipo de automóvil, los años del vehículo y el estado físico en el que se recuperó el coche. En lo referente a los robos comerciales se utilizaron 118 cometidos por 59 ladrones en serie en la región de Gran Helsinki en Finlandia entre 1991 y 2002. Se seleccionaba al azar dos delitos por delincuente. Se registró: ubicación, tipo de negocio, hora y día en que se produjo, el uso de disfraz, el uso de armas, el número de delincuentes, el uso de violencia, el idioma utilizado y el tipo y coste de la propiedad robada.

Después de recoger los datos se crearon una serie de dominio de comportamiento para cada tipo de crimen. Para el robo de residencias: características objetivo, comportamiento de entrada, comportamiento en el interior, propiedad robada, distancia entre delitos y proximidad temporal. Para el robo de vehículos: opciones de selección de objetivos, comportamiento de adquisición del objetivo, comportamiento de eliminación y distancia intercrímen. Para el robo comercial: opciones de selección de objetivos, conductas de planificación, conductas de control, propiedad robada, distancia entre delitos, proximidad temporal, diferencia de el valor de los artículos robados y conducta de aproximación.

A continuación, se crearon pares de delitos vinculados que contenían dos delitos cometidos por el mismo autor y parejas no vinculadas que contenían delitos cometidos por diferentes delincuentes. De los 160 delitos de robo residenciales se crearon 80 parejas vinculadas y 12.640 parejas sin vincular. De los 376 robos de automóviles, se crearon 188 parejas vinculadas y 70.312 sin vincular. De los 118 robos comerciales se crearon 59 parejas vinculadas y 6.844 sin vincular. Estos representaban todas las posibilidades. Para cada par de delitos se calculó la distancia entre los crímenes, un valor de proximidad temporal y/o un coeficiente de Jaccard, que indica la similitud o no del comportamiento. Estos fueron las variables predichas de los análisis subsiguientes.

Se utilizaron tres tipos de modelos estadísticos: los modelos de regresión logística, los modelos de árbol de clasificación y los modelos probabilísticos. En cuanto a los modelos de regresión logística se probaron los dos presentes en Weka: el SimpleLogistic y el Logistic. En lo referente a los modelos de árbol de clasificación se estudiaron los disponibles en Weka: el J48, el árbol de modelo logístico y el modelo de RandomForest. Para terminar, en los modelos probabilísticos se utilizaron: el BayesNet y el Naive Bayes. Todos estos análisis se utilizaron para generar un valor de probabilidad predicho para cada conjunto de datos de cada par de delitos, lo que indica la probabilidad pronosticada de que los dos delitos de cada par fueran cometidos por la misma persona. Posteriormente, se crearon curvas características (ROC) que permitieron comprobar la precisión con la que los distintos modelos estadísticos podrían distinguir entre pares de delitos vinculados y no vinculados.

Los modelos basados en la regresión fueron los más exitosos en los tres conjuntos de datos, con el algoritmo Logistic se obtuvo la puntuación más alta para el robo residencial y robo comercial y con el algoritmo SimpleLogistic para el robo de automóviles. Estos resultados pueden chocar con los obtenidos en estudios anteriores y es que hay que tener en cuenta multiples variables. Por tanto, se debe decir, que a día de hoy no hay un método estadístico superior a otro. La eficacia de cada uno variará en función de los datos que se posean para llevarlo a cabo. Además, los resultados de este estudio solo se basan en la precisión de la discriminación y hay otros muchos factores a tener en cuenta.

Este estudio ha sido pionero en el uso de dominios para ver el impacto en la precisión de la discriminación en comparación con la utilización de comportamientos individuales de delincuentes para hacer predicciones de vinculación. Los dominios obtuvieron una tendencia hacia una mayor precisión.

Tomando como ejemplo el robo de automóviles se obtuvo una alta puntuación lo que implica que tenían una posible vinculación mediante el algoritmo los crímenes, pero cuando se examinó el éxito que tuvo en hacerlo se encontraron dificultades considerables. La razón principal de esto es el problema de que cuando el número de pares de crímenes no vinculados supera ampliamente el número de pares vinculados un modelo estadístico tenderá a tener una probabilidad de vinculación muy baja para todos los pares de la muestra.

Se predice que los comportamientos impulsados por los delincuentes (fecha y lugar del crimen) están menos influenciados por la situación ofensiva y son más consistentes de un crimen a otro, lo que los hace más adecuados para la vinculación. También es posible que esto se deba a que esos datos sean registrados de una manera más objetiva en las bases de datos policiales que, por ejemplo, si el ladrón buscó de una manera ordenada o no. También obtuvo puntuaciones altas la interacción personal entre víctima y agresor, por ejemplo, las condutas de control son una característica útil para la vinculación de robos comerciales.

Una limitación muy importante de este estudio es que solo se utilizaron datos de crímenes resueltos, cuando en la práctica real no podrá ser así. Por ello, investigaciones futuras deberán buscar replicar estos resultados utilizando delitos resueltos y no resueltos, ya que una herramienta que apoye la toma de decisiones y ayude a vincular posibles crímenes cometidos por el mismo autor sería valiosísima en la investigación policial.

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Beliefs about Forensic Science: beliefs about error rate and human judgment” de Ribeiro, Targen y McKimmie; en él analizan las creencias que las personas tienen sobre la precisión de las pruebas forenses, así como el testimonio de los peritos durante el juicio.

La intención de este estudio es identificar las creencias y percepciones que las personas tienen sobre la ciencia forense y las evidencias. Concretamente se investigará sobre las tasas de error y el grado de juicio humano involucrado en ella, centrándose en cada técnica y etapa (recopilación, almacenamiento, prueba, análisis, informe y presentación de evidencias). Para ello se les pidió a los participantes que piensen y describen las ciencias forenses, que proporcionen una estimación del nivel de participación humana, que juzguen cómo de probable es que ocurra un error en cada etapa del proceso y que califiquen la precisión y el nivel de participación humana para 16 técnicas forenses diferentes.

Como hipótesis de partida se manejaban que la estimación de error para cada etapa sería baja (menos del 5%) y que el juicio humano involucrado en cada fase también sería bajo (valor medio de cuatro). También se espera que los espectadores de programas sobre crímenes tengan una correlación negativa con las estimaciones de error. Se cree que las estimaciones de precisión para cada técnica serían altas (más del 90%) y que las predicciones de juicio humano serían bajas en cada técnica. Se hipotetiza que los espectadores de programas de crímenes presentarían correlaciones positivas con las estimaciones de precisión de la técnica y correlaciones negativas con las estimaciones de juicio humano. Por último, se espera que los participantes no coinciden las tasas bajas previas que proporcionan sobre la probabilidad de que ocurra un error en cada etapa del proceso de ciencia forense. Es decir, el error acumulativo para toda la etapa del proceso de la ciencia forense es probable que sume más de 100.

Se utilizó una muestra de 101 australianos (52 mujeres y 45 hombres) con edades comprendidas entre los 20 y los 70 años con una edad media de 55 años. El 83,2% habían completado la educación obligatoria y el 15,8% había hecho de jurado previamente.

El estudio se realizaba electrónicamente desde su casa, se daban las siguientes instrucciones: “Durante este estudio, se le pedirá que imagine que se ha cometido un delito y que se ha dejado evidencia forense en la escena del crimen. Imagínese que la policía ha acusado a un sospechoso del delito y habrá un juicio penal ante un jurado. Queremos que piense en todo el proceso que involucra pruebas forenses, desde la primera vez que se asiste a una escena del crimen hasta cuando la evidencia se analiza hasta el momento en que se puesta ante el tribunal ante el jurado. Sea tan específico y detallado con sus respuestas con la sea posible”. Se les preguntaba por cada etapa del proceso, con pregunta del tipo: “¿Cómo se recopilan pruebas forenses de una escena del crimen? ¿Cómo se almacenan las evidencias forenses? ¿Cómo se analizan las evidencias? ¿Cómo se analizan e interpretan los resultados de las pruebas forenses? ¿Cómo se reportan las evidencias forenses? ¿Cómo se presenta la evidencia forense al jurado?” Las estimaciones de tasas de error se evaluaban con la pregunta ¿cómo de probable es que ocurra un error durante este proceso? A la que tenían que responder con un tanto por cierto. Las estimaciones del juicio humano se medían con la pregunta “¿en qué medida este proceso evalúa el juicio humano?” Las respuestas iban desde 1 (nada) al 7 (completamente). Las 16 técnicas analizadas fueron: análisis antropológico, análisis de patrones de manchas de sangre, ADN, documentoscopia, análisis facial, huellas dactilares, análisis de incendios y explosivos, análisis de marcas de arma y herramientas, análisis de material geológico, análisis de residuos de disparo, análisis de imágenes, análisis de materiales, análisis de toxicología, análisis de voz, análisis de vida silvestre y odontología forense. Se le hacía la pregunta “¿cuáles son sus impresiones generales sobre la exactitud de los diferentes tipos de pruebas forenses que se enumeran?” Tenían que evaluarlo con un tanto por cierto. También se realizó la pregunta de “¿en qué medida cada uno de los siguientes tipos de evidencia forense involucra el juicio humano?” En cada una de las técnicas se calificaba del 1 al 7.

Más tarde se les hizo dos preguntas sobre sus hábitos televisivos. Primero se preguntó cuántas horas a la semana pasaban viendo las siguientes series: CSI (incluyendo sus franquicias: Miami, Nueva York y Cyber), Ley y Orden (incluye: Acción Criminal, Unidad de Víctimas Especiales, Juicio por Jurado y LA), Mentes Criminales, Bones, NAVY: Investigación Criminal y otras series criminales. También se les preguntó cuantas horas a la semana veían algún programa de televisión u online.

El número promedio de horas fue de 16,78 horas, el rango de los programas criminales varió desde 0,74 en Bones a 1,46 en otros programas relacionados con los crímenes.

Los resultados contradijeron algunas de las hipótesis iniciales. Contrariamente a lo que se había pensado se obtuvieron tasas más altas en estimaciones de error variando desde un 39,27% en la etapa de prueba a un 44,55% en la de análisis. Las estimaciones de error son bastante más altas de lo que se habría esperado debido al efecto CSI por el cual las personas tienen una alta fe en la precisión y fiabilidad de las ciencias forenses. También fueron más altas las estimaciones de juicio humano que fueron desde el 4,94 en la etapa de prueba al 5,55 en la de recopilación y presentación, siendo, por tanto, superior a la hipotetizada antes del estudio. Se encontrarán correlaciones positivas entre las estimaciones de error y la del juicio humano en todas las etapas, lo que significa que mientras más creyera el participante que estaba involucrado el juicio humano, mayor era la probabilidad de que ocurriera un error.

Los resultados mostraron que no había correlaciones significativas entre los hábitos de visualización de series de crímenes y las estimaciones de error. Se descubrió que los hábitos de ver series solo se correlacionaban negativamente de manera significativa con la etapa de almacenamiento y la de prueba. Lo que contradicen la H2 y la teoría del efecto CSI.

En lo relacionado a la precisión y fiabilidad de las técnicas forenses, en general son bastante buenas. Varían de unas a otras, siendo de las más bajas el análisis de documentos que obtendría un 65,18% y la más alta sería el ADN con un 89,95%. Estos resultados contradicen la H3.

En relación a la influencia del juicio humano en cada proceso sólo se obtuvieron los resultados esperados para el análisis de ADN. Los demás estuvieron por encima de los cuatro puntos esperados, llegando a 5,72 en el caso de análisis de documentos. En lo relativo a las correlaciones de exactitud y juicio humano para cada prueba, solo cinco de las 16 (sangre, ADN, documentos, dactiloscopia e imagen) se correlacionaban de manera negativa, por lo tanto, para otras pruebas los participantes que creían que era más procesos, también creía que había menos juicio humano involucrado.

En lo relativo a la H4, no hubo una correlación significativa entre los hábitos de televisión y la precisión de las pruebas. Además, se encontró tres correlaciones positivas significativas entre la visualización del crimen y el juicio humano (ADN, dactiloscopia y toxicología) que no siguen la dirección esperada. Por tanto, estos resultados contradicen la hipótesis planteada.

La última hipótesis hace referencia a que la tasa de error general de todas las etapas superará el 100, aunque la tasa de cada técnica fuese baja. Curiosamente ya desde la segunda fase (almacenamiento) rondaba el 80% superando el 100% en la tercera (prueba), la tasa total fue del 248,56%. En contraste, la tasa de error por técnicas fuera del 10,05% del ADN al 34,82% del análisis de documentos. Estos resultados apoyan la hipótesis y demuestran que los participantes ignoraron completamente sus estimaciones previas sobre las tasas de error en cada etapa del proceso cuando se les pidió que hicieran juicios sobre la precisión de las técnicas específicas.

Como se ha visto los resultados fueron sorprendentes, ya que los participantes creían que había una probabilidad sustancial de error en cada fase del proceso forense. Una explicación a esto puede ser el sistema novedoso de preguntar por cada etapa en vez de por el conjunto lo que le hizo reflexionar más en profundidad. También pudo influirles que las respuestas se tuvieran que dar a través de una barra oscilante que veían predeterminada en el 50% y ya se ha demostrado que los anclajes condicionan. Igual de sorprendentes fueron las estimaciones tan altas relativas a la influencia de juicio humano en cada etapa, ya que generalmente esta ciencia está más relacionada con la tecnología que con la intervención humana.

Aunque se correlacionó positivamente las estimaciones de error con la de juicio humano (cuanto más creía que esta involucrado el juicio humano, creía que había más error) no se ha podido establecer una correlación consistente entre ambos fenómenos.

A pesar de que tampoco se obtuvieron los resultados, por encima del 90%, que se esperaba en la precisión de la prueba. Todos los participantes creyeron que todas las pruebas eran significativamente mejores que la casualidad. La más precisa fue el ADN (89,95%) aunque sigue siendo un resultado bastante menor del esperado.

Este estudio muestra muy poco apoyo al efecto CSI, el cual asume que aquellos que ven series relacionadas con crímenes tendrán diferentes creencias y percepciones sobre las ciencias forenses que aquellos que no los ven. Sin embargo, en este estudio no se encontrarán correlaciones entre la visualización de series y las estimaciones de error para ninguna etapa del proceso forense ni para ninguna de las técnicas.

Es importante tener en cuenta que, aunque los hábitos de consumo de series criminales no estaban relacionados con sus estimaciones de precisión, este estudio demuestra que las personas no tienen una comprensión sólida de la precisión de las técnicas forenses, siendo algunas exageradas y otras subestimadas. Esto demuestra que los jurados pueden llegar a un juicio con creencias preexistentes potencialmente inexactas sobre la ciencia forense que puede afectar a su evaluación de los informes y pruebas, así como al veredicto del mismo.

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “A cognitive approach to lie Detection: A meta-analysis” de Vrij, Fisher y Blank; en él hacen un metaanálisis sobre el enfoque cognitivo para la detención de mentiras. Se centra en tres técnicas: imponer una carga cognitiva, alentar a los entrevistadores a decir más y hacer preguntas inesperadas.

El enfoque cognitivo para la detección de las mentiras parte de la observación de que mentir es más agotador mentalmente que decir la verdad. Para llevar a cabo este análisis se tuvieron en cuenta los estudios que se centraban en detectar la mentira a través de la observación del comportamiento de alguien o escuchando el discurso de una persona cuando no hay de fondo otra información relevante.

Esta teoría se centra en que se pueden magnificar las diferencias en las señales (no)verbales indicativas de la carga cognitiva mostradas por las personas sinceras y los mentirosos a través de intervenciones sobre los principios cognitivos que hacen que la tarea de mentir sea aun más exigente cognitivamente. Las estrategias que pueden ayudar a la detección de mentiras serían. Imponer una carga cognitiva, alentar a los entrevistados a proporcionar más información y hacer preguntas inesperadas.

Imponer una carga cognitiva hace alusión a hacer que las entrevistas sean más difíciles mentalmente. Al mentir se gastan más recursos cognitivos, al aumentar la dificultad mental se reducen los recursos, si se sigue aumentando puede llegar el momento en que no sean capaces de hacer frente a las solicitudes que se les hagan y por tanto no poder mentir. Algunas de las tácticas que se usarían serían: contar sus historias en orden inverso, mantener el contacto visual con el entrevistador, hacer dos tareas simultáneamente (coger algo y hablar) o si hay varias personas contar su historia por turnos según vaya decidiendo el entrevistador.

Pedir más información, por un lado, sirve para contrastar detalles o encontrar nuevas pistas, y, por otro lado, a los mentirosos les podría resultar complicado añadir más detalles que a los sinceros. Además, los detalles que añaden pueden ser de menor calidad o ser menos creíbles. Hay cuatro estrategias que funcionan para forzar el añadir más detalles: el uso de otro investigador adicional, el dar una respuesta modelo (que tenga muchos detalles), el uso de dibujos y la aplicación de la entrevista cognitiva.

La última técnica mencionada, el hacer preguntas inesperadas, se basa en que los mentirosos se preparan previamente las respuestas en base a las preguntas que creen que les harán, ya que eso hace que mentir tenga una menor carga cognitiva. El hacer una pregunta inesperada les obligará a crear una respuesta en ese mismo momento y ahí presentarán mayores niveles de carga cognitiva mientras que los sinceros tendrán los mismos niveles para las respuestas esperadas como para las inesperadas.

Para comprobar su efectividad se calculó el tamaño del efecto reflejando la diferencia en las tareas de precisión obtenidas con los enfoques estándar y de detección cognitiva de la mentira. Y luego se integraron siguiendo la metodología metaanalítica estándar. Se realizaron los cálculos separando la precisión de detección de la verdad y de la mentira para posteriormente sacar también la precisión total. Se utilizaron de medición los odd ratio y la d de Cohen.

Para incluirse en el metaanálisis los estudios debían cumplir los siguientes criterios de inclusión: emplear alguna forma de manipulación de detección cognitiva de la mentira e informar de alguna medida de exactitud de detección de mentira. En total se obtuvieron 14 estudios experimentales que reunían esas condiciones.

Como resultados se encontró que el enfoque de detección de mentiras cognitivas era superior al enfoque estándar para las tres medidas de precisión de detección. Para la verdad fue de 67% frente al 57%, para la mentira fue de 67% frente al 47% y para el combinado fue de 71% frente al 56%. Este porcentaje de detección estándar del 56% se encuentra muy próximo a la tasa del 54% que se encuentra típicamente en la investigación del engaño (Bond y DePaulo, 2006), sin embargo, el enfoque cognitivo es bastante superior con un 71%.

Se analizó también si los juicios sobre la precisión eran realizados por humano o por algoritmos, y la efectividad de las técnicas cognitivas mencionadas anteriormente. Los resultados basados en los odd ratios y en la d de Cohen mostraron que la manera de tomar decisiones (humanos o algoritmos) no importaba mucho para la precisión final. Para la precisión de la verdad funcionaba mejor el enfoque cognitivo cuando está basado en criterios objetivos y mostró una escasa ventaja sobre el enfoque estándar para los observadores humanos. Lo contrario ocurría con la detección de la mentira, el enfoque cognitivo funcionaba mejor cuando los jueces eran humanos. Esto puede ser debido a que las personas presentamos un sesgo de verdad, tendemos a pensar que la persona objetivo está diciendo la verdad y por ello, para los humanos hay un mayor margen de mejora para aumentar la precisión de la mentira.

En lo que respecta a las técnicas empleadas no tuvieron un efecto moderador significativo en la precisión total. Para la detección de la verdad la técnica más efectiva fue alentar a los entrevistados a decir más, seguido de las preguntas inesperadas y, por último, imponer una carga cognitiva. Por el contrario, para la detección de la mentira la más eficaz fue imponer una carga, seguida de hacer preguntas inesperadas y, por último, alentar a decir más.

Estos resultados coinciden con la justificación teórica. Alentar a los entrevistados a decir más animaría particularmente a los que cuenta la verdad a hablar más. Debido a ello se obtienen mejores resultados con esa técnica cognitiva que con la estándar en la detección de la verdad. Además, se señaló que los mentirosos tendrían mayores problemas al hacer frente a una carga cognitiva, como se ha demostrado, lo que significa que también las técnicas cognitivas tienen mejores resultados que la técnica estándar para la detección de la mentira.

En resumen, los hallazgos metaanalíticos confirmaron la superioridad del enfoque de detección cognitiva de la mentira. Condujo a una mejor precisión de detección total (71% vs 56%), una mejor detección de la verdad (67% vs 57%) y de la mentira (67% vs 47%) que el enfoque estándar. Los humanos se beneficiarán más de la detección cognitiva de mentiras. Además, se demostró que cada técnica tiene una ventaja diferente, siendo más eficaz la carga cognitiva para detectar mentiras y el alentar a hablar para detectar la verdad.

En cuanto a la aplicación de estas técnicas se recomienda que sean basadas en un contexto de entrevista de recuperación ininterrumpida y no en el típico acusatorio de la policía, basado en el falso mito de que el sospechoso no quiere hablar. Además, se ha demostrado que el enfoque de recuperación ininterrumpida aumenta significativamente la probabilidad de una confesión verdadera y disminuye la probabilidad de confesiones falsas con respecto a la técnica acusatoria.

Auqnue es verdad que la técnica cognitiva mejora la detección, sus índices no superan el 70%, lo que hace que todavía tenga un gran margen de mejoría y que no sea útil en su aplicación en el uso clínico o para la detección masiva en los controles fronterizos, ya que en esos casos su tasa de error tendría que ser mucho más baja. Pero este es un problema que ninguna herramienta de evaluación actual ha conseguido resolver.

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “The combined effects of questioning technique and interviewer manner on false confessions” de Paton, Bain, Gozna, Gilchrist, Heim, Gardner, Cairns, McGranaghan y Fischer; en él que se realiza un examen empírico sobre como afecta de forma combinada tanto la técnica de interrogación como la actitud en la que la realiza en entrevistador sobre las confesiones falsas.

Primeramente, se realizó un estudio piloto donde se pretendía comprobar cuál era la influencia de las diferentes actitudes que mantenía el entrevistador. Para ello se utilizó una muestra de 104 estudiantes universitarios que se sometieron a una entrevista severa o amistosa y clasificaron el comportamiento de los entrevistadores con una escala de Likert de cinco puntos para evaluar el grado en que los entrevistadores mostraban 18 actitudes: nervioso, severo, amigable, comprensivo, asertivo, confiado, organizado, profesional, firme, respetuoso, positivo, formal, cálido, severo, organizado, efectivo, autoritario, competente y negativo. También se utilizó otra escala de Likert, en este caso, de once puntos para evaluar el grado en que los participantes experimentaron presión para confesar.

Para poder llevar a cabo las entrevistas cuatro estudiantes universitarios varones fueron entrenados por el investigador principal para realizar los interrogatorios después de una denuncia falsa de robo. Realizaron las entrevistas siguiendo un guion preparado.

Después se realizó el estudio principal, los participantes creían que era un experimento sobre los rasgos de personalidad y su relación con el desempeño en las tareas. Para poder llevarlo a cabo se utilizó una muestra de 120 miembros (53 hombres y 67 mujeres) de edades comprendidas entre los 16 y los 62 años, con una edad media de 28 años. Cada uno de los participantes era evaluado individualmente y tenían que contestar los dos cuestionarios del estudio piloto. Al acabar recibirían un cheque de regalo de diez libras. Los cheques estaban en la mesa que tenían enfrente. En un determinado momento del experimento el miembro del equipo que estaba con ellos abandonaba la sala dejando solos a los participantes. Al volver aseguraba que faltaba uno de los cheques y acusaba del “robo” a los participantes.

Pasados unos dos minutos entraba uno de los entrevistadores. Se presentaba como miembro del equipo de investigación e informaba al participante de que tenía que llevar a cabo unas preguntas sobre el asunto del cheque. Estas entrevistas se daban bajo dos condiciones, amistosa o severa. En la condición amistosa el entrevistador para establecer una buena relación y parecer cálido y amistoso se presentaba usando su nombre, mantenía contacto visual, sonreía y adoptaba una postura relajada. En la condición severa para parecer formal y abrupto usaba su nombre completo, no sonreía y adoptaba una postura severa y autoritaria. A continuación, en ambas condiciones, se le pedía al participante que contaran con sus propias palabras el suceso mientras tomaban notas. Después de esta fase de recuerdo libre el entrevistador realizaba una serie de preguntas prestablecidas en el guion, donde también tomaban nota de la respuesta. Además, de las dos condiciones había cuatro variantes de preguntas en cada una: minimización, preguntas repetitivas, preguntas guiadas y preguntas no guiadas. En la primera de ella se hacían afirmaciones del tipo “no te preocupes” o “estoy seguro de que no se dio cuenta de que esto era un tema importante”. En la segunda, se preguntaba hasta seis veces si había cogido el vale. En la tercera era del estilo “los cheques estaban claramente visibles en la mesa, por lo que hubiera sido fácil coger uno ¿no?”. En la última, se utilizó una aproximación propia del método PEACE.

Después de la fase de preguntas se hizo un resumen de todo lo que le habían contado y se les preguntaba si quería añadir algo más. Más tarde, tendían que firmar su declaración y un documento “aceptando la responsabilidad por el vale faltante”. Aquellos que no lo firmaron a la primera se les insistió dos veces más. Al acabar el interrogador abandonaba la sala y volvía el investigador que les informaba sobre las intenciones reales del experimento y se las pedía que completaran las dos escalas antes mencionadas.

Al realizar un análisis multivariado se encontró diferencias significativas en las calificaciones entre las condiciones del entrevistador severo y el amigable en cuatro de los 18 componentes analizados. Lo más severos fueron juzgados como más duros y severos. Los amistosos destacaron en simpatía y comprensión.

Ninguno de los participantes confesó falsamente durante la etapa del interrogatorio de la entrevista. Cada confesión falsa se obtuvo cuando se le pidió que firmará la confesión. En total se consiguieron 37 declaraciones falsas: 14 de ellas fueron a través de preguntas no dirigidas (9 amistosas y 5 severas), diez fueron con la minimización (7 amistosas y 3 severas), 9 fueron con preguntas guiadas (5 severas y 4 amistosas) y 4 con preguntas repetitivas (2 amistosas y 2 severas). Hay que destacar que el modelo repetitivo fue estadísticamente significativo, ya que con cada aumento unitario del mismo se asociaba con una disminución de la probabilidad de conseguir una confesión falsa.

La interacción entre la actitud del entrevistador y la técnica no fue significativa en relación a la presión para confesar. Aquellos que confesaron calificaron el interrogatorio con un grado de presión más alto que aquellos que no confesaron.

Este estudio es una primera aproximación a los efectos de combinar la actitud del entrevistador más la técnica usada. Casi un tercio de los participantes firmaron la confesión falsa y la mayoría confesaron inmediatamente cuando se les presentó la declaración. Lo hicieron a pesar de la falta de evidencia incriminatoria, en ausencia de presión externa y a pesar de no ser conscientes de las consecuencias de confesar.

En relación a las técnicas, contrariamente a lo que se esperaba, la condición de preguntas no guiadas fue la que obtuvo un mayor número de confesiones falsas. Esta técnica a pesar de no ser coercitiva puede ser manipuladora psicológicamente. Si los participantes se sintieron cómodos y creyeron que habían establecido confianza con el entrevistador, aumentaría la vulnerabilidad para cumplir con la solicitud de firmar la confesión falsa. Por el contrario, el cuestionamiento repetitivo fue el que menos confesiones falsas provocó. La inferencia de culpabilidad transmitida al preguntar repetidamente a los participantes si habían cogido un cheque pudo haber provocado una oposición, alentando a la negación contra el mismo. Si los participantes se sintieron ofendidos en vez de intimidados pudo ser lo que hizo que no confesasen. Por tanto, puede ser que las preguntas repetitivas tengan un efecto antagónico y reduzca el riesgo de confesiones falsas.

El que las actitudes del investigador no tuvieran un efecto significativo en las confesiones falsas pudo deberse a las manipulaciones experimentales. La naturaleza potencialmente estresante del experimento pudo hacer que los participantes tuvieran una percepción más negativa del entrevistador amigable y, además, varios de los comportamientos del cuestionario eran parecidos y difíciles de diferenciar.

También hay que destacar que en este experimento los entrevistadores severos obtuvieron menos confesiones falsas de lo que se esperaba. Esto puede explicarse porque al exponerse a alguien percibido como hostil y grosero provocaba sentimientos de molestia y de falta de respeto lo que redujo la posibilidad de cooperación y aumentó la resistencia a la confesión.

Curiosamente la actitud amistosa más la técnica de las preguntas no guiadas fue la que obtuvo puntuaciones más altas en cuanto a presión por confesar. Esto puede deberse a que la actitud informal y comprensiva del entrevistador combinada con la ausencia de preguntas coercitivas creaba una forma sutil de manipulación psicológica que provocó que los participantes experimentaran una alta presión por confesar y firmar así la declaración falsa.

Se recomienda, por tanto, una investigación futura más exhaustiva sobre los factores que hacen que se produzca una confesión falsa.

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “A Random object – oriented population study of household paints measured by infrared spectroscopy” de Falardeu, Moran y Muehlethaler; en él nos hablan sobre las características de las diferentes pinturas para el hogar que existen a través de un análisis con espectroscopia infrarroja.

Para realizar el estudio se escogieron 166 muestras de diferentes pinturas de uso doméstico de varias regiones de Quebec. Se extrajeron de una planta de residuos y eran restos de pinturas usadas en las casas de los habitantes de la zona. Esto hace que el estudio sea de población aleatorio, pero también hace que sea representativo en cuanto a la moda y las tendencias de color en ese ámbito. Las muestras se tomaron en portaobjetos que se dejaron secar 24 horas. De cada muestra se recogió información sobre la tienda, marca, modelo, número de lote y composición de la pintura.

Las mediciones de la espectroscopia infrarroja se realizaron con un Thermo Fisher Scientific Nico equipado con espectrómetro FTIR con un detector de sulfato de triglicina deuterado de recuperación rápida (DTGS) y el software OMNIC 8.1. De cada muestra de pintura se midieron siete réplicas independientes.

El primer paso fue la clasificación visual de los espectros a través de los picos principales de su composición química. Clasificándose, en primer lugar, por el tipo principal de resina, y posteriormente, por los subtipos de aditivos. El segundo paso fue la comparación de espectros dentro de cada categoría, viendo si son distinguibles. Los criterios usados para la diferenciación espectral fueron la apariencia general del espectro y la superposición existente entre los dos especímenes, así como la posición, presencia o ausencia e intensidad relativa de los picos. A parte de esta comparativa visual también se realizó una discriminación estadística según el análisis de los componentes principales en un proceso semiautomático.

Las pinturas analizadas se separaron primeramente según el color en: gris, blanco, azul/turquesa, verde/caqui, marrón/tostado, beige, naranja/amarillo, púrpura, negro, rosa/rojo y transparente. Dentro de cada color se podía diferenciar por tonos, pero se consideró más útil una diferenciación más genérica. Las proporciones obtenidas para cada color son: gris 23,49%, blanco 23,49%, azul 10,84%, verde 10,84%, marrón 6,63%, beige 5,42%, naranja 4,82%, morado 4,82%, negro 3,61%, rojo 3,61% y transparente 2,41%. Se compararon estos datos con otros dos estudios que se habían realizado previamente en EE.UU. y en Gales, con muestras mayores y los porcentajes por colores se correspondían mayoritariamente, a excepción del gris que en este caso era un 23,49% de la muestra mientras que en los otros dos estudios fueron el 7% y el 7,2%. El blanco también obtuvo resultados diversos siendo en este estudio bastante menor (23,49%) que, en los otros dos, donde consiguió porcentajes del 52% y el 25,8%. El verde también tuvo una presencia mayor en el estudio de Gales donde obtuvo un 25,8% frente al 10,84% de este estudio o al 10,21% del estudio de EE.UU.

La segunda clasificación de las muestras se realizó en función de la marca. En total fueron 28 marcas diferentes, siendo la más habitual Sico (41 muestras), seguida de Benjamin Moore y Rona con 22 muestras. Considerando solo la marca este estudio muestra una variedad del 89%, con 117 pinturas representadas por las seis marcas más comunes. Si, además, se tienen en consideración los modelos la variabilidad aumenta hasta alcanzar el 98%.

De las 166 muestras que se utilizaron, 47 aparecían una sola vez, 18 aparecieron dos veces y nueve veces apareció la misma pintura de Sico Evolution. Aunque hay que tener en cuenta que para esta clasificación solo se tuvo en cuenta la marca y modelo y no el color en sí mismo, ya que para el grupo de Sico había cinco grises, tres blancas y una verde. Esto se hizo así, porque el espectro infrarrojo generalmente es independiente del color de la muestra.

Por último, se realizó una clasificación en base al uso de la pintura, clasificándose en función del uso que especificaba la lata (interior, interior/exterior, exterior) y la división entre pintura, tinte, barniz u otro (como podía ser imprimación, sellador y esmalte). La mayor parte eran pintura para interiores (77,11%), seguidas de interior/exterior (14,46%) y por último la de exteriores (8,43%). Las proporciones más bajas fueron para los tintes con nueve muestras y los barnices con cuatro.

En cuanto a su composición química las muestras se separaron principalmente en dos grupos, el grupo con aglutinantes acrílicos (81,33%) y el grupo con aglutinante alquídico (18,67%). Después se dividieron según sus aditivos, los principales fueron: carbonato de calcio (CaCO3), silicato de aluminio (AlSi), silicato de magnesio (MgSi), estireno (Sty) y sulfato de bario (BaSu). Esta división se realizó con bibliotecas de espectros. El proceso permite una pronta identificación tanto de la resina principal como del resto de aditivos.

Más de tres cuartas partes de la muestra (135) son de acrílico a base de agua, ya que son una opción más económica para los productores, tiene una durabilidad superior y un uso respetuoso del medio ambiente. Los que tienen como base el aceite, como son los alquídicos, fueron muy populares en las décadas de los 80 y los 90 pero en la actualidad tienen una cuota de mercado muy pequeña. El carbonato de calcio y el silicato de aluminio son los dos aditivos más comunes, aunque esto puede deberse a su absorción en la polarización del compuesto más que a su abundancia cuantitativa en el recubrimiento de la pintura. El análisis mediante el espectro no detectó en la mayoría de los casos diferencias respecto a los componentes enunciados en la lata.

En relación a la comparación visual de los espectros no se tuvo en cuenta el color de la pintura, aunque es obvio que en la vida real sería una variable muy discriminante, se consideró que era mejor analizar los espectros de manera aislada. Esto se hizo así porque hay que tener en cuenta que a veces el pigmento mayoritario no es visible en los espectros de infrarrojos debido a que está completamente enmascarado por la señal del aglutinante y de los aditivos, mientras que puede haber otros pigmentos menores que muestren picos bien definidos e intensos.

Se obtuvo como resultado un 99,68% de discriminación mediante la comparativa de espectros. Siendo este resultado consistente con otros estudios que lo situaban entorno al 94% y el 99,82%. Cuando se consideró el infrarrojo dentro de una secuencia completa de análisis, el poder de discriminación aumentó al 99,99%. El grupo indiferenciado más grande pertenece a acrílicos con CaCO3.

Es interesante que de 43 pares de muestras que presentan espectros similares, nueve pares representan marcas diferentes. Estos pares demuestran una coincidencia aleatoria en las características de los espectros que es involuntaria. Es interesante para demostrar la probabilidad de observar la misma composición en dos pinturas que no están relacionadas.

El poder discriminante del color y la composición química combinada es del 97,79%. También se realizó un análisis con PCA y los niveles de discriminación estuvieron en un 99,94%. Puede parecer más efectivo pero ambas técnicas deberían ser complementarias ya que la PCA puede separar en exceso muestras que se hubieran considerado como indiferenciables.

Amigos del Club de Ciencias Forenses, esta semana presentamos el resumen del estudio “Development and Validation of a Brief Measure of Violent Thoughts: The Violent Ideations Scale (VIS)” de Murray, Eisner y Ribeaud; en él se estudia la creación de una escala que permite medir psicométricamente las ideas violentas que son un potente predictor de la violencia.

El tener ideas de violencia puede ser un indicador de riesgo de violencia, por ello se decidió crear una escala que midiera la presencia de estas ideas. Primeramente, para desarrollar las escalas, dos expertos crearon un conjunto inicial de ítems a partir de las teorías de la estructura de la violencia y sus factores comunes. La definición de violencia no es uniforme en la literatura preexistente, en algunos casos se considera los pensamientos de daño físicamente a otros, mientras que otros estudios consideran no solamente el daño físico a la persona sino también la agresión verbal o la destrucción de la propiedad. En lo que sí están de acuerdo es en que la violencia imaginada se sienta como real. Por tanto, para este estudio se decidió incluir una definición amplia donde tuviera cabida tanto el daño físico, como no físico pasado por la violencia sexual o el daño a uno mismo.

Posteriormente, del grupo de ítems se seleccionó un subgrupo que fue el que se administró a los participantes, elegidos en base a su claridad, contenido, validez nominal y con el objetivo de abarcar todas las áreas antes descritas.

Se pidió a los participantes que informaran de la frecuencia de los ítems durante el último mes. Se utilizó una escala tipo Likert de cinco puntos que iba del “nunca” al “muy a menudo”.

La prueba se realizó sobre una muestra de 1.276 jóvenes suizos de 17 años de edad (629 chicas y 647 chicos). Eran el resultado de un muestreo estratificado aleatorio de 56 escuelas en Zúrich, teniendo en cuenta la ubicación y tamaño de la escuela.

Se usó un análisis de la Características del Operador Receptor (ROC) para evaluar si el VIS podía servir para la identificación de personas violentas. Estas personas fueron definidas como aquellos que han portado armas, han extorsionado, robado o asaltado de acuerdo al autoinforme en los últimos doce meses. Este análisis se utiliza para descubrir el poder discriminatorio general de una escala o para definir el punto de corte óptimo en las clasificaciones de grupos que se realicen en base a esa escala. También se analizó la sensibilidad y la especificidad, la primera de ella se refiere a la proporción de individuos que están correctamente asignados a la clase violenta (verdaderos positivos). Mientras que a especificidad se refiere a la proporción de individuos catalogados en la clase no violenta (verdaderos negativos). El resultado puede variar del cinco (clasificación al azar) al uno (clasificación perfecta).

Los elementos analizados fueron: suicidio, homicidio, venganza violenta, lesión grave, golpear sin razón, matar insultando, humillar, desnudarse, matar, acoso, violencia sexual, responder agresivamente, golpear al ser provocado, infligir dolor, golpear por estar enfadado.  La mayor parte de las respuestas fueron “nunca”, menos una pequeña porción de “muy a menudo”.

Las soluciones factoriales sugirieron que tanto la ideación de agresión sexual como la ideación suicida podrían distinguirse de las ideas que implica agresión. Por tanto, se excluirá los análisis de las ideas suicidas o de la agresión sexuales. Sin embargo, no se encontró ningún indicio de que deberían separarse las ideas de agresión no física de las de agresión física.

Los elementos de carga más altos se refieren a infligir lesiones, mientras que los elementos de carga más bajos se refieren a la intimidación. Los ítems referidos al homicidio tienen cargas intermedias. El modelo se ajustó utilizando la estimación MC en Mplus 7.0, mostrando un ajuste razonable.

El VIS también se asoció significativamente con todas las construcciones incluidas. Las asociaciones más fuertes fueron con otras cogniciones relacionadas con la agresión y con el comportamiento agresivo en sí. Fue menos fuertemente relacionado con la victimización. En lo relativo al comportamiento agresivo, se relacionó aproximadamente igual con la agresión proactiva y la agresión reactiva.

Los resultados muestran los factores más altos en relación a la violencia física no letal, como infligir dolor o lesiones graves. Por el contrario, las ideas de violencia sexual como la violación o el desnudarse parecen no guardar relación con las ideas de violentas, teniendo que considerarse un fenómeno aparte, aunque los resultados en este punto son ambiguos. Las razones son: en primer lugar, se informó muy pocas veces de ideas relacionados con la violencia sexual y en segundo lugar las pruebas estadísticas de la dimensión no fueron unánimes. Por ello, las estructuras de la ofensa sexual no se consideran jerárquica, con influencias tanto generales como específicas, lo que conlleva ambigüedad sobre su inclusión con el resto de ideaciones violentas. Se recomienda un estudio más profundo con un mayor número de ítems relacionados con el tema ya que en esta versión del VIS sólo hay dos ítems.

En relación a las diferencias entre sexos, se obtuvieron algunas, los ítems 3 (venganza violenta), 5 (golpear sin razón) y el 7 (humillar) destacaron especialmente. Las diferencias eran pequeñas en términos prácticos y no introducirían sesos. La mayor diferencia fue presentada en la venganza violenta (ítems 3), siendo mayor en hombres que en mujeres, esto se relacionaría con lo que los estereotipos relacionan con la masculinidad.

La invarianza de sexos es importante ya que las diferencias de los comportamientos violentos es un problema importante: los hombres superan ampliamente a las mujeres como perpetradores de violencia. Mientras que los hombres son responsables del 80% de los homicidios apenas hay diferencias con las mujeres en las puntuaciones del estudio VIS.  Estas diferencias de sexo pueden ayudar a iluminar los mecanismos casuales en la violencia y ayudar en la prevención.

La distribución de la puntuación de la suma derivada del VIS estuvo sesgada hacia niveles bajos de ideación con el 40% de los encuestados que no reportaron ninguna. Esto puede indicar la existencia de una subpoblación de individuos que no tienen nunca o muy escasamente ideas de violencia. Aunque, también esta la posibilidad de que la escala no contará con ítems suficientemente “leves” para poder captar estas ideas menos violentas. Por lo cual, se recomienda realizar otras investigaciones que incluyan más ítems que los doce actuales y pueda comprobar si se trata de una carencia en las pruebas originales o que existe una parte de la población que no tiene ideas violentas. Estos ítem pueden estar relacionados con la afectación pasiva a unas personas, como el abuso verbal o psicológica. Además, habría que tener en cuenta la posibilidad de que el tiempo de la investigación (un mes) hubiese sido escaso y que un análisis más extenso en el tiempo pueda tener más incidencias.

Se realizó un análisis ROC para buscar el punto de corte que diferenciará entre aquellos que se involucraban en la violencia y aquellos que no. Este punto se estableció en el 15.5, que fue el que presentó mayor equilibrio entre sensibilidad y especificidad.

A pesar de tener una buena capacidad de discriminación, entre los que ejercen violencia y los que no la Escala de Ideas de Violencia no puede ser la única fuente para tomar decisiones de alto nivel. La recomendación es usarla como una herramienta más que brinde información sobre la estimación del riesgo en el uso de la violencia.

 

Club de Ciencias Forenses