24 Mars 2014  |  Notes de police scientifque
Publié dans Revue Internationale de CRIMINOLOGIE et de POLICE Technique et Scientifique 01/2014

Notes de police scientifique (1/2014)

par Olivier Delémont et Pierre Margot

Et leurs collaborateurs Simon Baechler, Andy Bécue,
Alex Biedermann, Mélanie Eudes, Durdica Hazard,
Tacha Hicks Champod, et Céline Weyermann
 

Analyse criminelle – visualisation


Cartographie des réseaux: l’art de représenter la complexité
Lima M.
Editions Eyrolles; Paris; 2013.

Mots-clés: réseaux, visualisation, schématisation, analyse criminelle, renseignement forensique

A l’heure où les réseaux criminels et le traitement de grands flux et jeux de données représentent des enjeux toujours plus prégnants pour les sciences criminelles et les organisations policières, l’ouvrage de Manuel Lima présente un vif intérêt dans la mesure où il aborde la visualisation de réseaux comme méthode scientifique d’analyse de grands volumes de données. Cet ouvrage, agréablement rédigé et parfaitement accessible au non spécialiste, traite de façon pointue la notion générale de réseaux ainsi que la question de leur représentation, de leur exploration et de leur compréhension. Le cadre théorique proposé et les idées avancées sont tout particulièrement pertinents pour l’analyse criminelle et le renseignement forensique ou criminel. Notamment, Manuel Lima énumère et détaille les cinq fonctions principales de la visualisation des réseaux (documenter, clarifier, révéler, étendre et imaginer) et il avance huit principes de visualisation, certains universels (tels que la primauté du questionnement ou la force de l’approche multi-variables), d’autres essentiellement applicables aux réseaux (tels que les formes de groupements ou la gestion de la complexité). Au chapitre 5, il propose également une typologie exhaustive des représentations de réseaux, au rang desquelles on compte par exemple l’implosion elliptique, le rhizome ou le graphique en flux. Des conseils sont prodigués pour augmenter l’efficacité de la visualisation et faciliter la reconnaissance de motifs au sein des réseaux, comme par exemple le fait de recourir à différents niveaux de vue et la possibilité de naviguer entre ceux-ci.
Si l’ouvrage propose une galerie extrêmement riche d’exemples de visualisations de réseaux (relations des protéines, citations scientifiques, donations politiques, réseaux sociaux, etc.), on peut regretter que les illustrations ne soient que peu commentées et que seules une petite minorité d’entre elles concerne des problématiques criminelles (réseaux terroristes). Il n’empêche que l’imbrication de la science des réseaux et de la science de la visualisation, auxquelles Manuel Lima apporte ici une contribution notable, avec les sciences criminelles est sans conteste amenée à se développer. Outre l’apport théorique de l’ouvrage, la qualité graphique et artistique des réseaux qu’il illustre est indéniable et déjà digne d’intérêt à elle seule.
(Simon Baechler)


Armes à feu – interprétation


The likelihood ratio approach in cartridge case and bullet comparison
Kerkhoff W., Stoel R. D., Mattijssen E. J. A. T. et Hermsen R.
AFTE Journal; 2013; vol.45; n° 3; pp. 284-289.

Mots-clés: armes à feu, munition, observations, résultats, interprétation, Bayes

Les experts hollandais du NFI (Netherlands Forensisch Instituut) prennent leur expérience comme point de référence pour expliquer la nécessité de changer de paradigme dans l’interprétation et la communication des résultats d’expertises dans le milieu de l’identification des éléments de munition. En présentant à la communauté des praticiens, spécialistes de ce domaine, les rudiments de la logique bayésienne fondée sur la détermination d’un rapport de vraisemblance (LR – Likelihood ratio), ils exposent les raisons qui les ont conduits à réfléchir en termes probabilistes et non plus déterministes. Pour les auteurs hollandais, l’approche déterministe, de par son apparente accessibilité, dessert plus les experts qu’elle ne les aide. Les conclusions sous le format «oui/non/non-conclusif» peuvent être utilisées abusivement, mal interprétées, voire conduire au délaissement de l’information fournie par ce type de traces dans certains cas. Ils préconisent donc un changement d’approche dans la prise en considération des niveaux d’incertitude. Les auteurs apportent leur témoignage pratique, et donnent des exemples d’avantages et inconvénients des différentes approches sous la forme des problèmes (le problème de la décision et de l’information, le problème de la proposition alternative invisible).
La vision probabiliste proposée vise essentiellement à orienter le décideur, le juge. De l’avis des experts hollandais, bien trop de laboratoires rendraient des conclusions trompeuses en fournissant une évaluation générale de la probabilité qu’un certain projectile ait été tiré par une arme donnée. Les auteurs insistent sur le fait que les experts devraient se limiter à s’exprimer sur ce qu’ils ont observé et se prononcer sur le degré d’association entre les éléments de munition indiciaires et l’arme suspectée sur la base de leurs observations, sans tenir compte d’autres facteurs liés au cas. Ils devraient apprécier ce degré d’association au travers de propositions explicatives, dont la première est habituellement proposée dans la mission d’expertise: le projectile a été tiré par l’arme suspectée. Bien souvent, aucune autre hypothèse, alternative à celle qui émane de la mission, n’est formalisée par les experts, ce que les auteurs qualifient de «invisible alternative problem». En contraignant la formulation d’une hypothèse alternative, l’approche bayésienne contribue à structurer la méthodologie de travail et permet d’évaluer la rareté des associations des traces entre les pièces indiciaires et de comparaison à travers des jeux d’hypothèses définies par les circonstances du cas.
Après avoir tenté de communiquer les résultats de leurs évaluations sous la forme d’avis d’experts, les auteurs indiquent avoir abandonné cette modalité pour la formulation d’un rapport présentant la probabilité d’observation de leurs résultats pour chacune des deux hypothèses considérées. Conscients de la difficulté de compréhension de cette formulation des résultats, les auteurs précisent que d’importants efforts de communication ont été consentis, sous la forme de compléments d’information ou de formations à l’intention des experts et des magistrats.
Dans un milieu historiquement enclin à des décisions déterministes, les auteurs de cet article ont pour volonté de sensibiliser les praticiens à la question de l’interprétation de leurs résultats et de leur présentation devant un tribunal en suivant une approche bayésienne. L’exercice est en soi plutôt bien mené et les auteurs posent un regard pragmatique et réaliste face à la difficulté de compréhension et d’application que cette approche peut engendrer. Si la voie n’est certes pas clarifiée quant à l’utilisation de données chiffrées dans le domaine des armes à feu, qui sont vues (peut-être à tort) comme l’apanage de l’objectivité, user d’une approche probabiliste selon la logique bayésienne permet de réfléchir au cas et aux hypothèses qui se présentent en considérant le points de vue de l’accusation et de la défense. En travaillant selon cette démarche, l’approche apparaît plus impartiale. Comme le disent si bien les auteurs: «Reporting a LR does not complicate matters, it just shows how complicated matters are».
(D. Hazard)



Cybercriminalité


Measuring the cost of cybercrime
Anderson R., Barton C., Böhme R., Clayton R., van Eeten M.J.G., Levi M., Moore T. et Savage S.
11th annual Workshop on the Economics of Information Security; 2012; Berlin.
[disponible sur http://weis2012.econinfosec.org/papers/Anderson_WEIS2012.pdf]

Mots-clés: cybercriminalité, coût, externalités, mesures, efficacité

Dans cet article, les auteurs évaluent les différents coûts associés à la cybercriminalité. Ils constatent ainsi que la cybercriminalité impose des coûts disproportionnés à la société et en évoquent les raisons économiques. Les auteurs distinguent trois types de coûts associés à cette forme de délinquance:
les coûts directs, qui correspondent aux pertes subies par la victime
les coûts indirects, soit l’impact sur la confiance et le frein au commerce en ligne qui en découle
les coûts de prévention consistant en coûts des produits et des services de sécurité (antivirus par exemple)
Sur la base de leurs estimations, les auteurs montrent que le revenu criminel, constitué par une partie des pertes subies par la victime, est beaucoup plus faible que les coûts indirects et de prévention engendrés par les crimes commis grâce à internet. Cet écart est particulièrement important dans le domaine de la fraude aux cartes de crédit où les coûts indirects dus aux transactions non réalisées par peur de la fraude (renoncement du client ou du marchand) sont très élevés. L’importance des coûts indirects et de prévention est discutée à la lumière de la théorie économique du problème principal-agent qui explicite la difficulté d’amener une partie (l’agent) à agir dans les intérêts d’une autre (le principal) plutôt que dans son propre intérêt. Ainsi, les auteurs montrent que les nombreux acteurs de la cybersécurité ont tendance à se renvoyer mutuellement la responsabilité plutôt que d’agir dans l’intérêt économique de la société. L’échelle géographique des problèmes de cybercriminalité et les facteurs politiques en jeu contribuent également à une mauvaise allocation des ressources.
Anderson et ses collègues soulignent que la cybercriminalité a de fortes externalités (effets externes de l’activité d’un agent économique sur un autre). L’idée est que ces effets induisent des coûts qui seront supportés soit par l’agent (externalité positive), soit par le tiers (externalité négative). Par exemple, les machines infectées d’un botnet induiront des externalités négatives conséquentes pour la société car les fournisseurs d’accès à internet reporteront les coûts du trafic utilisé par le botnet sur l’ensemble de leurs clients.
Les auteurs concluent qu’il est préférable, à l’échelle de la société, d’allouer plus de ressources dans le traitement de la cybercriminalité (recherche et condamnation des auteurs) plutôt que dans sa prévention (antivirus, pare-feu, etc). En effet, une telle mesure permettrait de déplacer une partie des coûts de la cybercriminalité sur les criminels.
(M. Eudes)



Interprétation


Case assessment and interpretation of expert evidence, guidance for judges, lawyers, forensic scientists and expert witnesses (Practitioner guide No 4)
Jackson G., Aitken C. et Roberts P.
Working Group on Statistics and the Law of the Royal Statistical Society; 2013.
[disponible sur http://www.maths.ed.ac.uk/~cgga/Guide-4-WEB.pdf]

Mots-clés: indice, résultat, anticipation, évaluation, interprétation, Bayes

Ce guide, rédigé par un groupe interdisciplinaire d’auteurs composé d’un forensicien (Graham Jackson), d’un statisticien (Colin Aitken) ainsi que d’un juriste (Paul Roberts), est destiné à l’usage des juges, avocats, forensiciens et experts. Il conclut une série de quatre volumes portant sur l’utilisation des statistiques et probabilités dans le système judiciaire. Le premier volet (Guide No 1), publié en Novembre 2010 (cf. notes de police scientifique dans le numéro de la RICPTS, 2011, volume LXIV), constituait une introduction générale au rôle des probabilités et statistiques. Par la suite, le Working Group on Statistics and the Law de la Royal Statistical Society a publié deux guides articulés autour de l’indice ADN (Guide No 2) et la logique du raisonnement sur la base d’indices forensiques (Guide No 3). Le dernier rapport, publié en octobre 2013, porte sur l’évaluation et l’interprétation de résultats forensiques (Guide No 4).
Le sujet principal abordé dans ce quatrième guide est connu dans le monde anglo-saxon sous le terme de «Case Assessment and Interpretation (CAI)». Cette notion désigne un cadre évaluatif et interprétatif développé vers la fin des années ’90 au sein du Forensic Science Service en réponse à de nouvelles exigences découlant de l’introduction d’un système de marché commercial des services forensiques en Angleterre et au Pays de Galles. Fondamentalement, cette démarche repose sur une réflexion précoce, avant la réalisation d’examens ou analyses, sur l’utilité des résultats potentiels. L’approche CAI propose donc un cadre structuré pour la prise de décision relative à des examens qui doivent ou non être entrepris; plus particulièrement, elle vise un triple objectif en aidant les forensiciens, les investigateurs et les juristes à mieux reconnaître et définir les besoins au sein d’un cas, à faire des choix rationnels sur les examens ou analyses à réaliser, et à attribuer une force probante aux résultats potentiels qui pourraient être obtenus.
D’une clarté remarquable, ce guide initie progressivement le lecteur au contexte et aux notions théoriques nécessaires à la bonne compréhension du sujet d’intérêt. Il présente de façon convaincante les raisons théoriques et pratiques qui justifient l’utilisation d’un cadre probabiliste. En adoptant une position allant du général au particulier, les auteurs explicitent la réduction de l’incertitude comme un objectif général du système judiciaire, la notion de hiérarchie des propositions, ainsi que les différences cruciales entre opinions investigatives et évaluatives. Les différentes étapes du processus CAI sont ensuite exposées en détail et illustrées au travers de plusieurs exemples. Il est particulièrement intéressant de noter qu’un des exemples, portant sur une cagoule laissée par l’auteur d’un brigandage, amène à la conclusion que la recherche et l’analyse de fibres textiles peut être préférable à l’exploitation de l’ADN. A une époque où l’ADN semble s’imposer comme trace incontournable, le scénario en question, et plus particulièrement les raisons relatives aux conclusions proposées, méritent donc d’être étudiés. Les dernières sections du document sont consacrées à un aide-mémoire ainsi qu’à une grille d’évaluation d’opinions d’expert. L’aide-mémoire résume avec précision les éléments essentiels des différentes étapes du processus CAI. La grille d’évaluation d’opinions d’expert couvre une série de questions visant à déterminer la nature et l’adéquation d’avis exprimés dans des rapports d’expertise.
Dans l’ensemble, ce quatrième guide concrétise l’apport d’une pratique axée sur le CAI et son impact sur la nature et les contenus de rapports d’expertise forensique. Il se profile ainsi comme une contribution fondamentale à la formation de l’expert forensique, mais se prête également à l’étude dans le cadre d’un audit des pratiques au niveau de l’ensemble d’un service forensique. L’expérience nous enseigne, qu’un facteur clé pour le succès d’une implantation systématique d’une pratique basée sur le modèle CAI repose sur des mesures de formation, soutenues par des choix et priorisations organisationnels. Ce présent guide s’inscrit dans cette perspective en contribuant à la compréhension et l’acceptation plus large de l’approche CAI. Il incitera sans doute les forensiciens à adopter et implanter, si ce n’est pas déjà fait, cette approche.
(A. Biedermann et T. Hicks Champod)



Traces de sang – datation


Hyperspectral imaging for the age estimation of blood stains at the crime scene
Edelman G., van Leeuwen T.G. et Aalders M.C.G.
Forensic Science International; 2012; vol. 223; n°1-3; pp. 72-77.

Mots-clés: sang, traces, âge, datation, imagerie hyperspectrale

Se basant sur deux recherches précédentes relatives à l’étude du vieillissement du sang par spectroscopie UV-visible, cet article propose l’utilisation de l’imagerie hyperspectrale pour estimer l’âge des traces de sang directement sur les lieux d’une investigation. L’approche proposée vise à suivre les quantités relatives d’oxyhémoglobine (HbO2), de methahémoglobine (MetHb) et d’hémichrome (HC) dans les traces sur une durée de 200 jours. Selon les auteurs, l’originalité de leur travail réside dans la possibilité de saisir l’image d’une scène de crime et d’estimer l’âge des traces identifiées comme étant du sang de manière entièrement automatique et rapide (il leur a tout de même fallu plusieurs heures pour analyser une scène factice!).
A la lecture de cet article, on se doit de déplorer, d’une part, le caractère très peu novateur de l’approche analytique proposée: ni la méthode, ni l’interprétation de l’âge des traces ne diffèrent de ce qui a précédemment été publié par ces mêmes auteurs. Les conclusions tirées par les auteurs paraissent pour le moins exagérées sur la base de leurs données: au-delà de 20-30 jours, toute tentative de datation n’a plus de sens car les rapports de composés considérés se stabilisent clairement. Il aurait été judicieux que les auteurs discutent cette limitation. De plus, bien que les auteurs mentionnent dans leur discussion l’influence des conditions environnementales sur leurs résultats, ils affirment que même lorsque ces conditions sont inconnues, il est possible d’estimer l’âge relatif de plusieurs traces (leur ordre d’apposition), à défaut de leur âge absolu (le moment précis où la trace a été déposée). Une telle affirmation paraît pour le moins exagérée car les auteurs occultent l’influence d’autres facteurs tels que l’épaisseur des traces de sang. Une trace «épaisse» vieillira généralement plus lentement qu’une trace plus «fine» même si elles sont soumises à des conditions environnementales identiques. Cela pose potentiellement des difficultés, non seulement pour déterminer l’âge absolu d’une trace, mais aussi pour estimer la séquence relative d’apposition de plusieurs traces. D’autre part, le contexte forensique semble avoir été mal intégré par les auteurs qui proposent un développement essentiellement technique, mais finalement très peu pratique. En effet, sonder une scène d’investigation dans son entièreté pour détecter des traces de sang, même de manière automatique, apparaît comme une perte de temps. L’apport de l’imagerie n’est clairement pas pertinent et il serait bien plus rapide d’effectuer une analyse ciblée sur les traces visibles afin de confirmer qu’il s’agit de traces de sang et d’estimer leur âge.
(C. Weyermann)



Traces digitales


Evaluation of fingermark detection sequences on paper substrates
Marriott C., Lee R., Wilkes Z., Comber B., Spindler X., Roux C. et Lennard C.
Forensic Science International; 2014; vol. 236; pp. 30-37.

Mots-clés: traces digitales, révélation, séquence, acides aminés, lipides, papier

Dans le contexte de la détection des traces papillaires sur surfaces poreuses, les réactifs aux acides aminés comptent parmi les techniques les plus efficaces. Les principaux réactifs de ce type sont l’1,2-indanedione/ZnCl2 (Ind/Zn), la ninhydrine (Nin), et le 1,8-diazafluoren-9-one (DFO). En 2007, l’optimisation de la formulation de l’Ind/Zn s’est traduite par un engouement généralisé, principalement en raison de la sensibilité largement supérieure de l’Ind/Zn en comparaison du DFO. S’il était commun d’observer des traces supplémentaires lorsque la ninhydrine était appliquée en séquence avec le DFO, les premières études ont montré que ce n’était pas forcément le cas après l’Ind/Zn. Depuis lors, un certain flou entoure la nécessité d’appliquer ou non la Nin en séquence avec l’Ind/Zn. Cet article étudie cette question en évaluant les deux séquences suivantes: 1) Ind/Zn – Nin – révélateur physique (PD) – Nile Red (NR), et 2) DFO – Nin – PD – NR. L’étude a été faite sur des traces déposées par des donneurs sur différentes surfaces poreuses, mais aussi sur des cahiers de notes usagés, vieux de 5 ans. Elle a été conduite en parallèle à Canberra et à Sydney.
De manière qualitative, l’Ind/Zn permet d’obtenir des traces de meilleure qualité que celles obtenues avec le DFO. D’un point de vue quantitatif, les auteurs ont constaté que l’Ind/Zn développe entre 34  % et 43  % de traces de plus que le DFO. La Nin a permis de développer environ 20 % de traces supplémentaires après l’Ind/Zn, et entre 29 % et 48 % après le DFO. En synthèse, cette étude démontre que la séquence commençant par une révélation à l’Ind/Zn surpasse celle qui débute par l’emploi du DFO. Le PD n’a permis la révélation que d’un nombre limité de traces, et il a réagi assez fortement avec trois types de papier, causant un bruit de fond gênant. Le NR, dans cette étude, n’a permis la détection d’aucune trace, ce que les auteurs expliquent par une possible dégradation ou dissolution des lipides (cibles du NR) lors de l’application des techniques précédentes dans la séquence.
D’un point de vue général, la méthodologie suivie dans cette étude est appropriée et elle permet de dresser un constat informatif à partir des résultats obtenus. Il est ainsi possible de révéler environ 20 % de traces supplémentaires par l’application de la ninhydrine en séquence après l’1,2-indanedione/zinc, ce qui motive les auteurs à recommander le maintien de la ninhydrine dans la séquence de détection de traces papillaires sur supports poreux. Une critique peut toutefois être adressée aux auteurs: ces derniers ont opté pour le Nile Red comme réactif de fin de séquence, alors même que l’emploi de ce dernier est actuellement très anecdotique en raison d’un manque d’efficacité, ce que tend d’ailleurs à confirmer l’absence de traces révélées dans cette étude. L’utilisation de l’Oil Red O (ORO), un colorant des lipides qui a fait l’objet de plusieurs publications et est régulièrement inséré dans des séquences opérationnelles, aurait certainement été plus judicieuse. L’efficacité d’une séquence Ind – Nin – ORO – PD ou Ind/Zn – Nin – PD – ORO, potentiellement plus prometteuse que celles qui ont été testées dans cette étude, aurait donc mérité d’être évaluée.
(A. Bécue)


Polymedia Meichtry SA | Chemin de la Caroline 26 | 1213 Petit-Lancy | Genève | T: +41 22 879 88 20 | F: +41 22 879 88 25 | info@polymedia.ch