Venenerkennung hacken
This is a modal window.
Das Video konnte nicht geladen werden, da entweder ein Server- oder Netzwerkfehler auftrat oder das Format nicht unterstützt wird.
Formale Metadaten
Titel |
| |
Untertitel |
| |
Serientitel | ||
Anzahl der Teile | 165 | |
Autor | ||
Lizenz | CC-Namensnennung 4.0 International: Sie dürfen das Werk bzw. den Inhalt zu jedem legalen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen. | |
Identifikatoren | 10.5446/39201 (DOI) | |
Herausgeber | ||
Erscheinungsjahr | ||
Sprache |
Inhaltliche Metadaten
Fachgebiet | ||
Genre | ||
Abstract |
| |
Schlagwörter |
35C3 Refreshing Memories100 / 165
2
5
6
7
8
9
10
11
12
13
15
16
17
22
26
29
30
31
33
37
38
39
40
44
45
48
49
53
54
55
57
59
60
62
65
66
69
70
72
73
74
77
80
82
83
84
85
86
87
89
92
94
100
104
105
106
107
108
111
113
114
115
116
117
119
121
122
123
124
127
132
133
136
139
141
143
144
145
146
148
149
150
154
155
156
157
158
159
160
161
162
163
164
165
00:00
Elegien, Git, Nr. 4BiometrieDiagramm
00:31
BiometrieVorlesung/Konferenz
01:35
Vorlesung/KonferenzBesprechung/Interview
02:18
Systems <München>BiometrieVorlesung/KonferenzComputeranimation
03:10
Elektronischer FingerabdruckVorlesung/Konferenz
03:46
Stochastischer ProzessComputeranimationBesprechung/Interview
04:32
HardwareSystems <München>
05:07
HardwareBesprechung/InterviewVorlesung/Konferenz
05:46
LASER <Mikrocomputer>Software
06:35
AlgorithmusSystems <München>Gauss <Rechenmaschine>Computeranimation
07:10
PositionEnde <Graphentheorie>PixelElektronischer FingerabdruckWendepunktComputeranimation
08:10
DatenverarbeitungssystemElektronischer FingerabdruckBesprechung/Interview
09:04
LaufzeitsystemVorlesung/Konferenz
09:43
KommunikationKommunikationComputeranimation
10:23
Systems <München>KommunikationSoftwareUSB <Schnittstelle>ZugriffComputeranimationBesprechung/Interview
11:17
Systems <München>Vorlesung/KonferenzBesprechung/Interview
12:13
ZoomPositionParametersystemAbstandEnergieZoomComputeranimation
12:55
USB <Schnittstelle>Vorlesung/Konferenz
13:26
ComputeranimationVorlesung/Konferenz
13:58
SoftwareBildverarbeitungEin-AusgabeComputeranimationVorlesung/KonferenzBesprechung/Interview
14:45
Gauß-FunktionPixelKanteSoftwaretestComputeranimation
15:25
SoftwareMeterParametersystemTintenstrahldruckerZeichnungComputeranimationVorlesung/Konferenz
16:53
Vorlesung/Konferenz
17:25
ACCESS <Programm>ComputeranimationVorlesung/Konferenz
17:58
ACCESS <Programm>ComputeranimationVorlesung/Konferenz
18:33
Supremum <Mathematik>Vorlesung/KonferenzComputeranimationBesprechung/Interview
19:36
Computeranimation
20:10
ZahlComputeranimation
21:16
Besprechung/InterviewComputeranimation
21:48
DampfComputeranimation
22:31
BewegungPAPComputeranimationVorlesung/Konferenz
23:12
BewegungAusdruck <Logik>Computeranimation
23:43
Ausdruck <Logik>PAPKryptoanalyseVorlesung/KonferenzComputeranimation
24:29
Vorlesung/KonferenzBesprechung/InterviewComputeranimation
25:03
Reelle ZahlVersion <Informatik>Systems <München>HardwareAuthentifikationSoftwareVorlesung/Konferenz
26:24
Interrupt <Informatik>SignalVorlesung/KonferenzBesprechung/Interview
26:56
InternetKurveStreaming <Kommunikationstechnik>SechsBesprechung/Interview
31:23
Systems <München>Vorlesung/Konferenz
34:26
Struktur <Mathematik>LinieSystems <München>DruckverlaufWEBVorlesung/Konferenz
36:29
KommunikationZoomPositionParametersystemInternetElektronischer FingerabdruckBiometrieAuthentifikationFaktorisierungVorlesung/Konferenz
39:02
Web logZeichnungVorlesung/Konferenz
39:32
Programm/Quellcode
Transkript: Deutsch(automatisch erzeugt)
00:18
Ich freue mich sehr euch hier willkommen zu heißen zum Talk Wenerkennung hacken mit
00:25
Starbucks und Julian. Das ganze Thema Biometrie begleitet den CCC jetzt schon eine ganze
00:43
Weile, größtenteils auch dank zu Starbucks. Vor Wenerkennung gab es ihres Erkennungen, die aufgemacht wurde dort mit einem Foto von unserer Kanzlerin. Davor Fingerabdrücke, auch damit haben wir es in die Medien geschafft. Der von Schäuble wurde vom Glas genommen,
01:04
der von von der Leyen von einem Foto bzw. mit der Kamera aufgenommen. Und naja, jetzt sind die Venen dran. Ich bin mal gespannt, wie das da funktioniert. Rund ums Biometrie gab es schon unzählige Talks und es gab auch viel Medienaufmerksamkeit. Also,
01:22
wenn man da mal so nachschaut, da ist schon einiges in den Zeitungen erschienen, auch in diversen und eine, wo ich weiß, dass Starbucks besonders stolz drauf ist, ist das Erscheinen seines Namens, namentliche Nennung in der Bildzeitung. Also,
01:42
es wird wirklich von allen Seiten Bericht erstattet. Aber Starbucks ist natürlich heute nicht alleine hier, denn er hat Julian dabei, einen Kollegen, der sich mit dem Thema Wenerkennung in seinem Rahmen seiner Bachelorarbeit beschäftigt hat. Und hier heute, ich würde sagen, eine der größten Bachelorarbeitverteidigungen damit fahren darf, die es wahrscheinlich so ungefähr gab. Und damit möchte ich auch gar nicht mehr
02:11
weiter ablenken, sondern euch den Talk genießen lassen, für den ihr alle da seid. Und damit noch mal einen großen Applaus für die beiden. Viel Spaß!
02:26
Vielen Dank, Carina. Und herzlich willkommen zum so langsam letzten Talk aus der Kategorie Biometriehacken. Die sind leider einfach keine Systeme mehr übrig geblieben. Diesmal geht es um die Wenerkennung. Das ist ein System, also die zwei Systeme, die wir heute vorstellen.
02:43
Die liegen bei mir jetzt schon ein paar Jahre auf dem Tisch, immer mal wieder was gemacht, irgendwie aber nicht wirklich weitergekommen, bis dann Julian kam und meinte irgendwie, hier findet Biometriehacken cool und irgendwie sucht ein Bachelorarbeitsthema. Und das war eine sehr produktive Zusammenarbeit und das ist immer cooler, wenn man das zusammen macht und sich antreiben kann. Wenerkennung allgemein ist ein relativ junges Verfahren, also erst so 20
03:06
Jahre alt, kommt hauptsächlich aus dem asiatischen Raum, also vor allem nicht aus Japan. Und auch die beiden Hersteller Fujitsu und Hitachi sind beides japanische Firmen. Hat sich bisher noch nicht so richtig jemand angeguckt, was die Überwindungssicherheit betrifft, was ein
03:22
bisschen eigenartig ist, weil es eigentlich ein sehr lohnendes Ziel ist, wie wir gleich sehen werden, wo das überall eingesetzt wird. Die Vermutung, warum das so ist, das ist eins der ganz wenigen biometrischen Merkmale, die versteckt im Körper sind und eigentlich nicht so einfach zu sehen, also anders als Fingerabdruck oder Gesicht zum
03:42
Beispiel. Ja, aber fangen wir erst mal an mit ein paar Grundlagen, die Merkmale. Die Blutgefäße entwickeln sich in der sechsten oder bis zur sechsten Schwangerschaftswoche. Die grobe Struktur, also halt der Verlauf der Arterie vom Herzen zur Lunge, vom Herzen in den Körper, die Aufspaltung in die Arterien und wieder die Vereinigung in die Venen,
04:03
ist genetisch bestimmt, aber die finale Ausprägung ist Zufallsprozessen unterworfen und zwar da überall, wo neues Gewebe entsteht und mit Sauerstoff und Nährstoffen versorgt werden muss, bilden sich halt die Venen oder die Blutgefäße aus. Und deswegen ist es halt irgendwie auch als biometrisches Merkmal verwendbar, weil es halt einfach zufällig ist
04:23
und halt tatsächlich auch sowohl an allen Fingern unterschiedlich aussieht, als auch bei einigen Zwillingen und so weiter. Wie funktioniert das prinzipiell von der Hardwareaufbau? Man hat eigentlich auch nur eine Kamera, wie halt jede normale
04:40
Kamera am Telefon oder Spielreflexkamera, wo ein Infrarotfilter weggenommen wurde, also das heißt, es deckt auch den nahen Infrarotbereich noch ab, bis zu 1100 Nanometer und die beiden Systeme arbeiten, glaube ich, beide mit 850 Nanometer und es funktioniert folgendermaßen, dass halt für die Handvenenerkennung hat man LEDs unten in diesem
05:06
Sensor drinnen, die leuchten die Hand an, werden dort im Gewebe gestreut und reflektiert und von den Venen absorbiert, also 850 Nanometer ist so eine Wellenlänge, wo venöses Blut besonders gut absorbiert, deswegen wirkt das Gewebe halt hell und
05:21
die Venenbilder sind dann dunkel. Wird halt, wie gesagt, reflektiert, unten ist eine ganz normale Kamera, die es aufnimmt und dann erscheinen die Venen halt als schwarze Linien. Also das war jetzt für die Handvenenerkennung. Die Fingervenenerkennung funktioniert ein bisschen anders, liegt daran, dass die Venen in den Fingern ein bisschen
05:40
tiefer liegen, das heißt, dieses reflektive Verfahren irgendwie da nicht so guten Kontrast liefert, deswegen wird da in der Regel von oben durchstrahlt, das heißt, man hat dann die LEDs oben drüber und die werden halt irgendwie auch wieder im Gewebe gestreut, deswegen selbst, also obwohl ein Knochen dazwischen ist, sieht man halt trotzdem die Venen noch, auch wieder wird absorbiert und unten ist eine ganz normale Kamera,
06:04
die dann halt das Bild aufnimmt. Es gibt auch noch neuere Methoden, die nicht mit LEDs arbeiten, sondern mit Lasern und so Mikrospiegeln. Kommen wir ganz zum Schluss nochmal drauf, das eignet sich besonders gut, um auch den Blutfluss zu detektieren, so als Lebenderkennungsmaßnahme, aber das sind halt auch nur so einzelne Systeme,
06:25
die beiden Systeme, die wir haben und die beiden Hersteller decken halt so 95 Prozent des Weltmarktes ab, haben ganz normal LED drinnen. Wie funktioniert das Software technisch? Also eigentlich alle Systeme benutzen das sogenannte Miura-Tricking. Es funktioniert
06:42
folgendermaßen wie hier oben zu sehen, also das ist halt immer so ein Venenbild, was dann die Kamera aufnimmt. Dieser Algorithmus sucht sich einen random point in diesem Bild und legt dann praktisch so eine Schnittkante durch und sucht nach Einbrüchen in der
07:00
Intensitätsverteilung und wenn er da so einen Gauss findet, dann nimmt er irgendwie an, dass das eine Vene ist, also weil die halt dunkler aussieht und von dort ausgehend sucht er sich dann den nächsten Pixel, also wie hier jetzt oben zu sehen ist, diese roten Striche, den nächsten dunklen Pixel und verfolgt sozusagen die Vene, macht das ein paar hundert oder ein paar tausendmal, gibt dann irgendwann eine Abbruchbedingung,
07:21
wo er gesagt, ok ich habe jetzt genug random Punkte genommen und wir gehen davon aus, dass jetzt alle Vene erfasst sind. Was dann passiert ist im Post-Processing die sogenannte Skeletonisierung, das heißt er nimmt sich die Vene, also die sind jetzt relativ breit und reduziert die auf eine Pixelbreite, wirft dann halt so diese ganze Rauschen raus und im
07:44
Endeffekt bleibt das Bild übrig, wie es hier unten zu sehen ist und als Merkmale selber, ähnlich wie bei Fingerabdrücken auch, hat man so Minuzienpunkte, das sind halt entweder Enden oder Aufspaltung dieser Vene und da wird dann halt zur Überprüfung oder zur
08:01
Identifizierung die Position und der Öffnung oder der Winkel, in denen diese Abspaltung oder das Ende irgendwie weiter läuft genommen. Wo es übereingesetzt wird, habe ich am Anfang schon so ein bisschen angedeutet, dass das eigentlich ein sehr lohnendes Ziel ist, hauptsächlich im asiatischen Raum, dort viel in Computern
08:24
irgendwie auch schon verbaut, aber auch als Zugangssystem in Krankenhäusern, hauptsächlich weil es halt berührungslos arbeitet, bietet sich halt irgendwie an, aber auch vermehrt in Geldautomaten, also in Japan, wir waren irgendwie jetzt im November in Japan gewesen und da ist tatsächlich jeder Geldautomat, den man hat, irgendwie ist mit
08:44
entweder Fingerabdruck oder, also entweder Fingervene oder Handvene, Sensor ausgestattet, aber auch Brasilien, Russland, Türkei und Polen, also irgendwie dann doch relativ nah, haben inzwischen Filialen eröffnet, wo man halt irgendwie mit Wienerkennung Geld abheben kann,
09:02
von daher da ist durchaus Potenzial, aber der eigentlich größte Markt bzw. der interessanteste Markt sind die Hochsicherheitsbereiche, also sowas wie Kraftwerke, Kernkraftwerke in Banken für die Tresure unten oder für die Einzelvereinzelungsanlagen, aber auch ganz
09:21
wie beim Militär und in Deutschland lustigerweise beim BND. Also wer noch ein paar Wasserhähne braucht, könnte nach dem Talk ja mal vorbeischauen. Also wir gingen davon aus, dass in Deutschland relativ wenig benutzt wird, haben da mal ein bisschen irgendwie rumgesucht und wir haben gefunden, dass das neue Gebäude in Berlin irgendwie
09:41
das tatsächlich verbaut hat. Wir haben eine Anfrage bzw. ein Reporter, mit dem wir schon vorher zusammengearbeitet haben, hat eine Anfrage gestellt, aber wie nicht anders zu warten, haben Sie keinen Kommentar abgegeben dazu. So, kommen wir zur Technik. Erst mal noch ein bisschen allgemein. Wie funktioniert das mit dem biometrischen System? Wie hackt man die? Es ist normalerweise ein zweigeteilter Prozess. Im ersten Schritt nimmt man die
10:05
Merkmale auf. Das kann man entweder dadurch machen, dass man die Kommunikation snifft oder aus Sandblad-Daten generiert oder einfach ein Foto macht. Und im zweiten Schritt wird halt die Attrappe hergestellt. Da muss man halt nur die passenden Materialien finden und das Merkmal kopieren und eventuell die Lebenderkennung noch angucken. Merkmalsbeschaffung
10:25
durch den sniff, das war relativ interessant, dass beide Systeme die Kommunikation verschlüsselt, übertragen über den USB-Kanal. Aber irgendwo in der Software liegt natürlich das Bild dann doch unverschlüsselt vor. Das heißt, dann findet man einfach jemanden, der sich
10:42
gut mit Ida auskennt, der setzt da irgendwie an der passenden Stelle einen Hook und dann die Bildtaten ausgeleitet. Es ist natürlich total praktisch. Also unser Startpunkt, man hat vielleicht irgendwie Bilder, man sieht genau, was der Sensor, also das System sieht, kann im Zweifelsfall auch gucken, das sieht jetzt nicht so ganz wie Haut oder wie menschliches Gewebe oder wie Venen aus. Muss man da ein bisschen anpassen,
11:02
vielleicht irgendwie anderes Papier nehmen oder so weiter. Aber man könnte natürlich diese Bilder auch direkt nehmen, um halt eine Attrappe zu bauen. Ist halt ein bisschen unrealistisch als anderes Szenario, weil man halt erstmal Zugriff zu dem System selber haben muss. Von daher, so der reale Angriff ist tatsächlich mit einer ganz
11:21
normalen Kamera. Und das fanden wir auch ein bisschen erschreckend. Also man kann tatsächlich Venenbilder mit einer Spiegelreflexkamera aufnehmen. Das Einzige, was man machen muss dafür, ist, dass man den Infrarotfilter ausbaut. Also halt ähnlich wie die Systeme selber, normaler Siliziumchip, aber ohne Infrarotfilter. Man baut irgendwie diesen Filter aus und dann macht man
11:42
ein paar Bilder. Das klingt jetzt alles irgendwie einfach, hat uns aber schon so ein bisschen Zeit gekostet, weil man halt, also wir haben halt verschiedenste Kameras genommen, die, also Graustufenkamera mit unterschiedlichsten Auflösungen, diverse Objektive, so wie weit kann man weg sein, wann reicht die Auflösung noch aus. Kameraeinstellungen wie Aperture und
12:05
Lichtungszeit, Filter davor gesetzt, kein Filter davor gesetzt, verschiedenste Lichtquellen mit Blitz oder mit Infrarot-Taschenlampe haben im Endeffekt über zweieinhalbtausend Bilder gemacht, aber die Ergebnisse sind glaube ich, so sprechen für sich. Das sind die Bilder aus der
12:23
Spiegelreflexkamera, einmal für die Fingervenenerkennung mit dem Blitzlicht hinter den Fingern sozusagen, also die Hand oder die Finger waren halt zwischen der Lichtquelle und der Kamera und auf der rechten Seite für die Handvenenerkennung und da war halt das Blitzlicht halt direkt von
12:42
vorne einfach rauf geblitzt und aus einem Abstand von ungefähr fünf bis sechs Metern, gar kein Problem. Vom Zoom her könnte man noch viel weiter weggehen, irgendwann hört der Blitz halt irgendwie auf, noch sinnvoll Energie zu liefern. Hier, und damit übergebe ich. Genau, dann übernehme ich mal.
13:03
Nachdem das so gut funktioniert hatte mit der digitalen Spiegelreflex haben wir uns überlegt, wir müssen das irgendwie nochmal machen, diesmal ein bisschen heimlicher oder versteckter und da haben wir uns einfach ein Raspberry Pi Kameramodul besorgt mit Infrarot-LEDs und einer Infrarot-Kamera drauf und haben uns mal so Rote angeguckt, wo man die verstecken könnte und diese Händetrockner sind halt einfach perfekt.
13:23
Man muss irgendwie die Hände auseinandernehmen, schiebt die da langsam hoch und runter. Weiß nicht, hat jemand seine Hände hier schon getrocknet auf dem Kongress? Das sieht dann so aus, also wir haben es leider nicht mehr geschafft, dass
13:41
wir einzubauen, aber wir haben versucht, das möglichst realitätsnah nachzubasteln und das sind eben die Bilder aus der Raspberry-Kamera, auch einfach nur mit diesen LEDs, die da verbaut sind. Außer bei den Fingern, da mussten wir wieder, wir haben so einen kleinen Infrarot-Scheinwerfer, den haben wir dann von der anderen Seite durchstrahlen lassen, aber ich denke, man sieht das auch ganz gut, also gerade bei den
14:02
Handwehen, das geht kaum besser. Also die Herstellergeräte haben Bilder, die nicht so gut aussehen. Wir haben dann im nächsten Schritt uns gedacht, okay, jetzt haben wir gute Aufnahmen, haben zwei Methoden, wir müssen irgendeine Art von Software haben, um das da rauszurechnen, also wir brauchen irgendwie unsere blanken Wähnenmuster. Da haben wir einfach ein kleines Python-Script geschrieben, das
14:22
macht im Prinzip auch total simple Bildbearbeitung. Das haben wir versucht, hier mal so ein bisschen darzustellen. Im Prinzip kriegt das als Input einfach nur unser Bild und wir erhöhen den Kontrast ein bisschen. Dazu teilen wir das Bild in ganz viele kleine Kacheln und erhöhen den Kontrast in all diesen kleinen Kacheln und im Endeffekt
14:43
kommt dann ziemlich homogenes Bild bei raus. Im nächsten Schritt binarisieren wir das Ganze, das heißt, es gibt so eine Art Spellenwert. Alles, was dunkel genug ist, wird eben den schwarzen Pixel zugeordnet, alles, was zu hell ist, wird dann weiß an dem Bild, das wäre dann oben rechts. Da ist aber immer noch total viel Rauschen und halt irgendwie die
15:00
Schatten auch von der Originalaufnahme, die filtern wir einfach mit ein bisschen Gauss-Funktion raus. Dann haben wir das Ganze noch so leicht ausgewaschen, weil sich einfach in unseren Tests gezeigt hat, dass es irgendwie besser ist, wenn da keine harten Kanten existieren. Und weil durch diese ganze Bearbeitung das Ganze so ein bisschen dicker geworden ist, müssen wir in dem letzten Schritt das noch wieder zusammenschrumpfen. Aber das Bild
15:21
ganz unten rechts ist dann auch das, was wir für die Attrappen verwenden. Das mal zum Vergleich. Also das ist ein Bild mit der Spiegelreflex aus fünf Metern Entfernung mit einem externen Blitz und das rechts ist das, was die Software da rausschmeißt. Das gleiche nochmal für die Fingervene. Das ist im Prinzip genau dasselbe. Da muss man halt bloß ein bisschen die Parameter
15:41
anpassen, weil das Licht eben von der anderen Seite kommt und die Bilder an sich ein bisschen anders aussehen. Funktioniert aber eigentlich genauso. Und dann war halt der nächste Schritt. Also jetzt hatten wir unsere Aufnahmemethode. Wir hatten unsere ausgedruckten Venenmuster. Es ging es darum, Attrappen zu bauen. Und da haben wir erst mal ganz simpel
16:00
angefangen, das einfach auszudrucken und mal über diese Geräte zu halten. Dann ist es so, dass man, also wir haben es mit einem Tintenstrahldrucker probiert. Man sieht nichts. Das ist, als würde man ein weißes Blatt da drüber halten. Und irgendwann haben wir durch Zufall gesehen, dass Lasertonatinte unter Infrarotlicht einfach extrem gut zu sehen ist. Also quasi sehr deutliche Linien. Das war dann unser Ausgangspunkt. Und dann haben
16:23
wir uns an die Materialsuche gemacht, haben irgendwie, also wir haben erst angefangen, irgendwie Papierlagen zu stapeln, weil das Hauptproblem war eigentlich die ganze Zeit, dass die Aufnahmen immer zu hell sind. Also es war permanent überstrahlt. Die Infrarot-LEDs waren einfach zu hell. Und uns war irgendwie klar, wir müssen das irgendwie dämpfen. Wir haben Latex-Handschuhe verwindet.
16:41
Wir haben irgendwie uns Hände gegossen aus allen möglichen. Und sind dann irgendwann auch mehr oder weniger durch einen Zufall darauf gekommen, dass Wachs, also Kerzenwachs oder noch genauer Bienenwachs, eigentlich so aussieht wie menschliches Gewebe unter Infrarotlicht. Und haben uns dann so eine Gießform gebaut aus Silikon und haben das einfach mal mit Bienenwachs gefüllt. Da drauf kommt dann einfach ein
17:00
Ausdruck mit Lasertonattinte von den Venen und obendrauf wieder eine dünne Schicht hellrotes Bienenwachs. Und das funktioniert. Ja, also man kann, wenn man diese Attrappe dem Scanner präsentiert, wird das einwandfrei erkannt. Und da haben wir euch jetzt eine kleine Live-Demo vorbereitet, die hoffentlich jetzt funktioniert.
17:22
Da ist Vinus natürlich schlafen gegangen. Ja, aber es geht schnell.
17:44
Genau, also im Prinzip ist das so, man vergibt hier eine ID vierstellig. Meine rechte Hand wäre irgendwie viermal die Null. Das war so klar. Okay, wir müssen den USB-Stecker doch auch reinstecken. Nee, Moment, das war das Vinus schlafen.
18:04
Live-Demo, das ist wieder mal typisch. Nein, nein, nein, nein, nein. Vinus, Vinus.
18:22
So, jetzt aber. Das war jetzt meine rechte Hand. Jetzt kommt das gleiche hier nochmal in Wachsform.
18:52
Das geht schon nochmal. Vorführeffekt. Das ist halt der Scheinwerfer.
19:03
Echt? Nein, nein, nein. Toll. Ah, genau, mach mal ein bisschen dunkler. Ja, super. Danke auch.
19:20
Sonst haben wir auch noch ein Video dafür, aber das ist ganz schön wackelig. Also wir haben es gerade oben irgendwie echt oft probiert und dann irgendwie hat es
19:40
funktioniert. Ja. Nein, nein, nein, nein. Ja, ich würde sagen, dann. Ja, dann machen wir weiter mit Finger wehen.
20:01
Nee, nee, nee, nee, nee. Wir machen erst mal was. Also, dass ihr uns das natürlich wirklich glaubt irgendwie. Wir haben hier dieses Video. Ist wie gesagt ein bisschen wackelig und irgendwie nicht so schön zu sehen. Aber hier nochmal, da ist die Hand, da drunter ist der Sensor. Jetzt seht ihr gleich da unten irgendwo die Zahl wieder, die vierfach sieben
20:20
ist es in dem Fall. Und jetzt kommt der, die Attrappe und da ist wieder viermal die sieben. Also wir versuchen es am Ende nochmal. Das sollten wir auf jeden Fall noch hinbekommen.
20:45
Wie viel Zeit haben wir noch? Wir lassen das mal einmal probieren. Wir machen es mal unterm Tisch. No magic.
21:15
Es ist tatsächlich so, also wahrscheinlich die Scheinwerfer, wenn da genug Infrarotlicht rauskommt, dann reicht das schon aus, um das zu
21:21
verfälschen. Nächster Punkt war Fingerwehne. Und hier auch das Gleiche. Also erst mal mein eigener Finger, um zu zeigen, wie das ja auch wirklich eingelernt ist. Da ist jetzt Starbuck Zeigefinger. Rechts soll das heißen.
21:42
Und jetzt bitte beim ersten Mal. Ach so. Es geht noch weiter. Das ist jetzt nochmal
22:01
eigentlich die gleiche Gießform für die Fingerattrappen. Gleiches Prinzip. Wir haben irgendwie aus so naturfarbenem Bienenwachs so eine Basisplatte gegossen, dann kommt der Ausdruck drauf, damit das Ganze mit hellrotem Wachs nochmal eingepackt. Funktioniert eigentlich super. Mit dem einzigen Unterschied, dass bei der Fingerwehne haben wir den Ausdruck gespiegelt und das Papier verkehrt herum raufgelegt,
22:21
einfach weil das Licht von oben kommt und diese LEDs in dem Fingerwehnscanner so viel heller sind als die bei der Hand. Wir nutzen einfach die Schicht von dem Papier noch als Dämpfer. Genau. Auch schon einer meiner letzten Punkte ist hier. Wir haben uns eigentlich die ganze Zeit während der Arbeit so ein bisschen gefragt. Was ist mit Lebenderkennung?
22:40
Ja, weil wir haben, man konnte Karotten einlernen, Kerzen einlernen und also auch gerade die Handwehenhersteller, also die Handwehnscanner-Hersteller werben sogar damit, dass sie Lebenderkennung machen, was offensichtlich nicht. Beide tun das. Beide. Okay. Was offensichtlich nicht der Fall ist. Und wenn man da mal so ein
23:01
bisschen guckt und einfach mal ein bisschen sucht und recherchiert, dann findet man schnell, dass es da echt etliche Paper zugibt, wie man so was machen kann. Wir haben ja einfach mal ein paar Beispiele aufgelistet. Man kann zum Beispiel mit Infrarotlaser kann man den Blutfluss detektieren. Es gibt Arbeiten dazu, da haben Leute einfach den Ausschnitt der Bildaufnahme
23:20
enorm vergrößert und machen verschiedene Aufnahmen und vergleichen dann sozusagen die Größe der einzelnen Wiengefäße einfach, um zu sehen, ob da quasi was pumpt und sich die Größe ändert. Und es gibt auch die Möglichkeit da rechts am Rand so was wie einfach Ausdrucke zu erkennen anhand der Struktur von dem von dem Blatt oder eben von der Drucker Tinte.
23:43
Genau. Und dann vielleicht noch so als kleinen Ausblick und einfach so ein paar gesammelte Gedanken, was wir uns überlegt haben. Falls die Hersteller dann jetzt ihre Geräte besser machen sollen, müssen wir natürlich auch irgendwie unsere Angriffe anpassen und wir könnten auf jeden Fall die Präzision erhöhen, indem wir das Ganze irgendwie lasern oder fräsen und halt ein geeignetes
24:01
Material finden, was genau so gut funktioniert wie das, was wir jetzt gerade machen. Man könnte das theoretisch auch 3D drucken, denn es gibt mittlerweile auch schon Paper dazu, dass quasi Wien 3D gescannt werden, dass man eben ein dreidimensionales Wienmerkmal hat und das letzte, das finde ich persönlich am schönsten, man kann Blutgefäße auch mittlerweile biologisch einfach drucken. Also theoretisch
24:21
könnte man seine Wien auch einfach in Wiengewebe ausdrucken. Ja, dann bleibt mir eigentlich nur noch zu sagen, vielen Dank an an alle, die uns dabei geholfen haben. Wir hatten sehr viel Unterstützung, auch gerade technisch, also Leute, die Geräte oder Kameras beigesteuert haben. Danke an euch fürs Zuhören und gibt es Fragen.
24:53
So, wer Fragen hat, wie immer, die Mikros sind hier vielseitigst im Raum verteilt. Wir haben in der Summe, glaube ich, acht Stück. Stellt euch dahin.
25:03
Die wichtigsten Hinweise sind Fragen bestehen in der Regel aus einem Satz, wo am Schluss ein Fragezeichen kommt. Und wenn ihr in so ein Mikro reden wollt, müsst ihr nah dran. Also nutzt die Chance. Stellt euch zu den Mikros. Und wenn ich das sehe, steht an Mikro Nummer sechs schon jemand.
25:21
Tut. Wie wahrscheinlich ist es, dass das unter realen Bedingungen funktioniert? Also ich jetzt hier bei der Bühne war das ja ein bisschen kritisch. Die Aufnahme oder die Authentifizierung mit der Fake Attrappe? Mit der Fake Attrappe. Also man muss dazusagen, das sind jetzt irgendwie alte Systeme. Wir haben es aber
25:41
irgendwie auch auf den auf der neuesten Hardware und Software Version getestet von den jeweiligen Herstellern. Und tatsächlich ist es so eine Frage, wie man es platziert. Wenn man es halt ordentlich platziert, dann sind die Wahrscheinlichkeiten relativ hoch. Du hast sogar Wahrscheinlichkeiten mal ausgemessen, oder? Ja, habe ich jetzt gerade nicht im Kopf, aber es ist ziemlich hoch. Also es waren irgendwie sowas
26:00
wie, also wenn die Umgebungsbedingungen stimmen, irgendwie so mit 80 prozentiger Wahrscheinlichkeit, irgendwie kriegt man es irgendwie reproduziert. Das heißt, es sind jetzt hier nur die falschen Umgebungsbedingungen gewesen. Also wir haben auf jeden Fall auch noch vor, dass tatsächlich auch noch mal ein bisschen praxistauglicher zu versuchen. Also wie gesagt, Polen ist ja irgendwie ganz in der Nähe und wir sind da
26:21
schon mit Leuten in Kontakt. Gut, Mikro Nummer sieben bitte. Habt ihr mal eine Entropie Analyse auf die Daten gemacht? Das heißt, wie einzigartig sind die Venen in verschiedenen Händen? Wir nicht, aber da gibt es Arbeiten zu. Ich glaube, wir haben das in unserer Papersammlung, kann
26:41
ich dir sonst irgendwo verlinken bestimmt. Mikro Nummer vier. Ich habe allgemeine Fragen. Wie sieht es mit Tätowierungen aus? Also haben die überhaupt einen Einfluss auf Venenerkennung? Also es gibt prinzipiell so ein paar Probleme, gerade relativ dicke Finger oder Hände sind ein Problem, weil die Blutgefäße dann
27:01
zu weit drinnen liegen. Sehr starke Behaarung auf den Fingern ist ebenfalls ein Problem. Und Tattoos sollten dann ein Problem sein, wenn sie auch im Infrarotbereich, also in diesem nahen Infrarotbereich absorbieren sind. Da habe ich allerdings keine Erfahrung, wie das aussieht. Wenn du ein Tattoo hast, dann können wir das gerne mal rauflegen. Wir sniffen mal mit und dann
27:20
gucken wir mal. Mikro Nummer zwei. Meine Frage ist schon zu halb beantwortet. Ich wollte fragen, was kann man machen, dass der Finger von einem Menschen eben nicht erkannt wird? Also Verletzungen, kalte Hände? Also Verletzungen, so was ist schwierig, also auch gerade so dreckt das relativ
27:40
unkritisch, solange der Dreck halt irgendwie nicht in dem Wellenlängenbereich absorbierend ist. Muss man mal einfach gucken. Also ich gehe davon aus, wenn du das mit irgendwie Edding deine Finger vollmalst, dann bist du auf jeden Fall auf der sicheren Seite. Sehen wir die nächsten Tage alle mit schwarz angemalten Händen rumlaufen. Wir nehmen mal eine Frage aus dem Internet ran.
28:00
Hallo, hallo. Ok, das Internet fragt, von welchen Politiker denn jetzt reden wir, wenn wir nicht im Datenscheuern sind? Ja, wir hatten wir hatten tatsächlich versucht, noch welche zu machen. Der Fotograf hatte leider nicht so richtig Zeit beim letzten Mal. Aber ich glaube,
28:21
sowas wie Innenminister ist natürlich auch immer ein beliebtes Ziel. Also wir sind noch dran. Mikro Nummer 8. Habt ihr mal mit den Herstellern gesprochen? Was sagen die dazu?
28:40
Ja, wir haben mit beiden gesprochen. Wir hatten sogar das Glück, dass wir bei Hitachi in Tokio direkt mit den Leuten reden konnten. Die waren total nett, haben sich das angeguckt, gesagt, die haben das so auch noch nicht gesehen und frickeln jetzt da irgendwie an der Lösung. Aber das hat immer noch genauso funktioniert. Bei Fujitsu war es ein bisschen anders. Die haben Leute hier in Berlin gehabt. Die haben uns da
29:01
im Club getroffen und die haben uns auch Geräte mitgebracht, haben sich das angeguckt, das abgenickt. Das hatte bis jetzt aber irgendwie ja noch keinen. Also das war tatsächlich eine interessante Erfahrung so als Responsible Disclosure, wie unterschiedlich die Hersteller reagieren können. Also wie gerade schon gesagt, so Hitachi war wirklich sehr zuvorkommend. Das war irgendwie ein Nettes Miteinander.
29:21
Die waren interessiert, das irgendwie besser zu machen. Und Fujitsu wird vermutlich auch demnächst noch eine Stellungnahme zu dem Vortrag rausgeben, wo es dann heißt, es ist alles nur im Labor machbar und irgendwie gar keine sicherheitskritischen, also nicht sicherheitsrelevant. Das war auf jeden Fall interessant zu sehen.
29:43
Bitte auch Kommentar oder so wenn, dann über die Mikro. Sonst ist es auch im Streaming und Recording nicht zu hören. Mikro Nummer sechs. Euch geht ja langsam die Arbeit aus, denke ich. Eure Fantasie. Was lässt dieser Körper noch zu? Was kann man in diesem Körper noch eventuell biometrisch verwenden,
30:00
was ihr dann nachbauen werdet? Nur mal so fünf Jahre, zehn Jahre, 15 Jahre. Also es gab ein relativ lustiges System, das hat den Herzschlag genommen. Also die Herzschlag Kurve ist allerdings irgendwie auch letztes Jahr von jemanden schon kaputt gemacht worden. Es gibt die Ohrform
30:21
anhand von weißen Rauschen, die sie ins Ohr reinprojizieren und dann die Reflektion messen. Aber so richtig, naja, DNA wird auf jeden Fall kommen. Aber das ist, glaube ich, also es gibt heutzutage auch schon genug DNA Nachbildungsautomaten. Von daher, ich sehe nicht, dass da irgendwas sinnvoll noch kommen kann.
30:40
Mikro Nummer fünf. Ja, zum Thema Lebenderkennung. Was verkaufen die Hersteller einem da? Also wenn man tot ist, dann ist die Extinktion in den Wehen eh anders, weil das Gewebe nicht mehr perfundiert ist. Meinen die das damit oder? Also wir glauben ja. Also wirklich, auf der Seite von Fujitsu steht so was wie ja, mit abgetrennten Körperteilen
31:01
kann man das ja nicht mehr machen. Und also deren Lebenderkennung meint momentan anscheinend wirklich, dass eben venöses Blut dieses Licht absorbiert. Und wenn das nicht vorhanden ist, dann nicht. Aber dass so was wie Lasertoner-Tinte das auch kann, hat da vielleicht keiner bedacht, wissen wir auch nicht. Aber wir haben gefragt, beide Hersteller wollte uns keiner sagen kann, wissen wir auch nicht.
31:23
Mikro Nummer eins. Also ich hätte eine Frage. Und zwar hat irgendein System die Attrappe erkannt? Also als Attrappe? Da können wir nichts mehr sagen. Wie gesagt, wir waren wir waren bei Hitachi und haben Sachen getestet. Aber das ist confidential.
31:43
Es gibt noch Fragen aus dem Internet, oder? Ja, nochmal. Und zwar ist jetzt gelb unten und rot oben. Also rot. Die rote Seite wird dem Sensor präsentiert. Okay, jetzt muss ich noch mal auf meine.
32:01
Genau da Nummer sechs ist noch eins. Das ist von hier oben alles nicht zu sehen. Wie lange habt ihr dafür gebraucht? Also circa so ein halbes, dreiviertel Jahr, aber halt eben nicht Vollzeit, sondern so nach Familie und Arbeit. Also in Stunden haben wir es nie umgerechnet. Weiß ich nicht. Also so grob wird es ungefähr ein Monat
32:22
Gesamtarbeit gewesen sein, wenn man irgendwie erst mal dahin gekommen ist. Also wir haben es dann auch sehr verfeinert. Das ist halt perfektioniert. Aber tatsächlich, wenn man erst mal rausgefunden hatte, wie es funktioniert, ist es eine Sache von 15 Minuten. Du machst ein Foto, du bearbeitest es kurz nach, druckst es aus, gießt die Wachsand und fertig ist es.
32:41
Braucht ja nur erst mal die gute Idee. Danach ist alles einfach. Mikro Nummer eins. Habt ihr auch mal überprüft, welche Unternehmen überhaupt Wienerkennung alleine benutzen? Weil ich arbeite gerade in einem infrastrukturrelevanten Unternehmen. Und die nutzen die Wienerkennung kombiniert mit
33:00
Gesichtserkennung und Temperatur. Das heißt die Temperatur, der Hand muss stimmen plus der Gesichtsabdruck. Also ist das überhaupt noch relevant oder sind die Systeme schon weiter? Also wie gesagt, so für Deutschland weiß ich noch von einem Anbieter, die es einsetzen. Die setzen es auch alleine ein, also halt so mit Zugangskarte.
33:23
Für die ganzen anderen Sachen musst du halt dann die beiden Merkmale separat irgendwie überwinden. Also ich meine, Gesichtserkennung ist auch schon kaputt gemacht worden. Die Temperatur, das kriegt man auf jeden Fall auch in. Wird natürlich schwieriger. Aber so eine Wachsand zerfießt dann durchaus mal. Nee, nee, nee, wir reden hier nicht. Hast du eine Körpertemperatur in 60 Grad?
33:44
War ein Spaß. Vielleicht noch kurz als Nachtrag, also die Systeme in Japan zumindest auch in den Geldautomaten, die machen sowas nicht, das ist ein ganz simple Wien-Scanner. Also da gibt es eben nur ein Merkmal, was da genommen wird. Aber sag doch mal, wo du arbeitest.
34:01
Das sage ich euch nachher persönlich, aber nicht hier. Gut, Mikro Nummer drei. Bei einer Folie war zu sehen, dass auf diesem Geldautomaten ein Fingerscanner ohne diese Brücke oben drüber war. Wie funktioniert denn der? Der kann ja dann nicht durch meinen Finger leuchten, sondern nur unten gegen.
34:21
Das ist richtig. Das ist so, dass das Licht nicht zwangsweise, das meinst du, nicht zwangsweise durchleuchten muss, sondern irgendwie, wenn es von der Seite eingeleuchtet und dadurch, dass es dort innen gebeugt und irgendwie zerstrahlt wird, reicht das irgendwie auch. Also man kann entweder durchleuchten oder aus Platzgründen, aus Größenabwägungen
34:43
kann man die LEDs von der Seite einstrahlen lassen. Hat das damit auch funktioniert? Ne, also wir haben kein System, das so arbeitet, aber ich würde davon ausgehen, dass es halt maximal kleinere Änderungen im Aufbau der Trappe nötig wären und dann sollte es auch funktionieren.
35:03
Mikro Nummer zwei. Außerdem Laserdrucker, hatte ich hier noch andere Ansätze, also Materialien, die sich dafür eignen würden? Ja, also so CD-Marker, Addings und so, das hat super funktioniert. Wie gesagt, Karotten kann man super einlernen, also da reichen auch quasi so dreidimensionale Strukturen manchmal aus, um da irgendwie im Infrarot
35:21
noch eine, sag ich jetzt mal, eine Linie zu bilden. Aber aus Karotten würde sich jetzt keine Trappe... Ne, ne, nein. Also tatsächlich irgendwie mit einem Stift nachziehen ist halt irgendwie deutlich schwieriger, als einfach auszudrucken. Wir haben es mit verschiedenen Druckern versucht, aber gewisse Drucker sind dann einfach, haben sich rausgebildet, dass es gut ist und alles andere halt dann in der Zukunft. Wenn die Hersteller nachlegen, gucken wir mal, was man irgendwie noch machen kann oder muss.
35:43
So, Mikro Nummer 5. Da steht auch noch wer. Lässt sich eure Methode auch auf Retina-Gefäßscanner adaptieren? Sehr gute Frage. Also tatsächlich, ich habe ja schon angedeutet, dass es eigentlich fast keine Systeme mehr gibt, die noch nicht kaputt sind. Retina ist tatsächlich das Letzte.
36:01
Ich würde vermuten ja. Das Problem ist, sich irgendwie so ein Gerät zu beschaffen. Also wenn du so ein Gerät irgendwo rumzustehen hast oder einer von euch, würden wir da gerne mitspielen. Mikro Nummer 7.
36:21
Ihr hattet dieses Bild mit dem Händel-Trockner und da war ein spezieller Aufkleber drauf. Hatte das eine besondere Bedeutung? Vermutlich ja. Wir haben echt einfach nach diesen Handtrocknern gegoogelt
36:42
und die ersten vier Bilder sahen alle so aus. Wir dachten, okay, dann muss das da mal rein. Es scheint irgendeinen Grund zu geben, dass diese Aufkleber existieren. So, wir haben noch für ein, zwei letzte Fragen Zeit. Nummer 2 hier vorne noch. Wie viele Vorträge müsst ihr noch halten, bis die einschlägigen Industrien erkennen,
37:03
dass biometrische Merkmale Identifikation, aber nicht Authentifikation sind? Ich glaube, die Frage würde ich mal unbeantwortet lassen. Nehmen wir noch mal eine Frage aus dem Internet. Die sollen ja auch eine Chance kriegen.
37:21
Ja, und das Internet wird gern wissen, welchen Faktor man denn jetzt dazu tun müsste, damit das Ganze sicherer wird. Naja, so Lähmterkennung ist zumindest mal eine gute Idee. Also es gab ja schon ein paar Hinweise, wie es theoretisch funktioniert. Ich würde das halt irgendwie alles teurer machen. So richtig zusätzlich Faktor.
37:42
Also man könnte zum Beispiel gleichzeitig auch die Fingerabdrücke nehmen. Also Fingerabdruck und Venen im Finger oder halt die Hautdrillen der Hand. Aber das ist halt auch wieder eine Kombination. Das heißt, man muss halt dann beide separat in einer Trappe bauen. Das sehe ich ehrlich gesagt auch nicht so ein großes Problem.
38:01
Nummer 2 noch. Ihr habt gesagt, ihr habt ein halbes Jahr daran gearbeitet, insgesamt vier Wochen. Wie schwierig ist es jetzt wirklich, an ein Foto ranzukommen und das Foto zu machen? Also wie aufwendig ist dieser Prozess? Also mit der kleinen Raspberry-Pie-Kamera relativ easy. Also das haben wir jetzt auch hier noch nicht verbaut.
38:21
Vielleicht haben wir noch die Zeit, das hier mal zu testen. Aber das ist wirklich... Also das kannst du quasi ein Video laufen lassen. Wenn du deine Hand irgendwie langsam drüber bewegst, dann sind das einfach gute Aufnahmen. Kannst du dir Einzelframes auspicken und die als Bild nehmen. Eben das mit der Spiegelreflex, klar. Da muss die Hand irgendwie auf jeden Fall ein bisschen exponiert sein, dass du die in irgendeiner Form da auch gut draufkriegst.
38:41
Aber wir haben das halt eben auch so einfach, ich sag mal, im Wohnzimmer gemacht. Also wir haben das jetzt nicht irgendwie in der Dunkelkammer machen müssen oder so. Das funktioniert auch einfach so ganz normal auf der Straße. Also wir haben vor noch mal kurz einen Test gemacht und so ein bisschen Real-Life-Bedingungen. Das war tatsächlich irgendwie noch heute irgendwie zwei Stunden vor Ende des Vortrags.
39:00
Also man sieht schon, es ist natürlich nicht so schön, wie wenn man irgendwie es halt ein bisschen... Also mit ein bisschen Ruhe und irgendwie halt Kamera und so irgendwie Einstellungen. Also das kriegt man auf jeden Fall hin. Das ist halt noch so ein bisschen work in progress. Und man kann die Hand ja auch manchmal vielleicht einfach mehrmals fotografieren. Genau. Oder Video machen.
39:21
Ich ziehe gleich meine Handschuhe wieder an. Gut, vielen Dank an Starbucks und Julian.