Maschinelles Lernen – Grundlage intelligenter Digitalisierung

Video in TIB AV-Portal: Maschinelles Lernen – Grundlage intelligenter Digitalisierung

Formal Metadata

Title
Maschinelles Lernen – Grundlage intelligenter Digitalisierung
Title of Series
Author
License
CC Attribution 3.0 Germany:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor.
Identifiers
Publisher
Release Date
2018
Language
German

Content Metadata

Subject Area
Loading...
Machine learning Algorithm Machine learning Digitizing Algorithm Decision theory Prediction Scientific modelling Content (media) output Information Set (mathematics)
Machine learning Particle detector Machine learning Digitizing Outlier Höhe Cluster analysis Similarity (geometry) Set (mathematics) Attribute grammar
Machine learning Algorithm Quadratic function Linear regression Decision tree learning Digitizing Linear regression Abbildung <Physik> Variable (mathematics) Variable (mathematics) Hausdorff space Interface (chemistry) Object (grammar)
Machine learning Machine learning Plane (geometry) Digitizing output Circle Addressing mode Local ring Gebiet <Mathematik> Local ring Abstraction Attribute grammar
Machine learning Information Digitizing Inverter (logic gate) Device driver Set (mathematics) output Addressing mode SuperLearn
Machine learning Machine learning Information Digitizing Expert system Open innovation
Machine learning Series (mathematics) Online chat Machine learning Plane (geometry) Digitizing Open innovation
Machine learning Digitizing Befehlsprozessor Durchschnitt <Mengenlehre> Artificial neural network Parameter (computer programming) Computing platform
Machine learning Polynomial Algorithm Quadratic function Polynomial Digitizing Scientific modelling General linear model Variable (mathematics) Hausdorff space Data model Computer network Website Linie Booting
Machine learning CW-Komplex Digitizing Scientific modelling Curve Parameter (computer programming) output
Machine learning Plane (geometry) Instanz <Informatik> Flock (web browser) Digitizing Vector graphics Mathematical analysis Mittelungsverfahren Professional network service Variance Stoßdämpfung Wind wave Wave TOUR <Programm> output output Sample (statistics)
Machine learning Series (mathematics) Algorithm Machine learning Digitizing Artificial intelligence Route of administration Artificial intelligence Physical quantity Autonomes Fahrzeug
Machine learning Digitizing
was ist eigentlich maschinelles Lernen das wesentlich am Maschener lernen müssen ist
dass wir den Computer nicht programmieren müssen wir seine Entscheidungen trifft er macht
das alleine da gut so ganz alleine eben auch nicht wir müssen eine ganze Menge von Beispielen von Trainingsdaten zur Führung stellen damit das Programm lernt
was es tun soll ja hier haben wir nun schematisch aufgezeichnet wie das wie das funktioniert wir haben Input Daten die Beispiele sind wie das Programm reagieren soll wie 1 ein bestimmtes Objekt klassifiziert werden soll oder ähnliches haben einen schnell Algorithmus da gibt es eine ganze Menge wir werden viel darüber Inhalte der diese Daten analysiert die im Wesentlichen ein Modell erzeugt zeigt dass die Struktur und die Regelmäßigkeiten dieser Daten abbilden auf Basis dieses Modells kann ich dann Entscheidungen treffen Vorhersagen treffen ohne eben wie gesagt explizit
zu programmieren ganz wichtig sind die Beispiele wo bekomme ich den her ist es kein Wunder dass in den letzten 10 Jahren das Thema maschinelles Lernen so weit vorangeschritten dass ich habe jede Menge Beispiele wenn ich ins Bett gehe zu wissen dass es jede Menge Hunde und Katzenfutter gibt im wäre wenn ich gehe zum Beispiel soll System einen einführte und dann sagt versucht Weizmann Regelmäßigkeiten zu zu finden da kann ich zum
Beispiel mit einem Glasträger Lord muss ähnliche Bilder auf einen Haufen werfen ja und dann habe ich im Prinzip in dem Fall 2 Cluster 2 Haufen von Beispielen die sich unter einander ähnlich sind der einen Haufen links Cluster 2 hier genannt aber das sind vielleicht die Katzenfotos Herzens schauen sich alle irgendwie ähnlich obwohl viele verschiedene Gas gibt und die Hunde Fotos sie noch mal wissen an dass es in an der Gerster ab und zu gibt scheinbar als Laie weiß man nicht genau was es ist er aber das ist manchmal auch ganz interessant haben ein anderes einfacheres Beispiel weil das noch ein bisschen direkter Exempel infiziert was was hier passiert wenn wir zum Beispiel und heftiger man ganz einfach mit 2 Attributen beschreiben dann habe ich zum Beispiel die Breite und die Höhe von 1 1 Uhr Objekt und wenn ich mir so Lage anschauen dann 11. Mai ist der große Unterschied dass den Nagel sehr schmal ist und den 11. aber einfach breiter die hat der 2 drehte und man kann nicht einfach auf Basis dieses Attributs wie in dem Beispiel dargestellt im Prinzip die Heft Heftklammern rechts wiederfinden und die Nägel links da muss ich überhaupt nichts wissen über einige über über Heftklammer Netze deutscher mir nur die Attribute an und schau auf die Ähnlichkeiten innerhalb dieser Cluster manchmal
weiß ich mehr ich weiß zum Beispiel welche Kersten ich am Ende was bekommen möchte um bei unserem Beispiel zu bleiben Heft Kermani immer auch noch schrauben dazu wenn ich die Beispiele die ich in diesen hallo Rhythmus in einem mal schnell Lernalgorithmus hineinführte klassifiziert habe die Trainings Beispiele und dann kann ich zum Beispiel einen einen Entscheidungsbaum Algorithmus so trainieren dass kennt rechts diese blauer Fläche das in dem Prinzip der heftiger man links eben die schon mit schmalen Objekte sind in unserem Fall die nötige droht die sind kürzer und die Schrauben in unser voll sind es sind grün und das dann Entscheidungsbaum ist da rechts in der Mitte aufgezeichnet ich kann dann einfach und das ist das Modell das ich gelernt habe ich kann dann einfach eine neue Objekte klassifizieren ich frage also was ist denn dieses Objekt und dann freue ich zuerst ist es ein breites Objekt wenn ja dann sage ich ja dass es ein heftiger aber wenn einem dann frage ich ist das ein kurzes Objekt wenn die Antwort ja lautet ist es den Lage wenn die Antwort nein lautet ist eine Schau mir so weit so einfach als Beispiel eines Klassifikation des Algorithmus euch
mal will aber nicht nur Kersten als Ergebnis habe ich möchte etwas vorher sage ich möchte vorhersagen einen wird zum Beispiel werden das Preis eines Hauses in Abhängigkeit von der Größe des Hauses das haben hier einen bar Beispielen das sind wieder die Trainings Beispiele in dieses Dekan eingezeichnet haben und was der haben Lernalgorithmus jetzt macht in dem Fall ist das jetzt Regression ist ja versucht diese Beispiele doch eine Funktion anzunähern ich kann eine gerade drüberlegen und sage okay das passt das so ungefähr die Größe das Haus desto teurer das ist jetzt nicht ganz falsch aber wenn ich mir die Daten ein Schaden ist also ganz klar dass das diese gerade die Daten eigentlich nicht richtig ab billig muss es ein komplexeres Modell nehmen hier zum Beispiel eine quadratische Funktionen die dann besser in der Lage ist diese Werte vorherzusagen in Wirklichkeit habe ich natürlich dann noch mehrere Variablen und dann habe ich einen beispiels- warum der dann etwas komplexer ist es ja ganz klar aber dann wird es auch erst wirklich interessante das Thema Deep
Learning die schon sehr gefallen also möchte ich auch ganz kurz streichen wir haben wir streifen wir mehr dann noch Vorträge die dann direkt da drauf eingehen das besondere beim die Learning ist dass die Grundelemente eigentlich sehr einfach sind ich habe diese Neuronen die ihre Input Daten gewichten und dann entsprechend ein gut da und erzeugen das ist eines von diesen kleinen Kreisen ist einmal und die sind dann Vielzahl also in einer Vielzahl aneinander geschaltet und dann kann ich zum Beispiel in diesem in diesem Szenario Bilder analysieren habe ich ganz am Anfang das Bild das reinkommt kommt habe ich nur bitte Vorfahren haben und Intensität und dann habe ich eine 1. Schicht von Neuronen die im wesentlichen dafür zuständig ist dass sie Eigenschaften lokale Eigenschaften wie Kontrast reiche Gebiete also der Unterschied zwischen meinen Haaren und meinen die sich zum Beispiel oder zwischen dem Auge der Iris und und dem weißen und darum kennt dann habe ich also sagen die 1. Schicht die diese die diese lokalen Merkmale lernt ich habe eine zweite Schicht an in dem Beispiel die jetzt Gesichts da Teile des Gesichts Nase Ohren Gesicht Nase Ohren Augen und ähnliche Dinge und ich habe dann eine dritte Schicht in dem einfachen Beispiel die dann weitergehend auf den Gesichtern direkt arbeitet mit einem Beispiel zum Beispiel wo das Gesicht der kommt oder ob das ein Mann oder Frau ist oder sonst etwas was ich hier lernen will und das ist eigentlich ein ganz gutes Beispiel
um Zusage oder um die Frage zu beantworten was ist denn jetzt unterschiedlich bei dem sogenannten Deep Learning wir im Gegensatz zu den klassischen aber Verfahren das der meine oder des maschinellen Lernens haben ein wichtiger Aspekt ist dass beim Deep Learning wie gesagt ich habe da viele verschiedene Schichten dass das sehr oft ein sogenanntes N zu entleeren den realisiert wird ja ich habe einen gut der relativ einfach dargestellt wird ein Bild mit Pixeln mit Vorhaben mit Intensitäten und am Ende kommt gebe es aus und das maschinelle Lernen System ist sowohl zuständig dafür die einzelnen Merkmale Attribute in dem Fall wie wir sie in den Beispielen zuvor gehabt haben zu lernen die müssen also nicht vorgegeben werden und das eben auf verschiedenen Ebenen zu machen Abstraktionsebene bis am Ende das Ergebnis rauskommt dass ich haben möchte im
Gegensatz zu den klassischen Verfahren da brauche ich mehr Beispiele weil ich
klassisch sogenanntes Feature Engineering durch einen Menschen der Treiber der dann einen einen eine Menge von Informationen
am besten schon hineinsteckt welche Features wie beschrieben werden sollen welche komplexe Features sind relevant sind das ist sinnvoll wenn ich nicht so viele Daten hat weil irgendwo her muss ich ja das Wissen lernen dann kann ich es eben als Mensch einführt dann wenn ich nur viele Daten habe dann kann ich sagen wenn in ein die Festnetz verwenden und das lernt alles von selbst wenn es genug Daten hat ich brauche aber natürlich die
Information für das Netz für das maschinelle Lernen System an sich das kann wie diese Beispiele zum Beispiel zu klassifizieren ist oder was auf Bildern zu sehen ist also ein Beispiel ich denke ich brauche nicht fragen was auf der linken Seite zu sehen ist mein das jeder kennt den Eiffelturm das ist denke ziemlich einfach auf der rechten Seite das schöne schwieriger das ist die Strudlhofstiege immer mehr von den erkenntlich drüber aufstehe nicht also vielleicht innewohnen worden wenn sie das wenn wären dann würden Sie das kennen das ist nämlich eine Stiege im
9. Bezirk in Wien-Alsergrund das ist auch wenn sie wenn sie lesen wenn sie von mystischen Literatur lesen eine ein Roman von Heimito von Doderer der in der Zwischenkriegszeit spielt das sehe ich schon dass ist nicht so ganz einfach ist passende Beispiele zu generieren die brauche ich eben entsprechende Experten sage ich mal oder Wiener oder Literaturkenner die mir sagen dass es tatsächlich die Strudlhofstiege noch schwieriger wird es wenn ich zum
Beispiel mir die Frage stelle dir sind Bild wo kommt denn das her wurde das aufgenommen 2016 wurde ein System vorgestellt das so genannte Planet System das diese Frage beantworten soll dieses gefüttert worden mit 126 Millionen Fotos und das sinnlose Fotos dabei wenn der 1. Reihe dieses sich alle erkennen werden ich habe es mit Mordred ich habe London mit dem typischen Doppeldeckerbus ich habe die Freiheitsstatue in Neuyork das in einfacher Bilder kann ich auch sagen dass ist jetzt in einer bestimmten Region statt auch in einer bestimmten Teil der Stadt Nazca kann ich sehr spezifisch sein das Opernhaus 7 keine wahrscheinlich auch die meisten von ihnen die zweite Ebene wird schon ein bisschen schwieriger aber ich muss jetzt Peking erkennen dass es eine Silhouette nicht mal besonders typisch an London mit der Telefonzelle ist vielleicht der bis vor einfache in Los Angeles mit dem strahlend ja wenn ich schon mal dort war kenne ich das vielleicht aber das sehe ich schon das Problem ich muss das einfach schon mal gesehen haben und das das ist nicht so einfach und wenn sie die und keine Bilder versuchen zu klassifizieren Island zum Beispiel oder Nordschottland wenn sie nicht dort gewesen sind dann tun sich da schon nicht sehr schwer auch ein maschinelles Lernen System wird sich natürlich schwer aber
das lernt das eben wenn ich ganz viele Beispiele bekomme wie in diesem Fall und das lernt dann ganz unterschiedliche Dinge ich habe gerade vorher gesagt dass die eine neutrale Netze eben die Merkmale sozusagen selbst ständig lernen wenn sie genug Trainingsdaten haben das ist hier der Fall gewesen und dann lernt das zum Beispiel zu erkennen wenn seine typisch afrikanische Landschaft oder afrikanische dir auf dem Bild sieht dann ist das in dem Fall in Namibia Botswana in dieser Gegend oder rechts die Galapagosinseln das sind auch ganz bestimmte Tiere links unten das dem gar nichts zu tun da muss ich Landschaft mehr kennen da muss erkennen dass es eine typische Landschaft wie ich sie auf der ältesten hawaiianische ihn so sehr dass es eben Korei ich war schon mal dort also darum kann nichts erkenne ich das aber sonst würde man sagen Kenner einen Chat wunderschön aus aber ich kann nicht sagen wo das wo das
ist und Paris muss es auf Architektur schon dass das sind ganz unterschiedliche Merkmale dieser System hier lernen muss wie gut kann das System das Lernen das hat mal getestet in einem Szenario auf der d'agir gestern Plattform Burma das System antreten ließ gegen viele Reisende einen einer wie wir da nicht so viel herumkommt der und ich sowieso keine Chance das 1 also sozusagen Weltreisende die dann versucht haben Google Street View Fotos zu zu klassifizieren wenn sie dort auf Standard und sich wahrscheinlich wahnsinnig schwer haben auch das System tut sich manchmal schwer sich zum Beispiel links ist das ein Beispiel aus Nordamerika und soll der Mensch das blau und das System der Grünen das sagt Südamerika Europa also im das funktioniert manchmal einfach überhaupt nicht haben wir aber 2 Beispiele hier das zweite das ist in muss ist dass in Skandinavien und das das letzte das in Südamerika Brasilien oder System richtig liegt da man schon falsch und wenn wir da jetzt übermittelt und und vergleicht wie gut es denn jetzt der Mensch und wie gut ist das System und damit muss man wissen comma kann man nicht perfekt sein weil die Regionen sind also unterschiedlich großen ich sage Nordindien dann ist das eine große Region da kann ich nicht exakt wenden nicht nicht ganz exakt sein sowieso wenn ich das also vergleiche dann vertut sich ein Mensch so im Durchschnitt also ein Vielreisender Mensch verbot sich so um 1100 Kilometer das ist oder entfernen kann Moormerland es geht noch mehr also die Norditaliener sind zwar bis anders aber die haben auch was mit den Deutschen gemeinsam da dass das blendet System soll das ist ja besser die Menschen vertun sich um 2 Tausend 300 Kilometer wisse schon deutlich mehr als ist Hannover Palermo also Sizilien mit Hanno zu vergleichen das kann man denkt überhaupt nicht mehr aber wenn ich auf dieses Street Fotos schaut dann dann dann passiert das auch wenn ich viel von der Welt in in der ich kenne ja aber das funktioniert halt nur
weil es so viele Daten gibt 126 Millionen 91 Millionen werden trainiert werden verwendet um das System zu trainieren fielen 30 Millionen um das Modell zu zu adaptieren das sage ich gleich noch was dazu also insgesamt 126 Millionen und der Output in dem Fall sind 26 Tausend verschönern Antworten nämlich das ist der Teil der Stadt das ist ein Ort eine Stadt in der Region und das ganze System ist ein System das in 22 dieser Schichten von Neuronen 97 Millionen mit der lernen muss 30 wie ganz klar dass sich viele Trainingsdaten brach weil ich habe so viele Parameter die kann ich jetzt mit mit mit mit was sich eine Million Bilder überhaupt nicht lernen wir so das heißt was muss ich eigentlich beachten wenn ich mir überlege welche Daten oder wie viele Daten brauche ich oder wie komplex dort ein Modell sein immer wieder ein kleines
bisschen zurück zum einfachen Beispiel jährlich 10 comma 10 10 Eingabedaten mit jeweils 3 Booten einer Klassifikation Ja oder Nein eine binäre Klassifikation ich haben ändern Algorithmus der produziert ein Modell das einfach diese Regelmäßigkeiten abbildet und dieses Modell kann ich dann testen an einem Test Site und überprüfen wie gut ist jetzt mein Modell das sich auf Basis der Trainingsdaten gelernt hat mit diesem Test Site ganz wichtiges das Trainings hat und testet sich irgendwie ähnlich sind weil wenn man testet ganz anders ist dann mir nicht Modell A für Trainingszeit 1 und dann habe ich ganz andere Daten die ich klassifizieren möchte das kann ja nicht funktionieren und dann und er genauso wichtig ist aber auch das Training und Testzeit unterschiedlich sind also Teil erfahren was lerne ich meine Daten und trainieren an den gleichen Datennetze geschwind und mehr also das ist das Prinzip und wenn wir jetzt
zurück gehen sondern 1. Beispiel Vobos gegangen ist denn den Preis eines Hauses vorherzusagen dann haben wir da taten gehabt die und das ist mittlerweile spiele die ich mit einer quadratischen Funktion gut annähern kann ich das Modell zu einfach Wähler das haben wir schon gesehen also eine gerade da kann das meine Daten nicht ausreichend repräsentiere nicht aber so ganz eindeutig ein Modell das zu wenig komplexes wenn ich so zu komplex mache dann fange finde fand dass sie haben als wären dem Prinzip meine Daten auswendig kann es wird immer besser damit und und wo keine Daten sind denkt sich sind was dazu nur dann habe ich also ein Polynom der Ordnung neuen das bei meinen Trainingsdaten wunderbar funktioniert aber in den anderen Bereichen muss hat keine Daten geht nicht und das ist hier noch einmal dargestellt in diesen in diesen der kamen dass Sigmar also dem Modell Kapazität die Komplexität des Modells das auf der horizontalen aufgeführt wenn das Modell so einfach ist es so links dann ist ein relativ großer Fehler in den Trainingsdaten schauen zu sehen wir das ist diese gestrichelte blaue Linie und die komplexe ich das Modell mache desto besser wird das System einen Trainingsdaten im sollen dann aufhören das Modell komplexer zu machen weil wir vor erwähnt wenn ich zu komplex mache verliert ist die Fähigkeit zur Generalisierung ich habe also diesen General aller seelischen gelb und ich habe ein System das die Trainingsdaten auswendig gelernt hat und
und und nicht mehr neue Beispiele richtig klassifizieren kann so in unserem in unserem in unserem Planeten Ed Beispiel haben wir 91 Millionen Trainingsdaten verwendet weil das einfach so komplex ist ich brauche die um meine Parameter in dem komplexen Modell zu lernen ich habe zusätzlich und das ist eben das der der weitere steht ein so genanntes militärisches sagt das im Prinzip Daten sind wie das Trainingszeit nur davon getrennt also wieder zusätzliche neue Daten die ich dazu verwenden kann und in dem Fall verwendet habe oder nicht ich sondern die Kollegen die das Papier gestohlen die die die dafür gedient haben dass die Komplexität des Modelles einzustellen also wenn das System dann solange Trainingszeit das auch militärischen seit gut abschneidet dann habe ich die Komplexität richtig gewählt haben und ich kann das nicht am Training Z alleine lernen weil wir haben das hier vor gesehen ja wenn ich da und lernen und das period Modell immer komplexer mache es immer besser das heißt die Trainingsdaten alleine reichen nicht um die Komplexität festzulegende brauche ich dieses der also auch einen für Ihre Anforderung an die Daten das klingt sei ich mal logisch aber auch schon ein bisschen schwieriger ist es aber gar nicht so einfach gar nicht so schwierig dass in so ein paar 1 2 3 EL Daumenregeln die man verwenden kann um um um hier das Modell richtig zu trainieren das Problem ist ich weiß die Grundgesamtheit natürlich nicht wenn ich meine Daten aus will ich weiß auch das Modell nicht das soll erst gelernt werden ich habe aber in vielen Fällen den Menschen als sozusagen ein perfektes Modell gerade wenn es darum geht jetzt muss zu keine scharfen Bild ist das ein Auto ist es ein Mensch ist es eine Frau ist das eine Blume er dann dann dann ist der Mensch sehr gut und jetzt westlich mal wie gut ist denn der Mensch bei der Aufgabe unserer mal der Mensch sagt in einem Prozent der Fälle in eine falsche Antwort 99 Prozent ist gut das ist eine sehr gute Performance und ich habe einen Fehler im Training 10 Prozent was ist da falsch wir erinnern uns an an die Kurve
ich bin zu weit links das Modell ist zu einfach ich brauche ein Komplex das Modell also kann
ich in die Fresse Netz trainieren oder zu sätzliche Features im klassischen lernen dazu fügen die mir da helfen das Modell die Daten besser abzubilden besser zu repräsentieren in 2. Instanz dieser beilegen ich habe den Menschen der Halle ist sehr gut ein Prozent ich bei mir mein System am Trainingszeit funktioniert alles wunderbar 2 Prozent bin sehr zufrieden dann probiere ich das an meinem Welle der wird plötzlich 11 Prozent das habe ich ein Problem was ist das Problem ich brauche mehr Daten ich habe also die gleiche Grundgesamtheit in meinem Trainingszeit in meinem millitärischen seit ich habe mein Modell auf Basis der Trainingsdaten gelernt aber die sind anscheinend zu wenig um das Modell wirklich zur präsentieren das heißt wenn ich aus der gleichen Gesamtheit eine andere Stichproben nehmen müssen der Wahlvorhersagen haben die Stichprobe zu klein ist und ich mache die dann noch mal sagen das ist das Weller der schon seit wann ich ein anderes Ergebnis dann habe ich eindeutig zu wenig Daten die ich hier verwende um das Modell zu trainieren und wenn ich Pech habe dann ist beides problematischen aber ich mehr Daten mehr immer mehr mehr eine komplexe das Modell das ist sehr einfache Daumenregel in die aber zu oft nicht verwendet werden da versucht man ein Modell zu trainieren und dann wundert man sich warum hat das Kernergebnis was muss ich jetzt machen wir also vor versuche es mal mit diesen Regeln das ist das ist schon mal ein 1. guter Ansatz ja wie gut werden dann im Endeffekt uns Modell ich habe schon erwähnt in der Mensch ist auf der einen Seite sehr gut in manchen haben Aufgaben ohne da groß zu überlegen kann man jetzt sagen was da da vorne Fahrt eine dran vorbei aber nicht lange nachdenken sicher ist sicher Aufgaben wo der Mensch nicht denken muss und eine trotzdem eine sehr gute Performance zusammenträgt kann ich prinzipiell auch mit der Deep Learning lösen wie man an dem kleinen Beispiel gesehen hat war das heißt sich Aufgaben kann ich manchmal jetzt schon manchmal in Zukunft aber irgendwann so gut lösen wir Mensch oder manchmal vielleicht sogar mehr vorausgesetzt wir haben eben ein ausreichend komplexes Modell das war so bislang Knackpunkt bei den klassischen maschinellen Lernverfahren ich kann das Modell nicht beliebig komplex machen wenn ich eine sofort weckte schien habe oder so dann kann ich nur mit kleinen Funktion LZH arbeiten das ist nicht so einfach ich kann Features Infineon aber das das wird dem Stoßdämpfern an seine Grenzen mit seinem Deep Learning System habe ich die Grenzen weniger Schlaf ich kann also das Modell einfach oder relativ einfach komplexer machen 1 1 und 2. das davon wirklich nicht vergessen ich habe genügend und genügend repräsentative Input Output der war ab period Daten das Training Trainingszeit weil das darf ich eben nicht vergessen sein maschineller Lernalgorithmus lernt einfach nur Regelmäßigkeit in den Daten der lernt nicht was über die Welt der sieht die Welt gar nicht das sieht einfach nur die Daten und wenn die Daten Ärzte nur einen Teil der Welt ab bilden oder wenn sie einen Bayers enthalten wenn ich zum Beispiel Gesichtserkennung nur mit mit der kaukasischen mit weißen Gesichtern trainiert hat dann wird das also eine bei Gesichtern von Mensch Afrika einfach schlecht abschneiden und das heißt wenn ich wenn ich Daten habe die jetzt nicht repräsentativ sind oder sozusagen die Welt verzerrt oder bei erst ab abspielten dann kommt halt ein entsprechendes Ergebnis aus das es dieser Spelunke Spruch Gabe schien Schartner also die Analyse ist so gut wie die Daten die ich in diese in dieses System International ist 1 ist immer Rennen für jährlich werden 1 1
VOL ausgibt borgt von einem Kollegen weniger wurde Müller aus Berlin der 2005 ein sehr interessantes Papier geschrieben hat was lernt den sollen normales Netzwerke umgeschaut ist und das dann das System das ist ein Beispiel davon vor 2 Beispiele vergleicht das so genannte Fischer wird und dass ein einen die bleibt also ein ein neues Netzwerk das basiert auf einer in die Planen aufgedeckt worden will in dem Fall Objekt hier ein Pferd und und Mittel für diese mit oder kann ich sehen wo schaut denn das System rechts das man das erkennt so Info die Zielwerte das sind die die Roten Bereiche das erkennt so bis die Leute vom Markt vom vom Pferd auch der Lösung weiter das klingt irgendwo vernünftig mehr wenn ich längst Schar dann sehe ich diese roten Fleck das schade dass dieses schon etwas schaut der links unten hin was essen wir links unten weiß nicht ob man das sehen kann dass es auch ziemlich klein wie das lesen können da steht aus auch half er alle Daten die alle Bilder die Pferde in diesem Trainings darstellen sind aus einem Archiv untersteht immer links unten das heißt das Netz ist intelligent dass während das einfach schade einfach links unten in wenn da steht was er falsch sagte sind wird war alles wunderbar hat also die Trainingsdaten perfekt verstanden aber es kann nicht generalisieren weil ich nachher keine Pferde Bild das genau so ausschaut außerdem an nachrief kommt im zeige dann wird sagen keine Ahnung dass ist oder Sonne ist schaut einfach an die falsche Stelle ja das ist also ein Beispiel wo es ganz wichtiges da keine Was macht eigentlich das System um das zu erklären und damit will ich eigentlich auch schon bis
in die Zukunft schauen also sowohl in den heutigen Tag und dann auch noch weit in die Zukunft meines die letzten 12 oder ein also ich denke das ist ja schon angesprochen werden werden in den nächsten 3 Jahren weitere große Fortschritte erzielen im Bereich maschinelles Lernen künstliche Intelligenz werden intelligente Mobilität verbessernde werden die die intelligente Fabrik diente in der Produktion wie mein Kollege denkender in seinen Projekten untersucht haben besser in den Griff bekommen wir werden mit Hilfe der personalisierten Medizin Therapien haben er Therapien entwickeln die die noch mehr auf den Patienten eingehen meine Kollegen alles mehr Kader aus anschwillt wird dann noch weiter dazu etwas sagen genau so wie es zu den anderen Themen erhalten auch interessante Vorträge und eben auch eine Reihe von Projekten auf unser Marktplätze Möglichkeiten gibt ganz wichtiges ist aber eben das alle diesen Anwendungen bereit diesen Algorithmen wir immer darauf schauen dass ein System nicht nur Ergebnisse liefert sondern auch erklären kann warum diese Ergebnisse die besten Ergebnisse sind dann kann ich einem Mediziner sagen ich stelle dir die Diagnose oder ich sehe das und das Röntgenbild weil die und die Features oder die und die Symptome vorhanden sind und dann sagt der Mediziner Optik glaube ich dir glaube ich nicht mehr so muss ich auch mit mit Kollegen diskutieren können und wenn das ein System nicht kann man ist also nicht geeignet für den Einsatz in der Medizin oder genauso ein autonomes Fahrzeug wenn es eine einen Unfall baut und die die Technik aber den formatige können nachher nicht schon warum wissen was passiert dann habe ich keine Shares dann kann ich doch nicht vorbei ist sondern dass wir ganz wichtiger Aspekt und damit ich
möcht ich für schließen ich hoffe das war ein kleiner Einstieg in das Thema und ich freue mich mit Ihnen dieses Thema den Tag über weiter vertiefen zu können vielen Dank
Loading...
Feedback

Timings

  279 ms - page object

Version

AV-Portal 3.20.1 (bea96f1033d39fbe77f82542458e108105398441)
hidden