Auphonic Subscribe9 Secret Feature Release und Feedback/Future Session
This is a modal window.
Das Video konnte nicht geladen werden, da entweder ein Server- oder Netzwerkfehler auftrat oder das Format nicht unterstützt wird.
Formale Metadaten
Titel |
| |
Serientitel | ||
Anzahl der Teile | 29 | |
Autor | ||
Lizenz | CC-Namensnennung 3.0 Unported: Sie dürfen das Werk bzw. den Inhalt zu jedem legalen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen. | |
Identifikatoren | 10.5446/35470 (DOI) | |
Herausgeber | ||
Erscheinungsjahr | ||
Sprache |
Inhaltliche Metadaten
Fachgebiet | ||
Genre | ||
Abstract |
|
#subscribe921 / 29
4
5
7
8
9
10
11
12
13
14
15
16
17
19
20
22
28
00:00
Spur <Informatik>DiagrammComputeranimation
01:41
SignalFirefox <Programm>VerschlingungEin-AusgabeAlgorithmusMAPBrowserChipkarteSpur <Informatik>Vorlesung/KonferenzBesprechung/Interview
03:14
GoogleEin-AusgabeIT infrastructure librarySpur <Informatik>Folge <Mathematik>Ein-AusgabeComputeranimation
03:57
Computeranimation
04:43
Ein-AusgabeHulk <Computerspiel>Firefox <Programm>HTTPTOUR <Programm>ComputermusikGraphische BenutzeroberflächeURLAlgorithmusLaufwerk <Datentechnik>Einfache GenauigkeitGraphiktablettComputeranimation
05:28
Ein-AusgabeBit
06:08
Dienst <Informatik>URLUseNet
06:47
URLMengeHulk <Computerspiel>Ein-AusgabeFAQTOUR <Programm>MicrosoftJavaScriptBrowserDateiformatFahne <Mathematik>Computeranimation
08:02
Hulk <Computerspiel>Ein-AusgabeFirefox <Programm>World Wide WebTOUR <Programm>MAPLeiste <Technik>Klassifikator <Informatik>Computeranimation
09:27
ÜbergangThreadPhysikalische GrößeKurve
10:21
Ein-AusgabeEin-AusgabeÜbergangEnergieDOS
11:03
TOUR <Programm>HTTPHANS <Datenbanksystem>NeunHulk <Computerspiel>ThreadBeamerComputeranimation
12:08
ThreadAchse <Mathematik>LADY <Programmiersprache>
13:53
TOUR <Programm>EthernetStrich <Typographie>ATMGesetz <Physik>Programm/Quellcode
16:00
Hulk <Computerspiel>Dienst <Informatik>Computeranimation
16:41
Ein-AusgabeEin-AusgabeARM <Computerarchitektur>StrömungswiderstandMAPThreadComputeranimation
18:04
Wurm <Informatik>MIDI <Musikelektronik>HTTPUniformer RaumURLLastTUNIS <Programm>LinseOPUS <Programm>Ein-AusgabeIBMCodeBenutzeroberflächeWeb logMP3VerschlingungSignalFAQQuellcodeInternetdienstMPCBrowserGoogleXMLComputeranimation
18:43
MagnetblasenspeicherOvalURLMetadatenAPLMP3YouTubeIMPACT <Programmierumgebung>APIFacebookWorld Wide WebNeunDienst <Informatik>MUSE <Lernprogramm>UploadingRechenzentrumThumbnailAlgorithmusHTTPLaufwerk <Datentechnik>DesktopMOCCA <Programm>FREDMultiplikationEin-AusgabeDrahtloses lokales NetzCOMStichprobeMAPInternetdienstCW-KomplexeMuleUpdateDienst <Informatik>PRESETParametersystemComputeranimation
19:28
DOSEditorHumanoider RoboterIntegriergerätWorkstation <Musikinstrument>Statisches RAMEin-AusgabeMaximumUSB <Schnittstelle>SystemzusammenbruchWorld Wide WebWeb logABEL <Programmiersprache>Atomarität <Informatik>LOLA <Programm>URLIBMInternetdienstBetafunktionDienst <Informatik>HTTPNabel <Mathematik>GNU <Software>Laufwerk <Datentechnik>DesktopTOUR <Programm>OPUS <Programm>BenutzeroberflächeWurm <Informatik>GoogleMultiplikationComputeranimationVorlesung/Konferenz
20:10
SignalTouchscreenEin-AusgabeComputeranimationVorlesung/KonferenzBesprechung/Interview
20:52
ThreadComputeranimation
21:32
Ein-AusgabeRhombus <Mathematik>Computeranimation
22:37
AlgorithmusLaufwerk <Datentechnik>
23:45
BenutzeroberflächeGeradeSchattierungBeamerSpur <Informatik>Große VereinheitlichungXMLVorlesung/Konferenz
25:16
XML
25:58
Spur <Informatik>Laufwerk <Datentechnik>Ecke
27:30
Laufwerk <Datentechnik>Strich <Typographie>Spur <Informatik>XMLComputeranimation
29:36
VerknüpfungsgliedSpur <Informatik>RuhmasseComputeranimation
30:39
World Wide WebSpur <Informatik>Frequenzgang
31:19
FrequenzgangKlasse <Mathematik>FrequenzMengeInformationKlassifikator <Informatik>LängeStrich <Typographie>Computeranimation
32:02
Content <Internet>SatellitensystemInformationComputeranimationBesprechung/Interview
32:42
Schwarzsches LemmaHausdorff-RaumSpur <Informatik>VerknüpfungsgliedComputeranimation
33:21
ComputeranimationDiagramm
34:12
iPhoneLaufwerk <Datentechnik>BalkenRichtungEinfache GenauigkeitSpur <Informatik>VisualisierungComputeranimationVorlesung/KonferenzBesprechung/Interview
36:09
Version <Informatik>Besprechung/Interview
36:54
EditorAlgorithmusVersion <Informatik>Vorlesung/KonferenzBesprechung/InterviewComputeranimation
37:59
BenutzeroberflächeEditorEntscheidungstheorieKlasse <Mathematik>SenderAlgorithmusKurvenanpassungKlassifikator <Informatik>Computeranimation
39:37
Interface <Schaltung>VisualisierungInhalt <Mathematik>Vorlesung/Konferenz
40:39
VisualisierungInformationSVGVorlesung/Konferenz
41:19
ART-NetzSpur <Informatik>DateiSummierbarkeitSVGWellenformViewerMomentenproblemApp <Programm>VisualisierungLängeDesktopBrowserLösung <Mathematik>AggregatzustandWINDOWS <Programm>RuhmasseVorlesung/Konferenz
Transkript: Deutsch(automatisch erzeugt)
00:15
Wir haben uns heute etwas Neues zu präsentieren, und zwar nennt sich das Audioinspektor.
00:23
Laut unserem Publikum. Ja, Audioinspektor. Schauen wir gleich, ob das da funktioniert mit dieser HDMI-Übertragung. Und zwar, was ist das? Das ist jetzt noch mal ein kurzer Thema und in der folgenden Zeit, wenn ich Details erkläre.
00:45
Ja, Audioinspektor. Man sieht da, da ist Audio. Und man hat da so bestimmte Spuren. Das ist eine Multitrack-Production. Und das ist eine Production von der Katrin und dem Holgi.
01:09
Das mag dieser Bimmer da nicht. Das ist ein Rumsmitschen im Fullscreen-Mode anscheinend. Aha, der freest anscheinend den Computer.
01:26
Naja, da sieht man halt nix. Also, keine Ahnung, was da jetzt los ist. Ja, tun wir rebooten. Der freest anscheinend full da.
01:49
Gut, Audioinspektor. Also, man sieht da, der Sinn von diesem Ding ist. Also man sieht, was unsere Algorithmen wo machen.
02:01
Damit man das genauer analysieren kann. Und man sieht natürlich, wo die verschiedenen Sprecher sind, was unser Leveler macht, wo er wie eingreift. Das heißt, es ist natürlich einerseits gut, um Fehler zu erkennen bzw. Fehler auszubessern.
02:21
Dann sieht man natürlich so Sachen wie Noise Reduction, wo das passiert. Audio-Restaurations-Dinger. Probieren wir mal mit dieser geringen Auflösung. Vielleicht geht das besser für diesen Bimmer. Oder mit einem anderen Browser, vor allem auf der Firefox.
02:47
So, dann hoffen wir, dass das nicht wieder freest. Naja, das war natürlich die falsche. Da habe ich diesen Link da hingemacht.
03:03
Gut. Man sieht das da. Man sieht da die Input Tracks. Das ist eben diese Wochentämmerung von Holger und von Katrin. Und da sieht man schon die einzelnen Spuren. Probieren wir gleich mal, ob das Audio geht.
03:21
Bei mir, da geht es, ja. Und man kann da natürlich zoomen. Also entweder mit der Maus oder mit diesen Buttons da. Man kann natürlich auswählen, welche Tracks man hört.
03:42
Also zum Beispiel, da ist der Input Tracks, da ist Holger. Da hört man das Übersprechen, was da gerade ist. Katrin. Dann haben wir da einen da unten.
04:01
Scrollen kann man eben so, oder da unten. Dann gibt es da eben auch eine Legende, wo das alles erklärt wird. Aber auf das gehe ich jetzt dann im Laufe des Vortrages ein. Was das alles heißt. Probieren wir mal, ob das geht. Fullscreen. Scheint jetzt zu funktionieren. Da sieht man jetzt weniger bei dieser schlechten Auflösung.
04:20
Da oben sieht man natürlich auch die Transkripte. Wo man natürlich suchen kann. Republikana zum Beispiel. Und da sieht man gleich das Audio-File. Und man kann da hören. Also es ist schon konservativ. Und guck mal, vielleicht zur nächsten Woche. Aber das muss dann ... Gut, dann erklären wir mal, was das alles heißt.
04:42
Also nennt sich Audio-Inspektor. Und jetzt erklären wir die einzelnen Sachen, was unsere Algorithmen da machen. Das ist ein Beispiel. Das ist ein Beispiel. Das ist ein Beispiel.
05:02
Das ist jetzt eine Single Track Production. Und was sieht man da? Man sieht da mal zwei verschiedene Farben hauptsächlich. Also da gibt es einmal dieses Blau. Dann gibt es dieses Gelb. Und in dem Fall heißt es, das kann man natürlich in der Legende da unten immer schauen, was das heißt. Also gelb sind die Music-Bards.
05:22
Blau die Speech-Bards. Und das kann man da ganz schön sehen natürlich. Das hat es in unserem alten Player schon gegeben. Also da wird Musik gespielt.
05:51
Das ist ein Beitrag von Bayern 2 zum Beispiel. Dann sieht man da so grüne, unterstrichene Sachen. Wo haben wir sowas? Da haben wir sowas.
06:02
Und das da nennen wir Speech Music Transitions. Was heißt das? Das ist so ein Teil, wo Sprache und Musik ist. Beziehungsweise irgendwas anderes, was man nicht so genau einstufen kann.
06:20
Dann können Sie das wieder mal anhören jetzt da. Das kann schon sein. Das kann schon sein. Zu der Zeit frage ich gleich mehr nach. Aber erstmal hören wir Rebecca backen. Rater and Cake. Also in dem Fall, dass ich mir eh da redet, hat die Moderatorin über die Musik sozusagen drüber.
06:43
Vorher war halt die Sprache. Und erst nachher kommt der Musikteil, der eigentliche Musikteil. Das sind einmal diese groben Unterscheidungen da in Sprache und Musik. Dann schauen wir uns ein anderes Beispiel an. Das ist glaube ich eh schon das. Generell zu der Formate wollte ich noch etwas sagen.
07:01
Dieser Player unterstützt natürlich alle Formate, die der Browser so unterstützt. Das sind ja alle üblichen Formate, die die Podcaster so verwenden. Also Wave, Opus, OK, MP3, AC. Was gibt es noch? Dann Flak zum Beispiel wird auch schon von fast allen Browsern nativ unterstützt.
07:21
Also die neuesten Chrome, Firefox, wie heißt der Internet, der Microsoft Edge. Die unterstützen alle schon Flak nativ. Bis auf die ganzen Apple-Geräte natürlich. Dafür gibt es so einen JavaScript-Flak-Decoder. Der nennt sich Aurora. Also auch auf Safari und auf iOS
07:42
wird auch Flak und Alak unterstützt. Aber es wird halt per JavaScript decodiert. Dadurch ist es natürlich langsamer. Aber es geht. Und jetzt das nächste Beispiel, das ich kurz demonstrieren will. Wo sieht man da mal diese dunklen Bereiche?
08:03
Level Example 2. Da sind wir in diesen dunklen Bereichen. Und diese dunklen Bereiche, wie haben wir das da genannt? Amplification Segments. Dann gibt es noch so helle Bereiche, die sind im nächsten Beispiel besser zu sehen. Das bedeutet, dass in diesen Bereichen,
08:25
dass in diesen Bereichen ein hohes Gain von unseren Leveler angewendet wurde. Das kann man da natürlich schon sehen. Weil da die Input-Datei ist, da haben wir die Legende offen. Die Input-Datei ist natürlich da sehr leise
08:41
und da sehr laut. Schauen wir mal, ob man das hört. Das ist Sprecher gesprochen, Henrik Düker. Die Energiewende ist im Prinzip die einzige Möglichkeit für uns. Und das heißt, in diesem Bereich wird von unserem Leveler natürlich viel Gain dazugegeben, damit dieser Bereich lauter wird.
09:02
Da ist eben ein Klassifikator dahinter, der schaut eben wirklich, ist da jetzt Sprache drinnen oder ist da jetzt irgendein anderes Nebengeräusch. Dann würde er das natürlich nicht verstärken oder atmen oder sonst irgendwas. Und dann hört sich das natürlich ausgeglichen an.
09:22
Dann sieht man da jetzt noch eine andere Einzeichnung, in der wir bis jetzt noch nicht gesehen haben. Das ist dieses Orange da. Da gibt es einerseits ein oranges und ein gelbes. Das ist fade down, fade up. Was heißt das? Wenn man so einen großen Lautstärkenunterschied hat, wie man es da hat, muss man natürlich irgendwann den Lautstärkenregler sozusagen runternehmen
09:42
oder auftun. Und ziemlich schnell, also wenn der Übergang so kurz ist. Und in diesem Bereich, wo diese Dinge sind, passieren diese schnelleren Fades. Es gibt natürlich überall langsamere Fades, aber das sind diese schnelleren Fades. Und das ist jetzt natürlich ein fade down.
10:02
Auf diesem Bereich haben wir einen hohen Gain gehabt, da ist viel Verstärkung gewesen. Dann gibt es da ein fade down mit der Gain Kurve und da ist jetzt weniger Verstärkung. Schauen wir mal, ob man das da hört. Also im Endeffekt ist das genau an dem Punkt, wo eben der Übergang sozusagen ist zwischen den Bereichen.
10:22
Das Umgekehrte ist dieses Gelbe, das ist ein fade up. Also da ist vorher sozusagen ein lauter Bad im Input. Da ist ein leiser Bad. Dann ist da wieder ein lauter Bad. Das heißt, da muss der Gain angehoben werden, genau in diesen Übergang, das sieht man da ja schon. Und da muss er dann wieder runtergezogen werden, also wenn es dann da wieder laut wird.
10:41
Hören wir uns da einmal das Input an. Es ist für mich eine Notwendigkeit. Genau, dann haben wir da wieder diese grünen Bereiche.
11:06
Das heißt, bei diesen grünen Bereichen ist wahrscheinlich irgendeine Musik im Hintergrund. Hören wir mal. Genau, also es ist Sprache, aber es ist halt eine Musik im Hintergrund oder irgendwas anderes. So, das waren jetzt diese Fades und diese Amplification-Segmente.
11:24
Dann schauen wir uns das nächste Beispiel an. Und zwar, Example 3. Also das ist immer Sprache.
11:43
Also das ist normale Blau, sozusagen normale Sprache. Das ist sehr dunkle Blau, was man da jetzt auf die Farben... Sprache, das ist ja auch auf Sprache. Ja, das ist dunkles Blau, das sieht man auf dem Beamer jetzt nicht so gut. Wenn Musik lauter gemacht wird? Bei Musik wird das ganz anders geregelt.
12:02
Da gibt es diese Unterscheidungen in der Form nicht. Aber das sieht man jetzt bei dem Beispiel eher ganz gut. Da sieht man jetzt auch die ganzen Noise-Reduction-Segmente, beziehungsweise Hum-Reduction-Segmente. Und was ist das? Da ist jetzt am Anfang eine Musik. Das war so ein Beitrag vom Kongress.
12:26
Und so weiter und so fort. Und dann ist da eben so eine Anmoderation. Oder ist das die Rede von Tim?
12:40
Genau, das ist sozusagen die Rede und da hinten redet dann der Moderator. Schauen wir mal. Man merkt halt, das ist jetzt eine Aufnahme, die ist direkt vom Kongress. Also da wird das unterscheidet, das ist unser neues Reduction-Ding. Okay, hier muss ich ein eigenes neues Profil ausrechnen und hier ein anderes.
13:01
Weil das ist jetzt sozusagen die Studieaufnahme. Da sieht man hinten, da bei dieser Studieaufnahme ist anscheinend ein bisschen ein Brum dabei.
13:21
Das ist dann eben der Studiobrecher sozusagen. Da haben wir wieder diese Übergänge, weil das da jetzt Enthalizer. Das heißt, wir haben da wieder so ein Fade.
13:44
Da haben wir wieder ein neues Profil. Und das sehen wir natürlich wieder in der Legende. Wenn man den richtigen Button drückt. Da haben wir jetzt eben diesen D-Hammer. Das sind sozusagen die Striche unten mit der Herzanzahl,
14:02
welcher Netzproben identifiziert worden ist. Und da die Neues auch, das sind die einzelnen Segmente eben eingezeichnet und wieviel neues Reduction in diesem Segment angewendet worden ist. Die anderen Sachen kennen wir schon. Gut.
14:21
Ja, das zeige ich gleich. Ah, das habe ich vergessen. Da habe ich da ein Beispiel. Warte, ich kann dir das zeigen. Das ist mein Exempel, das ich mal da aufgenommen habe.
14:45
Also da rede ich sozusagen leiser. Das wird dann natürlich verstärkt. Und da hört man, da ist einfach so Atmen im Hintergrund. Wenn ich jetzt nur verstärken würde, das sind jetzt eben diese grünen Bereiche.
15:02
Wenn das jetzt eine Sprache wäre, dann müsste ich diese verstärken sozusagen. Deswegen bei diesen grünen Bereichen, da ist sozusagen klassifiziert worden. Nein, da ist jetzt keine Sprache. Deswegen muss ich das jetzt nicht aufziehen, so wie da jetzt. Also das sind die grünen, also die helleren und die dunkleren Segmente und das sind die normalen Sprachsegmente.
15:21
Wofür steht grün in dieser Wand? Das Hintergrund grün. Das ist wieder, dass das weder Sprache noch Musik ist. Das ist genau das, was ich gemeint habe. Das sind eben diese No-Amplification-Segments. Da ist gerade ein besserer Name eingefallen.
15:53
Warte noch ein paar Minuten und dann zeige ich dir da was.
16:00
Nicht vorgreifen. Gut, dann gehen wir mal weiter zum Housecleaner. Man sieht natürlich, das ist leider jetzt ein bisschen klein, der Bildschirm. Die Auflösung. Aber machen wir Fullscreen. Das ist leider ein bisschen zu klein jetzt. Aber man sieht natürlich, da kann man Videos und so weiter auch alles reinbauen.
16:38
Wenn wir eine gute Auflösung hätten
16:40
und ein besseres Netzwerk, dann könnten wir da schön die Videos und Audio-Synchron-Input-Output anhören und anschauen. Ansonsten ist da natürlich alles gleich. Das war nur das Video-Feature. Dann, was man da auch noch ganz schön sieht,
17:02
das geht natürlich auch mit diese Audio-Gram-Videos. Das ist im Prinzip auch nur ein Video. Da sieht man auch, diese Production ist ganz schön, die hat viele Chapters und zu jedem Chapter haben sie auch ein anderes Bild.
17:22
Also man hat dann so ein schönes Bildwechsel immer dabei. Man sieht da wieder schön den Leveler eben, zum Beispiel da, wie er eben diese leise Segmente da raufzieht und halt dann die Lautstärken ausgleicht. Das sehen wir vielleicht mal kurz.
17:54
Da sieht man wieder schön die Fades und diese schwarzen Segmente und so weiter und so fort.
18:01
Schauen wir da nochmal kurz in die Production rein. Also da sieht man eben, die hat viele Chapters und auch diese Chapter-Bilder. Diese Chapters sieht man natürlich auch im Player. Die werden da oben hingeschrieben. Nicht so aufregend.
18:23
Und was wollte ich jetzt raus? Genau, weil es viele Leute noch nicht kennen. Ein kurzer Exkurs. Wir haben jetzt so ein neues Help-System, also neu, also dieses Jahr mal eingeführt. Wer das noch nicht kennt, das gibt jetzt überall diese Fragezeichen daneben. Und dieses Help-System
18:41
ist ziemlich umfangreich. Also alles, was wir eben... Ja, da wird halt alles ganz genau erklärt, was die einzelnen Felder sind. Da kann man sich das alles anschauen. Überall mit Screenshots vom Web-System, Productions, die ganzen Externalservices erklärt, was man da einstellen muss. Bla, bla, bla. Natürlich Multitrack Presets.
19:01
Dann auch die ganzen Tester-Programme werden da zum Beispiel erklärt, auch wirklich was die Parameter heißen. Das steht... Wo steht das? Da unten irgendwo. Also da wird das auch, was diese einzelnen Einstellungsfelder da heißen, wird da alles erklärt. Audio-Argorithmen werden natürlich
19:21
erklärt. Unsere API, diese Dokumentation für die API hat sie schon länger gegeben, das haben wir jetzt immer weiter mit dem anderen. Oder auch von den ganzen mobilen Geschichten. Also, wenn wir was nachschauen sollen, dieses Help-System ist mittlerweile schon ziemlich ausgefeilt und wird immer weiter gefeilt.
19:42
Weil das alles automatisch erstellt wird, direkt aus den Dokumentationen von da auch, was man da sieht. Das ist ein ganz schönes Ding. Gut, das war nur ein kurzer Exkurs. Dann kommen wir zu den spannenderen Sachen. Und zwar... Bla, bla, bla. Haben wir schon gezeigt. Schauen wir uns da mal
20:01
den Multitrack jetzt an. Das ist wieder ein Multitrack-Beispiel. Aber jetzt versuche ich doch noch einmal die Auflösung da ein bisschen draufzustellen. Sonst ist der Screen ganz einfach etwas klein. Hoffen wir, dass das nicht wieder freezes.
20:22
So. Ja. Gut, das ist jetzt ein Multitrack-Beispiel. Jetzt kann ich ja da meine Notizen lesen. Da sieht man, bei Multitrack ist das jetzt ein bisschen anders. Also wir kennen jetzt schon...
20:41
Also da ist der Output-Track, wie man da sieht. Und da eben die einzelnen Input-Tracks. Die kann man einfach mit klicken natürlich auswählen. Und... In den Input-Tracks ist die Farbe in Zeitung gleich, wie das bei Singletrack war. Also da gibt es diese schwarzen Bereiche, die halt mehr verstärkt werden. Dann gibt es diese Fades.
21:01
Dann gibt es diese normalen Bereiche, wieder diese hellen Bereiche. Oder es werden natürlich diese Noise-Reduction-Segmente eingezeichnet, bzw. da Hum-Reduction. Also diese Input-Files schauen genau gleich aus wie die Singletrack-Files. Hier haben wir einen Musik-Track. Das sind die Musiksegmente.
21:20
Und im Output schaut das jetzt ein bisschen anders aus. Im Output hat eben jeder Sprecher jetzt eine Farbe. Und jetzt haben wir natürlich drei Farben. Das sind zufälligerweise genau die gleichen wie da. Aber in dem Fall heißt das einfach, dass jeder Sprecher eine andere Farbe hat. Das sieht man natürlich eine Legende. Also beim Input ist es eben so, wie wir vorher schon gehabt haben. Beim Output ist jetzt gelb die Musik. Schwarz ist da Martin.
21:42
Blau da Mike. Das ist das andere da Nate. da klären wir mal rein.
22:13
Und da sieht man auch eben diese gelbe Einzeichnung dahinter. Das heißt, dass da im Hintergrund noch immer Musik spielt. Das sieht man da unten, dass da noch Hintergrundmusik ist.
22:21
Das wird dann oben im Output-Track eben so leicht gelb als Hintergrund eingezeichnet. Dieses Blaue ist jetzt eben da Mike Moody. Man sieht es auch oben im Transkript. Jetzt hören wir uns mal da so eine Wechselpassage an.
22:55
Und so weiter und so fort.
23:02
Ansonsten Ansonsten hört man auch eben schön, dass eben diese in der Multitrack-Version diese ganzen Audio-Restaurations- Algorithmen natürlich per Track gemacht. Das heißt, man sieht da eben unterschiedliche Profile in unterschiedlichen Tracks. Da sieht man eben, dass da ein Brum drinnen war. Das wird man da jetzt über
23:20
meine Computerbox wahrscheinlich nicht hören können. Nein. Aber es ist. Würdest du mir glauben. Und da zum Beispiel nicht in diesem Track und so weiter. Also das wird natürlich pro Track gemacht. Gut, nächstes Beispiel.
23:45
Geht das so? Das ist jetzt ein NSFW-Beispiel. Und was sieht man da? Da sieht man wieder viel Musik.
24:14
Ja, ich wollte das gerade. Und zwar sieht man da jetzt eben zwei Farbenversprecher, weil eben nur zwei
24:20
Sprecher sind. Also Holgi und Tim. Und Musik. Und da ist eben noch Hintergrundmusik. Deswegen haben wir diese Schattierung bzw. wir sehen sie direkt, wenn sie das Einzelne ist. Also die Sprecher überschreiben sozusagen in der Outputspur immer die Hintergrundmusik.
24:47
Und dann haben wir da jetzt noch was anderes. Das ist ein bisschen ein dunkleres Gelb, was man da auf dem Beamer so gut sieht. Und das dunklere Gelb heißt, dass diese Musik jetzt im Hintergrund gegeben worden ist. Da ist die Musik sozusagen im Vordergrund.
25:01
Da ist sie als Hintergrund klassifiziert. Also das läuft jetzt immer im Hintergrund. Da können wir mal hören. Also man hört dieses Geblabel da einfach im Hintergrund. Darf ich mir was aussuchen? Egal was ich sage, es ist immer falsch. Das ist gar nicht schlecht.
25:26
Beziehungsweise im Gegensatz, das ist wieder Vordergrund jetzt. Und so weiter. Also das sind die
25:42
verschiedenen Musikteile, also Hintergrund, Vordergrund. Dann gibt's da natürlich noch was. Und zwar gibt's da auch eine schöne
26:00
Production mit Musik. Da hat man jetzt wieder drei Sprecher und einen Musiktrack. Man sieht hier auch ein Intro. Also da ist nichts in diesen Tracks. Das ist einfach ein Intro. Können wir mal hören.
26:24
Und in dem Fall ist das jetzt Musik, aber als Ducking spezifiziert. Das heißt, da haben wir da den Musiktrack, da die Sprache. Hören wir mal kurz da, weil es das Netzwerk schafft. Hören wir die mal da.
26:46
Also man hört. Also die Musik wird eben automatisch untergeregelt, wenn dieser Track zum Sprechen anfängt. Dadurch wird es dunkel eingezeichnet. Beziehungsweise hell, wenn es
27:01
im Vordergrund ist, wieder gleich wie vorher und dunkel, wenn es dann in den Hintergrund zurückgelegt wird. Das sind wieder die drei Sprecher. Diese Spur ist der dunkle. Diese Spur ist die Farbe. Und diese Spur ist diese Farbe. Gut. Dann kommen wir jetzt zu was
27:21
der Tim vorher gemeint hat. Das ist auch ein neues Feature. Sehen wir das schon? Und zwar, was der Tim vorher angesprochen hat, ist ja genau das, dass du eben verschiedene Tracks hast beim Multitrack. Und teilweise ist er der Sprecher,
27:41
der sagt nur oder halt atmet laut oder irgendwas. Das ist dann sozusagen das Problem ist, beim Multitrack werden ja die einzelnen verschiedenen Tracks werden gegated. Das heißt, wenn so ein Track, da geht ziemlich viel ab, das heißt, wenn so ein Track nicht aktiv ist, dann wird er einfach stumm geschalten, damit
28:01
die ganzen Störgeräusche von diesem Track jetzt gar nicht reinkommen in diesen Outputmix. Jetzt gibt es natürlich immer so kleine Dinge, die trotzdem passieren in diesen Tracks, wie man hier sieht. Und man will natürlich nicht, wenn da jetzt nur irgendein kleines Rauschen ist oder atmet, dass man deswegen diesen Track aufzieht, weil es natürlich komisch klingen kann, und natürlich die Störgeräusche reinholt.
28:23
Und deswegen haben wir da jetzt einen neuen Classifier gebaut, wo ich gestern schon von zwei Leuten Kritik bekommen habe. Weil wir haben den vor ein paar Wochen, oder vor wahrscheinlich schon einigen Wochen, schon online geschalten, aber am Anfang hat er natürlich noch nicht so gut funktioniert, weil wir erst am Daten sammeln waren. Aber ich dachte, das hat sich keiner
28:42
beschwert, also es wird schon egal sein. Aber jetzt gestern haben mir ein paar Leute gesagt, dass sie das doch bemerkt haben. Aber jetzt hat mir keiner eine Mail geschrieben, also wenn ihr was seht, bitte nur eine Mail schreiben, dann baue ich das einfach wieder aus. So, ich suche Experimente. Jedenfalls, ab jetzt soll es funktionieren. Ich weiß nicht,
29:00
wie ich anschreiben. Jetzt zeige ich mal, was das macht. Und zwar, man sieht da diese roten Striche schon. Und diese roten Striche, dieser Tennis Track war glaube ich ganz interessant. Das war dieser Eintracht Frankfurt Podcast.
29:20
Ist das der Tennis, der da ist? Ich habe keine Ahnung. So, man sieht da schon diese roten Striche. Vor allem bei dieser Tennis Spur ist eben oft das hinten so, hören wir mal rein, ganz einfach. Also da hört man,
29:43
wenn man was hört, dass eben das Gate auf seinem Mikrofon aufgeht. Dann kommt so ein leichtes Rauschen rein. Und das kommt bis da natürlich ein Signal dazu, was nicht wünschenswert ist. Im Vergleich dazu kann man natürlich andere Signale anhören.
30:02
Das ist jetzt auch nichts. Oder was haben wir da? Wie kommt man in diesen Modus, dass nur diese eine Spur aktiv ist? Du brauchst nur da reinklicken.
30:22
Wo du siehst, da steht muted. Wenn du da reinklickst, dann ist sie unmuted. Jetzt haben wir die Basti Spur, die dann nur deinem Steckpass so was aushebeln kann. Und das hat stattgefunden. Die hat das nicht in dem Maße ausgenutzt, wie das geil gewesen wäre, um zu gewinnen. Oder in der Spur
30:42
Mara, hören wir uns da so Sachen an. Das ist ein bisschen lauter, das kann man wahrscheinlich besser hören. Sehr interessant. Was kommt da jetzt?
31:03
Also den Laucher nimmt man zum Beispiel nicht raus, aber was haben wir da? Oder noch ein Beispiel? Du unterscheidest das an Frequenzgang
31:21
nicht an der Länge, ne? Das ist sicher etwas anderes. Ja, ein Frequenzgang in dem Sinn, dass es ein eigener Klassifikator ist, der auf diese Files trainiert ist. Da sind natürlich alle möglichen Frequenzinformationen
31:40
drin. Aber es hat schon noch mit der Länge zu tun. Wir machen das jetzt nur für kurze Segmente. Beziehungsweise auch nicht für alle kurze Segmente. Man sieht manchmal so nicht diese Striche. Das heißt dann, dass die sowieso weg sind, weil er sowieso nicht immer aufmacht. Aber wenn er jetzt aufmachen würde, sozusagen das geht, dann wird geschaut, wenn es ein kurzer Teil ist, wenn es ein langes
32:01
Teil ist, so wie da, dann kann man das eh nicht machen, weil dann ist da eh Content drin. Aber wenn jetzt ein kurzer Teil ist und du willst jetzt, du weißt nicht, soll ich jetzt diesen kurzen Teil aufmachen, weil das zahlt sich eigentlich nicht aus.
32:21
Dann musst du halt schauen, ist das jetzt ein Ja, was ja auch sehr kurz sein kann und eine Information beinhaltet, was eben am Anfang das Problem war, dass wir bei Ja oder so Sachen rausgeschnitten haben. ja, das macht du jetzt im Prinzip. Ich bin mittlerweile, wenn ich gerade kassöre,
32:41
sehr allergisch gegen Rauschfahren hin. Also so ein kleines Schmatzer oder Rollstuhl oder sowas, das fühlt mich eigentlich gar nicht, weil das sich im Gesamtblix irgendwie völlig verliert. Was wirklich nervig ist, dass er so hinten reinzieht manchmal, weil das geht einfach nicht schnell. Ja gut, das ist was anderes, weil das sind Pumpen-Artefakte.
33:02
Genau. Also sowas gibt es bei uns sowieso nicht, weil unser Gate auch noch funktioniert. Wir sind durchaus Podcasts, die durch auch von Nick Laufen bekannt, wo ich das irgendwie ein bisschen früher war. Ja, wahrscheinlich haben sie vorher schon ein Gate verwendet, irgendwo anders. Das ist meistens das Problem. Man sieht ja da bei dieser Spur von
33:21
Dennis, schau, da hast du ja so ein Pumpen schon drinnen. Wo haben wir so Beispiele gehabt? Wo war denn der rote Strich? Da hörst du auch immer schon so ein Pumpen, siehst du? Das ist das Gate,
33:40
was ihm da schon aufgeht, dann wieder zugeht. Die haben das vorher schon irgendwie gegated gehabt. Jo, dann, das ist natürlich noch nicht alles.
34:00
Das Über-Feature ist ja, das kann ich jetzt leider nicht präsentieren, weil der Chromecast nicht funktioniert, aber ich kann es einfach so zeigen, das alles funktioniert natürlich am Handy, genauso. Und zwar, ich zeige euch das jetzt einfach so her.
34:23
Man hat da nämlich natürlich den gleichen Player, und ich kann da natürlich auf Fullscreen gehen, also entweder so im Portrait Mode, das ist jetzt eine Single Track Production, wo ich diese zwei Spuren bearbeiten kann. Natürlich kann ich
34:41
den anderen Mode wechseln. Wo du es gerade sagt, das war eigentlich jetzt ein interessanter Versprecher, wo ich es bearbeiten kann. Also es ist ja letztendlich immer nur eine Exposed Visualisierung. Ich hätte jetzt nicht die Möglichkeit da reinzugehen und zu sagen, ne, genau den Edit möchte ich da aber nicht haben. Oder ist das ein schneller Feature, was gleich noch kommt?
35:00
Nein, aber dazu sage ich später noch was, ja. Ich wollte auch gerade nachfragen, wozu braucht ich das eigentlich alles? Natürlich kann man das bei Multitrack auch machen, insofern die Screengröße das erlaubt. Also man hat dann halt die
35:21
verschiedenen Tracks und so weiter. Man kann das am Handy ziemlich gut bedienen. Das einzige Problem bei iOS ist natürlich wieder, dass iOS diesen Fullscreen Mode nicht unterstützt. Vielleicht geht es am iPad, das weiß ich nicht, aber am iPhone geht es zumindest nicht.
35:40
Aber gut, man kann es auch ohne diesen Fullscreen Mode ganz ziemlich komfortabel bedienen. Dann hat man halt immer noch diesen Balken oben, wenn man in die falsche Richtung scrollt, aber es ist trotzdem bedienbar. Fullscreen Mode ist natürlich besser. Also es war jetzt in beiden Fällen jeweils der Webbrowser?
36:01
Genau, das ist einfach die gleiche Url, den wir da auch anschauen. Und das ist halt einfach das mobile Styling dafür, also responsive. Jo, von der Performance her hat mich echt überrascht, wie gut es funktioniert, weil es extrem schnell ist, auch am Handy
36:21
und so weiter und so fort, also man kann da wirklich alles machen, was einem so beliebt ist. ja, was soll das Ganze natürlich? Also das ist jetzt sozusagen die erste Version von dem Audio Inspector. Und
36:40
der Sinn ist natürlich, dass man also für mich persönlich natürlich um Fehler zu finden, um Sachen zu checken, beziehungsweise die Leute können da selber genau checken, wo was passiert und wo ob es irgendwo Fehler gibt. Natürlich ist es sehr verlockend, dass man da Editing Features einbaut, weil da im Prinzip im Prinzip ist das ja nicht
37:00
viel Arbeit mehr. Wie zum Beispiel natürlich Transkripte bearbeiten oder oder wenn ich jetzt zum Beispiel sage ok, na diesen Ding der war jetzt falsch und den will ich lieber raushauen. Laut dieser Speise, theoretisch können wir natürlich den kompletten Audio Editor bauen, was jetzt kurzfristig
37:22
unser Ziel ist. Aber kann natürlich schon mal passieren. Und das lustige bei diesen Editing Features ist, einerseits will man mal weitere Visualisationen noch machen, was die
37:40
Algorithmen so machen. Also ich habe jetzt natürlich nur ein paar Sachen gezeigt, die jetzt in der ersten Version noch mal nach außen angezeigt werden. Da gibt es natürlich noch viel mehr Sachen, die man einseiten kann, die halt hauptsächlich für uns intern mal sehr interessant sind, aber vielleicht auch noch außen freigeschalten werden. Und das andere Interessante ist natürlich, ich bin selbst dann auf so viele Fehler drauf
38:02
gekommen, seitdem ich mit dem Editor herumspiele, weil sonst sieht man das einfach nicht so in diesem Detail-Reichtum. Aber was eben schon interessant ist, wenn man so bestimmte Entscheidungen beeinflussen kann oder vielleicht ein Volume Curve oder irgendwas, dann ist das natürlich auch für die ganzen Klassifikatoren total ein super Feedback, weil ich zum Beispiel sage,
38:22
diesen will ich da nicht haben. Das heißt, ich kriege dadurch natürlich auch super Trainingsdaten, um so einen Algorithmus zu entwickeln, bzw. weiterzuentwickeln. Und das ist natürlich schon sehr interessant. Zum Player.
38:45
die Hauptarbeit vom Player, damit nicht ich da die ganzen Credits kriege, hat der Ben gemacht, der Ben Zimmer, den wir schon alle von Bodigy kennen. Der hat sich da jetzt in den letzten Wochen und Monaten mit diesem Inspektor beschäftigt.
39:02
Und ja, er ist leider nicht da, aber ihm gilt der Dank. Dann, ansonsten, wir werden natürlich die ganzen Details zu dem Ding nächste Woche werde ich einen Vlogpost machen, wo ich das nochmal alles erkläre, damit man das nachlesen kann.
39:20
Und, ja, das war es einmal von mir. Bei Fragen, gerne. Über das reden wir dann nächstes Jahr.
39:42
Aber es wird natürlich passieren. Du hast doch schon immer die Funktion gehabt, dass man die Audiovorwärme als Grafik ausspielen kann. Die war ja bisher jetzt nicht so spannend, aber... Aber diese Burs da oben mit Sprecherwechsel
40:01
und so, die Musik, die wäre schon recht sportlich. Also im Prinzip, über diese Schnittstellen haben wir jetzt noch eine großartige Gedanken gemacht, aber im Prinzip sind die ganzen Daten für diese Visualisierung, die sind alle in einem JSON-File. Also da sind einerseits die ganzen Waveforms, was eben da so angezeigt wird,
40:20
und andererseits auch die ganzen zusätzlichen Daten, die eingezeichnet werden, die sind alle in einer JSON-Datei und aus denen wird alles ganz einfach gezogen und dann dargestellt. Wobei, wenn wir das jetzt zum Beispiel mit einem Player mit reinnehmen wollen, würde das natürlich nicht so interessant, wo eine Verstärkung stattgefunden ist. Ich rede jetzt quasi nur von einer Variante, wo eben diese Musik- und Sprecher-Beschichte
40:41
mit drin ist. Das gibt's schon sehr lang, das haben wir immer schon in unserer Abi drinnen. Also wo diese... Den Sprechern in Farben dann, oder was? Nein, Farben nicht, aber die Zeitpunkte von wo bis wo eben wie sie Sachen sind. Ah, du meinst wirklich die Visualisierung jetzt an sich? Genau, also im Prinzip so wie da oben, bloß ohne die Audio-Korrektur-
41:03
Informationen. Okay, verstehe. Sondern eben nur dieses hier ist Musik und hier spricht die Person, hier spricht die Person, hier spricht die Person, das als Wurst. Oder auf jeden Fall auch als SVG. SVG wäre natürlich besonders interessant, weil das könnte man ja im Prinzip
41:22
in einem Player dann mitlaufen lassen und hätte quasi da schon mal so eine genaue Visualisierung des Gesprächsverlaufs. Genau, man sieht es halt, wenn man das jetzt im ausgezumpten Zustand anschaut, so wie da, dann ist es halt hauptsächlich ein Wurst, so wie du schon gesagt hast. Also das macht halt am meisten Sinn, wenn man dann
41:42
wirklich... Wenn man dann so reinzoomt. Man könnte den Player quasi immer nur so die aktuellen zehn, zwanzig Sekunden vorbei rauschen lassen. Also nicht wieder progressbar, immer auf die volle Länge flex, sondern immer nur auf so einen Ausschnitt mit zehn, zwanzig Sekunden vorher, zehn, zwanzig Sekunden zurück, da müsste man mal ein bisschen umspielen, was der richtige Zoomfaktor wäre.
42:02
Aber wenn man das quasi als SVG bekommt, könnte man das ja einfach durchlaufen lassen und hätte ja, ich weiß noch nicht genau was in meinem Kopf macht, aber ich glaube, das ist ganz sportlich. Ja, wird notiert.
42:24
Team SVG. Fällt im Moment nicht, weil das jetzt halt natürlich neu ist, aber das können wir natürlich in die Desktop App auch einbauen. Wir werden natürlich in die Desktop App auch diesen Player einbauen, das war eigentlich der ganze Sinn der Übung.
42:41
Und insofern kann man das natürlich kombinieren. Also das SVG von Outputspur für Webplayer. Heißt das, also diese Klassifikatoren, die jetzt so atmen und kurze Unterbrechungen und Mikrofonkratzen erkennen und so,
43:02
das ist jetzt nicht nur sichtbar gemacht worden, sondern ab jetzt nimmt ihr das auch erst raus oder wurde das schon rausgenommen und habt ihr das schon gemerkt? Das wurde schon rausgenommen, ja. Aber teilweise auf einer anderen Art und teilweise hat es noch nicht ganz funktioniert. Also das ändert sich jetzt nicht nur die Visualisierung, sondern es ändert sich
43:21
auch gerade der Algorithmus? Der ist schon geändert. Aber ist super, dass man das jetzt sehen kann, weil ich halt oft von Hörern auf so bestimmte Stellen gewiesen werde, oh, da ist die Musik komplett weggegangen oder da war irgendwas besonders laut oder besonders leise oder Musik zu laut
43:41
Man konnte den Sprecher nicht hören, da man sich ja vier Stunden nicht anhört, könnte man dann halt eben wunderbar reingehen, sagen ah ok, da ist eine Stelle und das ist ja sicherlich gut, wenn etwas auf dem Raum ist. Genau und vor allem bei Multitrack ist eben die Fehlersuche extrem schwierig, weil da so viele riesige Dateien runterladen musst und dann musst wieder schauen, wo ist das jetzt genau und das ist eben da im Browser ganz
44:01
schnell, tschack tschack und dann geht's schon. Aber hier sehe ich ja jetzt nur den Gesamtoutput, ich sehe ja nicht quasi den Output der einzelnen Spur in den Gesamtoutput. Also das wäre interessant, wenn ich quasi sehen könnte, für die einzelne Spur was davon
44:21
kommt letztlich in den Mix rein oder dann würde ich ja solche Stellen sofort erkennen können. Na gut, du siehst das. Aber von dem Atmet ist nichts übrig geblieben. So meinst du, ja. Also auf die oberste Spur quasi nochmal einen Filter setzen können, welche der verschiedenen Summen da reinlaufen. Oder die einzelne Spur, oder umschalten in sozusagen
44:42
die Waveform davor und die Waveform da nach sozusagen. Einfach mit einer Tasse. Und ich würde ja empfehlen, anstatt Muted, Unmuted, einfach nur ein M, wenn es gemutet ist und sonst nichts. M, was heißt M? Mute. Das ist das Standard in jeder DAW, ist, wenn eine Spur gemutet wird, hast du da einen M-Button.
45:02
Und wenn er an ist, ist es halt gemutet und wenn er aus ist, ist es halt nicht gemutet. Hier muss ich immer hingehen und lesen, steht da Muted oder Unmuted? Ja, sonst muss halt der M lesen. Aber das M ist da oder ist es nicht da? Ja, ist ja da, schau. Da ist ja Muted da oder nicht da. Und was noch helfen könnte, wäre halt auch die gemuteten Spuren vielleicht
45:22
so auf 80 Prozent Transparenz zu setzen. Mir passiert da rechts zuviel. Bei diesen optischen Details haben wir ziemlich viel herumgespurrt. Aber im Moment wird jetzt ein bisschen ausgegraut. Das Problem ist, wenn du jetzt viel Transparenz setzt, dann siehst du gewisse Sachen ganz einfach nicht mehr und du wirst ja
45:41
trotzdem irgendwie vergleichen können. Dann haben wir auch mal so einen riesigen Mute-Button da in der Mitte gehabt, dass man ganz genau sieht, was jetzt nicht gemutet ist. An diesen Details kann man natürlich noch schrauben. Also an sich kann man sich da an Unterschalen orientieren, also die Farben, die da nutzt werden, also zum Beispiel, dass eben der nicht aktive Mute-Button grau ist oder solo oder sowas.
46:02
Einfach mit mehr Farben auch an diesem Label schrauben. Beziehungsweise, ich würde euch vorschlagen, ich gehe mal zum Sven und lasse euch mal zwei Hup-Paletten geben. Weil unten haben die Farben eine andere Semantik als oben. Dann wäre es sinnvoll, wenn man oben auch aus einer anderen Palette rauskommt. Weil dann kommen die sich überhaupt gar nicht erst in die Quere raus.
46:30
Ich glaube, das kurzfristig nützlichste wäre wirklich noch vorher, nachher für eine einzelne Spur zu sehen. Weil jetzt hast du oben immer halt eine große Soundwurst, die dann
46:40
nicht so viel Erklärungskraft hat, wie wenn ich das pro einzelner Spur nochmal nachvollziehen wollte. Es ist dieses Störgeräusch auch durchgekommen. Jetzt kann ich es mir denken, aber ich sehe es halt nicht. Oder du kannst natürlich in die Output-Quere reinhören und schauen, ob es da ist. Das ist nicht von anderen Sprechern. Du kannst ja auch in der
47:02
Desktop-App zum Beispiel die noch nicht gemixte aber schon V verarbeitete Einzelspuren, die zum Beispiel im Reaper runterlegen. Das siehst du jetzt auch schon. Trotzdem, aber du willst es halt gleich in diesem View drinnen haben, dass du es halt gleich siehst. Ich möchte natürlich auch diese
47:21
irgendwann mal in den Production Chasen nach Reaper Annotations Skript haben, dass man das direkt im Reaper dann abzeigt. Was meinst du? Du meintest ja, das Ding nimmt sich das alles aus der neuen Production Chasen. Ja, nicht diese Production Chasen, was es immer mal gibt, aber
47:41
genau. Dann kann man ja auch andere Parzer schreiben, die das halt als Region in der Farbe im Reaper anzeigen. Das ist nicht dein Job, sondern der Community dann, aber sollte halt relativ einfach machbar sein. Klar, also diese ganzen Einzeichnungen sind einfach Start, Endzeit, Punkt und halt
48:01
es gibt verschiedene Arten von Einzeichnungen, die dann halt definiert und dann halt jeweils Start und Endzeitpunkt. Das war es im Endeffekt. In Sekunden. Und da sieht man eben für alle diese Dinger gibt es eben eine Einzeichnungsort sozusagen.
48:22
Und das wars dann. Jo. Ich muss jetzt was für die nächste Subscribe aufsparen. Ja? Ist das schon Public oder was muss ich tun,
48:41
um es zu kriegen? Ich muss es erst Public schalten. Dann mach ich jetzt sofort. Also mal los. Guter Punkt. Jetzt hier live im Raum, ja? Jo. Noch Fragen?
49:02
Eine Frage hätte ich noch. Jetzt sag mal mal, ich finde jetzt da irgendwas, was mir jetzt nicht gefallen hat von der Verarbeitung oder so, was ich jetzt quasi an euch nennen würde. Das wäre jetzt natürlich ideal, wenn ich jetzt quasi rechts draufklick und dann quasi einfach das melden kann. Und dann hättest du die 10 Sekunden davor, die 10 Sekunden danach, dann kann ich in 2 Zeilen Texte zuschreiben und sagen,
49:21
du warst zu heiß, du warst zu laut und dann hättest du das schon. Das stimmt. Das wäre ideal, wenn du halt ein Work Class extrem schnell raus hättest. Das kann man sicher einführen, ne? Ja, weil ich glaube jetzt müsste ich einen Screenshot machen und dann würde ich halt noch mal sagen, wo ich eigentlich eingenommen bin oder so. Aber ich verstehe auch noch richtig schön, ob wir so einen Work Class machen, um so schnell was ran zu können.
49:41
Bei Digitieren erwarte ich eigentlich nicht, weil deswegen soll es ja automatisch werden. Genau. Ja. Ja. Müssen wir machen.
50:00
So, 3 Sekunden noch. So, jetzt ist es für jeden online.