We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Infrastructure Review

00:00

Formal Metadata

Title
Infrastructure Review
Title of Series
Number of Parts
49
Author
License
CC Attribution 4.0 International:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor.
Identifiers
Publisher
Release Date
Language

Content Metadata

Subject Area
Genre
23
Thumbnail
20:06
25
Thumbnail
38:54
27
31
Thumbnail
50:36
32
Point cloudWalkthroughWalkthroughSlide ruleComputer animationXML
Computer hardwareOrder (biology)Hausdorff spacePhysical quantitySet (mathematics)Wireless LANWeb browserComputer animation
Computer hardwareStreaming mediaWebcamStructural loadBefehlsprozessorScripting languageFilm editingHypermediaComputer hardwareRAMVollständige HalbordnungAtomic nucleusCW-KomplexSystems <München>Online chatWeb browserFilm editingHausdorff spaceStreaming mediaNumber theorySound effectInternetWebcamSelenium <Software>Point cloudSlide ruleCalculationLink (knot theory)ParallelenStructural loadEmoticonBit rateGraphical user interfaceLecture/ConferenceComputer animation
Sound <Multimedia>SoftwareComputer animation
SoftwareImplementationKommunikationRoundingSlide ruleServer (computing)Source codeCodeWeb pageKommunikationRaum <Mathematik>Online chatProbability distributionSoftwareEigenvalues and eigenvectorsWritingTape driveApple KeynoteDecision theoryoutputFunction (mathematics)Asynchronous Transfer ModeNormaleGeometric primitiveSoftware developerStreamlines, streaklines, and pathlinesLemmings <Computerspiel>Computer animation
KommunikationRoundingSlide rulePoint cloudBefehlsprozessorOnline chatTape driveOnline chatNumberStatistikerSoftwareRAMServer (computing)DebuggerLimit (category theory)Web browserHTTP cookieSlide ruleExpert systemMoment (mathematics)Control engineeringArmComputer data loggingStatisticsOpen setInstanz <Informatik>BefehlsprozessorComputer animation
Tape driveZahlStatistikerProgram flowchartComputer animation
Online chatSummationTape driveComputer animation
Apple KeynoteTape driveMaximum (disambiguation)StatistikerComputer animation
Server (computing)Source codeNumberWORKS SuiteCodeWalkthroughOPUS <Programm>Event horizonNormal (geometry)Film editingTape driveGrand Unified TheoryChemical equationWebcamCodeLink (knot theory)Template (C++)File formatOnline chatStreaming mediaComputer animation
Point cloudJSONXMLUML
Transcript: German(auto-generated)
Willkommen zum kleinen Infrastructure Review und ich möchte euch heute ein bisschen zeigen, was wir eigentlich gemacht haben, damit diese Frostcon stattfinden kann, so wie sie stattgefunden hat. Und ja, dazu habe ich
ein paar Slides erstellt, damit ich nicht vergesse, worüber ich reden möchte. Genau, Online-Event. Was ist eigentlich die Problematik? Normalerweise würden wir hier in der Hochschule acht Räume oder so mit einem Setup
ausstatten, würden den Leuten Mikrofone an den Kopf kleben und die können einfach ihren Vortrag halten. Vielleicht noch ein Notebook per HDMI anstecken mit großen Adapter Taschen, alles kein Problem. Und da fällt eine super Qualität raus und wir haben eine eingespielte Pipeline,
mit der man das am Ende alles wieder wunderbar veröffentlichen kann und streamen kann. Das hatten wir jetzt natürlich so leider nicht. Die Leute waren zu Hause und jeder ist mit seinem eigenen Setup halt unterwegs gewesen. Das heißt, wir konnten leider auch nicht so wirklich bei den Leuten das vorbereiten, weil sonst hätten wir wahrscheinlich jeden besuchen müssen
oder uns für jeden in ein paar Stunden Zeit nehmen müssen, um es einzurichten. Deshalb musste irgendwie eine Lösung dafür gefunden werden, die auch abhängig von Internetanbindungen alle möglichen Probleme löst, idealerweise auch die Browser-Kompatibilitätsprobleme
mitlöst und naja, auch irgendwie ein Ready-to-go-Setup halt ist, sodass wir nicht mehr viel irgendwie erklären müssen. Dazu war unsere ursprüngliche Idee, dass wir Speaker-Kits bauen, bei denen wir quasi
einen Raspberry Pi mit einer guten Kamera ausgestattet haben und einen HDMI-Anschluss und die Idee war, okay, die Speaker kriegen diese Box zu Hause hingestellt, stecken Netzwerkkabel rein oder richten WLAN ein, stecken das Notebook dran, setzen sich das beigelegte Headset auf und können ihren Vortrag halten. Und damit hätten wir halt irgendwie
das Problem gelöst, dass wir halt diese Vorbereitungsmöglichkeiten hätten. Wir hätten alles wunderbar remote einrichten können und auch das irgendwie mit den Bandbreiten auf die Internetanbindungen ausrichten können, während wir trotzdem lokal auf der Box in einer besseren
Qualität hätten aufnehmen können. Davon haben wir 30 Stück gebaut und haben damit auch so ein bisschen Spaß gehabt. Leider, leider, obwohl es sehr viel Zeit gefressen hat, ist es zu spät gestartet. Es gab zu wenig Hilfe und, na ja, irgendwie zwei Wochen vor der Veranstaltung waren
wir immer noch an einem Punkt, wo es nicht stabil lief. Da mussten wir dann leider eine Notbremse ziehen und haben uns entschieden, okay, dann setzen wir Big Blue Button lieber als primäres Medium ein, was wir eh aufsetzen wollten für die Workshops und versuchen das ein bisschen besser für die Vorträge hinzukriegen. Die Hardware,
die wir dann gebaut haben, wurde dann auch sehr wenig angefragt, weil in der Zeit bis zur Froskon haben sich die Vortragenden dann teilweise doch ihre eigenen Setups schon zusammengestellt und die Sets,
die wir rausgeschickt haben, sind effektiv am Ende eine fancy Webcam gewesen. Das hat, soweit ich das mitbekommen habe, auch zumindest recht gut funktioniert. Also ist da nicht alles für die Cuts gewesen. Aber was haben wir jetzt eigentlich gemacht? Also Big Blue Button ist halt irgendwie schon mal der positive Effekt. Es ist mit wenig aktiver Hilfe betreibbar.
Sobald der Vortrag einmal läuft, muss man sich eigentlich nicht mehr groß drum kümmern. Man muss nur einmal gucken, dass die Leute halt in die Räume kommen und dazu braucht man eigentlich auch nur, ja, das kann halt jeder aus dem Orga-Team machen. Dazu braucht es keine spezielle Erfahrung im Videobereich. Jetzt aber das Problem, dass in Big Blue Button das mit der
Qualität so ein bisschen schwierig ist. Die Bitraten sind relativ gering und ja, die Tools, die es irgendwie dafür gibt, die sind verstreut über das Internet und es gibt keinen möglichen Punkt, wo man alles Mögliche
dazu findet. Dazu kommt, dass die Recordings, die hinten rausfallen, die, man kann ja so lustige Markierungen auf den Slides machen, zum Beispiel irgendwie, kann ich ja so ein Smiley draufmalen. Wunderschön. Und das landet
nicht so im Recording, sondern die normalen Slides landen da drin, zusammen mit den, ja, Instruktionen, wie quasi gemalt wurde. Das ist so ein bisschen blöd, weil es könnte sein, dass das jemand nutzt und das wollen wir halt irgendwie haben. Und dazu haben wir halt irgendwie Tooling gebaut, um zum Beispiel diese Folien auch zu
exportieren. Dann kommt dazu, dass es keinen direkten Streamingweg gibt. Da mussten wir uns auch eine Lösung für bauen. Da komme ich auf der nächsten Slide nochmal ein bisschen drauf. Wir hatten so ein bisschen das Problem, dass es sehr schwierig ist, realistische Lasttests mit Big Blue Button zu machen, was auch dazu geführt hat, dass jetzt ab und an doch mal was
umgefallen ist. Weil, naja, selbst wenn man das zu Hause auf dem Rechner hat, merkt man ja schon so ein bisschen, wie die CPU doch hart am Arbeiten ist und der Webbrowser auch so ein bisschen ramm schluckt. Und das sind ja schon meistens irgendwie relativ moderne, starke Systeme. Und wenn ich davon jetzt irgendwie
100 Stück zum Testen haben möchte, dann wird das so ein bisschen komplex. Auch irgendwie in der Cloud, da muss man sich irgendwie Freigaben holen für die Anzahl der Kerne. Und das wird dann manchmal so ein bisschen hinterfragt, warum man denn so ein großes Botnet haben möchte. Und dann hunderte CPU Kerne und hunderte Gigabyte RAM nur, um irgendwie
zu testen, ob das Big Blue Button so viel Last aushalten würde. Ja, unser Streaming Setup war am Ende ein Chrome Browser, der mit Selenium gesteuert wurde. Da haben wir dann einige UI-Elemente, wie zum Beispiel den Chat, die User Liste ausgeblendet, die Buttons ausgeblendet,
soweit es möglich war. Und das Ganze wurde dann mit G-Streamer aufgenommen und mit FFM-Pack und Vierfrickel ins Internet gestreamt. Leider drobte ab und an das Audio raus. Das ist ein Bug von Big Blue Button, scheinbar. Da ist plötzlich das Audio weg, ohne dass es einen ersichtlichen Effekt im UI hat. Und der einzige Weg,
das zu recovern, ist die Audiositzung einmal kurz zu verlassen und wieder reinzukommen. Deshalb war ab der Mitte vom Tag 1 auch plötzlich in den Streams überall unten das Hörersymbol sichtbar, damit im Zweifel sich jemand drauf connecten konnte und da einmal draufdrücken kann und das Audio wieder
losläuft, ohne dass alles einmal durchgestartet werden muss. Big Blue Button hat so ein bisschen, also das Audio in Big Blue Button hat so ein bisschen Probleme. Das versucht irgendwie clever zu sein, wer gerade wie sprechen darf und das funktioniert super, wenn eine
Person durchgehend spricht und das funktioniert auch super, wenn viele Personen immer im Wechsel sprechen. Es hat aber totale Probleme, wenn eine Person den größten Teil der Zeit spricht und dann mal kurz jemand anderes dazukommt, was zum Beispiel passiert, wenn zwei Leute parallelen Vortrag gehalten haben. Das unterdrückt
dann das Audio von dem anderen Sprecher für mehrere Sekunden und deshalb haben wir uns einen Custom Multitrack Recorder gebaut, um später solche groben Audio Glitches raus zu retten, wenn wir halt die Vorträge exportieren und schneiden. Dieser Export und Schnitt wird für die meisten Vorträge in den nächsten Wochen
passieren. Für die Vorträge, die in Hörsaal 1 und 3 waren, wird es ein bisschen schneller gehen, weil wir die teilweise entweder als fertiges Video zugespielt bekommen haben oder die tatsächlich an uns gestreamt wurden in einer Variante, in der wir sie halt sehr einfach veröffentlichen können. Einige Talks
finden sich auch schon im ReLive. Der Link ist hier auf der Slide. Den kopiert bestimmt auch jemand netterweise in den Chat damit, der anklickbar ist. Aber das ist halt ein Streamdump. Also der hat halt diese Audioausfälle leider mit drin und ja, da muss man halt irgendwie mitleben oder warten, bis die
richtigen Aufzeichnungen veröffentlicht werden. Dann hatte ich ab der Mitte von Tag 1 auch einen Lautness-Monitor offen, mit dem ich relativ gut sehen konnte, wenn irgendwo das Audio komisch aussah, beziehungsweise komplett weggedroppt ist. Ich konnte nicht
wirklich viel an der Lautstärke ändern. Das ist halt leider einfach das, was aus BQ-Button rausgefallen ist. Aber es war zumindest ersichtlich, wenn der Ton ganz weg war und damit sind die Ausfälle auch größtenteils ein bisschen kürzer geworden, als sie davor waren. Ja, dann der größte Punkt,
der jetzt sichtbar war, war jetzt diese Konferenzseite. Ursprünglich wollten wir halt dann eine fertige Software einsetzen und zwar Vendueless. Leider war die Software zu dem Zeitpunkt vor zwei Wochen, wo wir halt irgendwie endlich mal finale Entscheidungen treffen wollten, noch nicht an dem Punkt, wo wir
wirklich damit glücklich waren. Deshalb mussten wir uns eine Notlösung zusammen hacken. Und die ist halt wirklich gehackt. Deshalb ist der Source Code nicht vor der Veranstaltung veröffentlicht worden, sondern wird das erst nachher, weil wir nicht sicher wussten, dass da keiner Unfug treiben könnte. Ja.
Was diese Software erlaubt, ist halt die Verwaltung von Big Blue Buttonräumen und den dazugehörigen Moderationsrechten. Dazu die Einbindung von Streams und der Fernaktivierung dieser Streams, sodass man auch in dem Raum schon so ein bisschen eideln konnte, den
Vortragenden helfen konnte, alles einzurichten. Und erst dann, wenn es halt wirklich ready war, quasi gesagt hat, okay, jetzt geht's los, dann ist der Stream-Juicer gejohnt und man wusste direkt, okay, jetzt ist auch der Stream live und dann konnte man loslegen. Zusätzlich haben wir dann auch noch einen Chat implementiert. Der
war auch irgendwie im Endeffekt ganz nützlich, so wie ich das mitbekommen habe. Da haben wir einiges an Kommunikation mitbekommen. Falls es irgendwo Probleme gab, dann konnte ich da irgendwie relativ schnell reingucken oder jemand anderes konnte schnell reingucken. Und damit lief eigentlich am Ende alles ganz flüssig. Für unsere Partner
haben wir dann auch kleine Übersichtseiten gestaltet, wo ihr Logo angezeigt wurde und sie halt irgendwie so ein bisschen ihre Beschreibungen reinpacken konnten, sodass man auch weiß, wer ist das überhaupt? Dazu haben wir den Partnern halt angeboten, dass sie halt auch ihre eigenen Big Blue Button Räume bekommen
und da sind auch irgendwie so ein paar Leute vorbeigekommen, vor allem während der Quisse, soweit ich das mitbekommen habe. Und wir hoffen, dass alle unsere Partner glücklich waren mit dem Event. Ja, weiterhin konnte unser tolles Konferenzsystem auch unser Programm importieren, sodass auch auf der Seite ersichtlich war, welcher Vortrag
eigentlich wo stattfindet. Es wäre sonst ein bisschen blöd gewesen, dann hätte man über mehrere Webseiten hinweg alles Mögliche durchsuchen müssen und so war jetzt irgendwie alles schön kompakt an einem Ort und man konnte sich relativ einfach durchklicken. Es waren noch ein paar mehr Features drin, vor allem waren auch irgendwie einiges an Moderations- und Admin-
Features drin, die man so gar nicht richtig gesehen hat. Der Chat hatte zum Beispiel Funktionen, um da so ein bisschen aufzuräumen und wir konnten Moderations-Rechte natürlich für die Räume verteilen. Das hat wahrscheinlich jeder mitbekommen, dass man beim Betreten eines Big-Plubatten- Raums gefragt wird, dass man einen Namen angibt.
Optional konnte man sich halt auch registrieren, sodass der Name permanenter wird. Und mit diesen permanenten Namen konnten wir dann halt auch entsprechend Rechte zum Beispiel für die Workshop-Räume vergeben, sodass die Betreiber der Workshop sich selbst um die Moderation kümmern konnten. Das hat soweit auch ganz gut funktioniert.
Die letzten Buckfixes haben wir dann auch mitten in der Veranstaltung gemacht. So ist uns irgendwie aufgefallen, dass direkt nach dem Start des ersten Workshops dieser von der Webseite verschwunden ist. Darauf haben wir dann festgestellt, dass da eine Negation im Code war. Das haben wir dann gefixt. Und seitdem läuft eigentlich auch alles ganz gut. Und wir haben nur noch so ein
paar kleinen Patches gemacht. Zum Beispiel wollten die Leute von Eventphone ihren Pocktisch auf unserer Seite haben, den sie in ihrem verspielten Server selber gehostet haben. Und da haben wir dann uns erlaubt, die zehn Minuten Zeit noch zu investieren, auch die Teilnehmerzahl aus diesem Raum auf unserer Landingpage anzuzeigen.
Ja, wie gesagt, der Southcode wird demnächst veröffentlicht, vermutlich unter einer MIT-Lizenz, weil ich da recht gute Erfahrungen mitgemacht habe. Es braucht nur noch einen guten Projektnamen, weil der aktuelle Projektname ist eigentlich nur temporär. Der erste Name, den ich einfach random eingetippt habe, habe ich mir gedacht, benutzt niemand,
habe es gegoogelt und es war ein Podcast über Gott und dass er uns liebt. Und dann habe ich mich entschieden, dass ich dem ganzen einfach erstmal temporär Namen geben werde. Ja, Hörsaal 1 und Hörsaal 3 waren so ein bisschen Special Cases, wie schon angemerkt. Die Räume haben wir in OBS gemixt.
Da kam halt irgendwie als einen Input die ganz normalen Streams wie in den anderen Räumen auch vom Big Blue Button direkt. Aber es wurden halt auch voraufgenommene Talks eingespielt und es gab halt auch komplette Live-Einspieler über OBS. Das haben wir dann meistens so gelöst, dass es zuerst eine kleine
Vorstellungsrunde im Big Blue Button gab. Dann kam der Einspieler und am Ende ist man wieder zurück in den Big Blue Button gewechselt und konnte dort dann wunderbar noch Fragen stellen und die sind halt entsprechend auch im Stream gelandet und wir versuchen die halt auch dann in die Aufzeichnung mit reinzukriegen. Wir hatten auch zwei Talks,
die sich komplett um ihre eigenen Fragen gekümmert haben. Das fand ich auch ganz cool. Da haben wir quasi die Arbeit schon fertig. Da setzen wir nur noch einen Start- und Endmarker und dann können wir die Sachen eigentlich veröffentlichen. Ziemlich cool. Dann haben wir auch die Keynote. Die hat vor Ort stattgefunden, weil wir wollten halt
irgendwie unseren Keynote-Speaker so ein bisschen betreuen und den nicht ganz alleine lassen irgendwie. Und dafür haben wir dann das relativ normale CCC-Video-Setup einfach hier vor Ort aufgebaut und konnten das dann halt auch entsprechend in Hörsaal einspielen.
Danach gab es auch wieder eine Fragerunde im Big Blue Button und das hat eigentlich alles ziemlich gut funktioniert. Lessons learned. Mehr Kommunikation mit den Vortragenden wäre echt gut gewesen. Aber da bei uns halt alles erst kurz vor knapp fertig war, war das halt leider echt schwierig. Also ich konnte den Leuten,
die mit OBS streamen wollten, Donnerstag morgens um 5 Uhr leider erst ihre Test-Keys zukommen lassen mit Anleitung, weil davor war einfach keine Zeit, irgendwas vorzubereiten. Und da sind leider auch zwei Slots dabei gewesen, wo es dann so ein bisschen untergegangen ist.
Die haben es aber am Ende auch irgendwie hinbekommen, ihren Talk noch zu halten. Also ist eigentlich nichts besonders schief gelaufen. Wir hatten einige Probleme mit Big Blue Button, wie man das halt so hat, wenn man das im größeren Stil betreibt. Das erste, in das wir gelaufen sind, ist, dass die maximale Größe der hochgeladenen Slides
an diversen Stellen in dieser Software unterschiedlich konfiguriert ist und irgendwie echt unklar war, wie viel das am Ende ist. Und nach vielen Notieren habe ich dann festgestellt, es sind 30 Megabytes und dann mussten wir das noch anheben, weil wir hatten einige mit bildlastigen Slides, die einfach ihre Folien nicht hochladen konnten.
Dann für Fragerunden hatten wir eigentlich die Idee, dass wir die Mikrofone freigeben, aber es war irgendwie so komplex mit diesem Audio-Rejoin. In dem Moment, wo man die Mikrofone freigibt, müssen die Teilnehmer halt erst mal die Komplex-Konferenz verlassen, um dann wieder reinzukommen. Dann kommt noch so ein Echo-Test,
wo man sein Mikrofon testet und dieser ganze Prozess dauert dann irgendwie so 20 Sekunden oder so. Und das ist einfach viel zu nervig und zu lang. Und ja, am Ende ist es darauf hinausgelaufen, dass die meisten Leute einfach ihre Fragen in den Chat geschrieben haben und der Moderator im Raum hat die einfach vorgelesen.
Ja, dann hatten wir halt irgendwie das Problem mit diesen heimlichen und sehr stillen Audio-Drop-Ups, die sich leider nur durch einen Rejoin fixen ließen. Theorie bisher ist irgendwie Limits offener, Websockets und File Descriptor. Aber das ist auch nur eine Theorie in der Praxis. Blockfiles lesen hat keinen
sinnvollen Hinweis darauf gegeben, warum das passiert. Dann gab es noch so ein paar Bequemlichkeitsprobleme. Also zum einen, naja, die Slides, die hier angezeigt werden, die lassen sich halt nicht vom Präsenter ausblenden. Die werden immer angezeigt.
Wenn man die ausblenden will, dann muss das jeder Teilnehmer selber machen, was halt auch dazu geführt hat, dass in den Streams häufig einfach irgendwelche Dummieslides angezeigt wurden in den Frage- und Antwortrunden, weil, naja, die konnten halt nicht einfach ausgeblendet werden. Na ja, und dieses BWB
ist manchmal einfach nur seltsam. Und es waren noch so ein paar kleinere Probleme dabei. Beim Durchforsten der Log-Dateien haben wir dann festgestellt, dass zwei der Server sich mittendrin irgendwie entschieden haben, einfach aufzuhören zu loggen, aber auch nicht so richtig, weil ein paar Sachen wurden noch in die Log-Dateien
geschrieben, nur nicht mehr alle. Das hat das Debugging so ein bisschen schwieriger gemacht. Ja, alles, was wir hier haben, ist in der Hetzner Cloud gehostet, einfach weil es gut und günstig ist. Es soll hier keine Werbung sein. Es geht genauso gut bei anderen, aber man kann sich halt irgendwie an den Ressourcen orientieren,
die wir da benutzt haben. Wir haben jetzt für Big Blue Button sieben Server aufgesetzt, die acht dedizierte CPU-Kerne haben und 32 Gigabyte RAM. Das hat für unsere Räume jetzt recht gut gepasst. Die waren nie irgendwie so voll ausgelastet, aber die haben sich auch nicht gelangweilt.
Also das war wirklich die perfekte Größe und unsere Konferenzen sind teilweise auf bis zu 100 plus Leute gewachsen. Also damit kann man arbeiten. Also wenn man so einen Big Blue Button aufsetzen will, für 100 Leute reicht irgendwie so eine kleine Kiste mit acht CPU-Kernen oder acht CPU-Threads
werden es wahrscheinlich gewesen sein. Und der RAM-Bedarf ist auch gar nicht so groß. Da haben am Ende, glaube ich, auch acht Gigabyte gereicht, aber das war keine Option für uns, weil das sind halt feste Angebote. Die Konferenzseite selber hat quasi gar keine Ressourcen gebraucht. Das hätte man wahrscheinlich auf dem Raspberry Pi laufen lassen können,
aber wir haben auch da ein bisschen größer skaliert. Und ja, das hat eigentlich alles echt gut funktioniert. Dann ein paar Statistiken. Für unsere Big Blue Button-Instanzen hatten wir dann einen Peak bei etwa 200 Teilnehmern über die verschiedenen Räume verteilt,
wobei bei den großen Zahlen meistens ein Raum dabei war, der halt so richtig gut gefüllt war und die anderen halt dann irgendwie nur so ein paar weniger hatten. Was unter anderem auch daran lag, dass in H1 und H3 den größten Teil der Zeit fast nichts los war, weil es halt nur im Stream lief und die Leute kamen halt
erst in den Fragerunden dann dazu, während die anderen Talks dann schon geendet hatten. Wir haben über 500 Gigabyte an Traffic verursacht. Das ist jetzt nicht übermäßig viel, aber es ist auch nicht wenig. Wir haben im Stream Maximalzahl 279 Zuschauer gehabt mit über 800 Megabit die Sekunde,
die parallel rausgestreamt wurden. Das war lustigerweise nicht die Keynote, sondern irgendwann kurz danach. Im Chat haben wir tatsächlich keine Statistik, weil wir das Log durchgehend gelöscht haben und dadurch nicht wirklich weiter zurückblicken konnten, als irgendwie eine Stunde oder irgendwie sowas.
Und an Nutzern, als ich irgendwie um 15 Uhr oder so dieses Slides zusammengeschrieben hatte, haben wir 1.100 Gäste gehabt, die sich angemeldet hatten. Da können einige doppelt drin sein, weil wir machen keine sonderlich persistenten Cookies und wenn man den Browser schließt
und wieder öffnet, kann es schon mal vorkommen, dass der Name doppelt eingegeben wird. Aber um die 1.000 wären es wahrscheinlich schon gewesen sein. Und wir haben über 200 Nutzer, die sich auch registriert haben, unter anderem darunter die Partner und die Workshop-Betreiber, die Speaker.
Dann haben wir ein paar schöne Gafen dazu. Die kann ich jetzt auch mal live zeigen. Das ist vielleicht so ein bisschen besser als hier irgendwie. Wir versuchen mal, dass hier mal, ob das geht.
So, genau. Wir haben hier schöne Statistiken, die uns angezeigt haben, wie viele Leute in den Raum verteilt waren. Das ist tatsächlich der Standard-Dashboard von dem Projekt Big Pro Button Prometheus Export oder irgendwie sowas. Das findet man relativ leicht
und da bekommt man einen relativ guten Überblick über seine CPU-Auslastung. Wenn ich zum Beispiel hier dann mal reinzoome, dann erkennt man ganz gut, okay, das piekte hier dann so bei 60 Prozent und das finde ich halt irgendwie eigentlich eine ganz gute Zahl. Ja, dann kann man hier noch
irgendwie diesen Lautness-Monitor sehen. Da sieht man hier auch wunderbar, wie gerade für meinen Stream der Sound wieder rausgedroppt ist. Da kann ich jetzt nicht viel dran ändern. Das ist jetzt halt leider einfach so. Die anderen laufen aber scheinbar noch wunderbar und in der Seite 3 ist einfach nichts los. Die Seite selber habe ich eigentlich alle gesehen.
Da brauche ich jetzt nicht sonderlich viel zeigen. Für die Moderatoren konnte man halt auch die grauen Buttons anklicken und damit die Räume öffnen, aber ansonsten war auch nicht sonderlich viel anders. Ja, dann noch ein paar Statistiken
für die Streams. Also unser Maximum in Hörsaal 1 waren 206 Leute, die halt irgendwie den Stream sich angeguckt haben. Das war tatsächlich, glaube ich, die Keynote und die anderen Räume,
da könnt ihr selber sehen. Ja, und es ist größtenteils über die moderne Videotechnologie Dash abgelaufen. Das hat auch unter iOS-Devices tatsächlich recht gut irgendwie zwischenzeitlich funktioniert. Ja, da waren wir eigentlich ganz zufrieden mit.
Fazit, erstaunlich guter Eventablauf und bis auf die Audioaussetzer im Stream ist eigentlich auch nicht so wirklich viel schiefgelaufen. So, und jetzt würde ich, glaube ich, einfach noch so ein paar Fragen hier entgegennehmen,
falls ihr da welche habt. Niemals auch Klatsche entgegen. Schreibt die Fragen am besten einfach in den Chat. Hat der TP Livestreaming wahr, tatsächlich an? Das haben aber die wenigsten Leute benutzt. Das war nur so eine Vollweglösung. Und unsere Streams waren auch auf der normalen
streaming.media.ccc.de-Seite und konnten da in allen möglichen Formaten angeguckt werden, wobei da leider ein falscher Link drin war, wodurch so ein paar Sachen nicht funktioniert hatten. Biclobutton benutzt als Codec, soweit ich weiß, VP8 und Opus Audio.
Das Audio ist auf jeden Fall Opus. Und man kann in den Einstellungen auch H264 aktivieren, aber wir haben es jetzt einfach mal so belassen, dass es eigentlich über LVP8 war.
Also, ja, die Startseite sollte ein Template werden für diese Art Events. Wie gesagt, wir werden den Source Code veröffentlichen unter einer Lizenz, die sehr offen ist, dafür, dass halt andere Leute das modifizieren können und auch selber einsetzen können, auch kommerziell, wenn sie das wollen. Also, wir haben da überhaupt kein Problem mit,
wenn da jemand irgendwie Bock drauf hat, das stark zu optimieren. Die Liste des Hardware-Setups findet sich jetzt da auch im Chat. derdreivock.de slash wiki slash project doppel.isdn Da ist nur eine kleine Zusammenfassung. Effektiv ist das halt ein Raspberry Pi 4
mit einer dieser tollen neuen High-Quality-Kameras gewesen. Und vor irgendwie wenigen Wochen oder so gab es die, die ging so ein Link rum zu so China, dem e-Grabbern, die mittlerweile auch überall erhältlich sind,
die für 15 Euro oder so was zu kaufen waren und als normale Webcam funktionieren und eine für den Preis erstaunlich gute Qualität geliefert haben. Den Code wird es wahrscheinlich in meinem GitHub-Profil geben, github.com slash lukas2511
Und es wird irgendeinen Namen haben, der ist jetzt halt leider noch nicht festgelegt. Aktuell heißt das Tool VoktoConf, aber irgendwie fand ich das ein bisschen zu generisch und klingt mehr nach einem Konfigurationstool.
Die Frostcon hat finanziell relativ gut hingehauen, aber ich glaube, das ist ein Thema, was nachher im Shutdown noch behandelt wird. Das gehört jetzt ja eigentlich nicht so in den Infrastructure-Review rein. Sonst noch Fragen?
Die Anzahl der Zuhörer im Vergleich zu einer normalen Frostcon, ja, schwer zu vergleichen. Also wir erheben ja keine richtigen Zahlen auch bei unseren Normal-Events. Und ich glaube, das wurde immer
anhand der Taschen, die ausgegeben gezählt. Und ich glaube, das waren dann irgendwie 2000 Leute. Und wenn wir jetzt irgendwie 1000 dabei hatten, dann die Hälfte. Da fehlen jetzt natürlich irgendwie Leute, die halt irgendwie nur beiläufig mitgekommen sind oder so was.
Also ich würde fast sagen, es waren dieselben Leute da wie immer. Wir verwenden, also ist die Frage, ob wir Scale Light als Load Balancer vor den BQ-Buttons verwenden. Nein, tun wir nicht.
Wir haben tatsächlich einfach statische Zuordnungen zwischen den Hörsälen und den Servern gemacht und so ein bisschen darüber nachgedacht, wann, wo, wie Action ist, sodass sich das möglichst nicht auf einem Server schneidet.
Wenn es sonst keine Fragen mehr gibt, dann würde ich sagen,
beenden wir das Infrastructure Review hier und dann wird es gleich, ich glaube, in Hörsaal 1 noch das Shutdown Event geben. Da wird Bernd dann noch so ein bisschen mehr um das Rahmenprogramm halt erzählen. Und ja, dann noch einen schönen Rest der Veranstaltung.
Und bis dann.