Ganeti – ein (humoristischer) Erfahrungsbericht
This is a modal window.
Das Video konnte nicht geladen werden, da entweder ein Server- oder Netzwerkfehler auftrat oder das Format nicht unterstützt wird.
Formale Metadaten
Titel |
| |
Untertitel |
| |
Serientitel | ||
Anzahl der Teile | 94 | |
Autor | ||
Lizenz | CC-Namensnennung 4.0 International: Sie dürfen das Werk bzw. den Inhalt zu jedem legalen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen. | |
Identifikatoren | 10.5446/45814 (DOI) | |
Herausgeber | ||
Erscheinungsjahr | ||
Sprache |
Inhaltliche Metadaten
Fachgebiet | ||
Genre | ||
Abstract |
|
FrOSCon 201856 / 94
3
7
9
10
13
14
16
19
21
23
25
28
29
30
31
32
33
36
37
39
40
41
43
44
46
48
49
50
53
54
57
67
75
76
77
80
81
85
90
91
92
93
00:00
LARS <Programm>HTTPMengeOpen SourceMengeXMLUMLVorlesung/KonferenzComputeranimation
00:38
MengeOpen SourceChatten <Kommunikation>ServerDebian GNU/LINUXMengeAuthentifikationDebian GNU/LINUXComputeranimationXML
01:23
Debian GNU/LINUXCLIHardwareUpdateServerVersion <Informatik>Computeranimation
02:09
ExpertensystemVAX/VMSWEBKommunikationSoftwareUpdateXMLComputeranimation
04:19
QemuAPIDatenverarbeitungssystemHardwareVerfügbarkeitVAX/VMSComputeranimation
04:56
APIVAX/VMSUpdateUSB <Schnittstelle>ServerAPIProzessfähigkeit <Qualitätsmanagement>XML
06:14
VirtualisierungVirtualisierungGenerizitätGooglePDF <Dateiformat>Web logXMLComputeranimation
06:50
SkalierbarkeitServerVirtualisierungAPIModulBenutzeroberflächeAPIModulMikrocontrollerXMLComputeranimation
07:29
BenutzeroberflächeOpen SourceDebian GNU/LINUXGoogleGoogleDatenverarbeitungssystemComputeranimationBesprechung/Interview
08:14
Computeranimation
09:03
SoftwareSoftwareentwicklerComputeranimation
10:09
SoftwareHASKELLSSHKommunikationVAX/VMSSoftwareSSHFächer <Mathematik>KommunikationVAX/VMSXMLComputeranimation
10:56
VerschlingungXMLJSONComputeranimation
11:58
LARS <Programm>IMPACT <Programmierumgebung>Software
12:39
VollständigkeitEinstein-Podolsky-Rosen-ParadoxKlasse <Mathematik>Computeranimation
13:55
LARS <Programm>Machsches PrinzipJSON
14:38
CLIComputeranimation
15:38
LARS <Programm>RechenschieberVAX/VMSRAMGeschwindigkeitGroßrechnerBesprechung/InterviewJSON
17:04
LARS <Programm>CLIKennzahlVAX/VMSJSONComputeranimation
18:36
ProviderVAX/VMSComputeranimation
19:27
ImplementierungLARS <Programm>VAX/VMSVorlesung/KonferenzProgramm/QuellcodeBesprechung/Interview
20:17
LARS <Programm>ImplementierungSoftwareRSS <Informatik>ComputeranimationVorlesung/Konferenz
20:58
Version <Informatik>UpdateSwitch <Kommunikationstechnik>SkriptspracheParametersystemSAP <Marke>Besprechung/InterviewComputeranimation
22:00
LARS <Programm>Formation <Mathematik>ComputeranimationBesprechung/Interview
22:40
Stochastische MatrixImplementierungLARS <Programm>ImplementierungXMLComputeranimationProgramm/QuellcodeBesprechung/Interview
23:17
LARS <Programm>Zellularer AutomatDebian GNU/LINUXVersion <Informatik>Open SourceRepository <Informatik>ParametersystemRepository <Informatik>Version <Informatik>Programm/QuellcodeComputeranimation
23:56
Version <Informatik>ParametersystemCachingAPIDefaultVersion <Informatik>Debian GNU/LINUXCachingSoftwareXML
25:20
makeCachingp-BlockGruppoidCachingAPIServerBesprechung/InterviewComputeranimation
26:30
Freewarep-BlockInverser LimesFAQFAQp-BlockSIZMAX <Programm>SchnittmengeStellenringKonstanteParametersystemMomentenproblemCodeBesprechung/InterviewComputeranimation
28:45
p-BlockInverser LimesFAQParametersystemGoogleOffene MengeCodeComputeranimationBesprechung/InterviewXML
30:05
GoogleDebian GNU/LINUXUbuntu <Programm>Besprechung/Interview
31:06
Debian GNU/LINUXSoftwareComputeranimation
32:07
ParametersystemDebian GNU/LINUXXMLComputeranimation
33:03
iSCSIp-BlockKernel <Informatik>VAX/VMSt-TestDrahtloses lokales NetzGroßrechnerChipkarteInformationVirtuelles privates NetzwerkDebian GNU/LINUXMomentenproblemUpdateAPIKerndarstellungWEBARM <Computerarchitektur>ComputeranimationBesprechung/Interview
39:04
MenütechnikRAMApp <Programm>Dienst <Informatik>VAX/VMSInformatikComputeranimation
39:53
MaximumSinusfunktionNoten <Programm>MengeComputeranimation
40:29
World Wide WebIMSVAX/VMSWEBComputeranimation
41:05
BIND <Programm>PACEVAX/VMSGebäude <Mathematik>RichtungServerMagnetbandlaufwerkBewertung <Mathematik>FestplatteGoogleSoftwareproduktSystems <München>WEBRAMAnwendungssoftwareComputeranimationBesprechung/Interview
46:56
openSUSEComputeranimation
Transkript: Deutsch(automatisch erzeugt)
00:07
Herzlich willkommen zu unserem Vortrag. Ich bin Rikus, ich bin Lars und wir wollen euch was über Garneti und unseren humoristischen Erfahrungsbericht erzählen und warum wir auf Dienstag warten. Und das ergibt sich dann. Ja, wie jede sinnvolle Geschichte
00:26
fangen wir erstmal mit so einem Prolog an zur Einführung. Und zwar erzählen wir wie man mit fünf Servern, einem 10GE Router, so ein bisschen Ablink, jede Menge Gabeln,
00:41
eine Open-Source-Software und so einer Patch-Sammlung eine Menge Spaß haben kann. Und so als Hinweis dazu, wir sind keine Profis, wir machen das in unserer Freizeit und wir können da bei weitem nicht die Zeit reinstecken, die man da reinstecken könnte, um das alles besser zu machen und besser hinzukriegen. Ja, unsere Geschichte beginnt vor zwei Jahren.
01:05
Da haben wir also irgendwie so ein bestehendes Zwei-Server-Cluster auf Basis von Debian und Proxmox 3 übernommen. Das ist übrigens nicht das Cluster, das beginnt erst dann runter, aber das Bild war schöner. Genau, das ist der zentrale Authentifikations- und
01:28
Das hat auch alles grundsätzlich funktioniert, so ist es nicht. Das DRBD war irgendwie komisch und wie wir dann später herausgefunden haben, eingerichtet. Das geht sicherlich
01:40
besser. Und die Verwaltung, wer das schon mal gemacht hat mit Proxmox, weiß das vielleicht, also das ist so ein mäßig bisgammliges Webinterface, was man da primär verwenden soll. Hat auch eine CLI, die ist aber auch nicht so toll. Ja, und dann standen bei uns so Hardware-Upgrades an und wir haben dann überlegt, updaten wir das jetzt
02:03
auf die gerade neue Version V4, kann die das besser? Binst du damit zufrieden? Ja, offizieller Update-Fahrt ist dann irgendwie Doku geguckt, V3 ID installieren, V4 installieren, alle VMs neu erstellen. Was? Also beinhaltet auch, dass man die
02:21
vorher alle ausmacht und die laufen nicht mehr ein. Dann, naja, vielleicht mal eine Marktanalyse betreiben. Weil irgendwie, also das kann ja nicht der Weisheit letzter Schluss sein. Die haben zwar gesagt, nach dem V4-Update kann man Updates dann richtig einspielen, aber, bitte. Nein, VMs. Bei V3 auf V4 stand in der
02:46
Doku, dass das nicht gehen würde. Okay, also die Aussage war, mit einem kleinen Skript würde das Update schon funktionieren, aber wir waren damals auch viel unerfahrener als wir es heute sind. Und ich gebe jetzt glaube ich mal das Mikro
03:02
rum, wenn da noch mehr Fragen kommen. Kannst du das einmal hoch geben, bitte. Also das war so unser Eindruck und wir fanden das sowieso alles nicht so toll. Insofern, ja, ist an. Auf V4, auf V5 kann man updaten. Ja, das stand ja in der Doku. Das ging auch wirklich, das haben wir in der Praxis gemacht. Okay, danke schön.
03:23
Ich will auch gar nicht so viel Schlechtes drüber reden, das V4 Webinterface ist auch deutlich besser geworden. So ist es nicht. Aber wir haben halt zu dem Zeitpunkt dann nach Alternativen mal geguckt. Genau, und Alternativen waren dann irgendwie, naja, was man so als erstes gefunden hatte, Overt, Garneti, hatte ich mal hier auf der Frostcon mitbekommen, dass das gibt, und Archipel. Overt war irgendwie
03:42
so eine komische Red Hat Software. Sorry, für diejenigen, die Red Hat einsetzen oder so. Hat uns nicht überzeugt. Garneti, haben wir uns angeguckt, und Archipel. Das war eigentlich irgendwie ein ganz witziger Ansatz. Das funktioniert irgendwie. Alle Kommunikation zwischen den Hypervisern soll über XMPP laufen, aber du musst einen E-Jabba-D-Server installieren.
04:07
Und sie sprachen von einem. Ich weiß nicht, ob es als mindestens einer oder als genau einer zu verstehen ist. Fanden wir merkwürdig. War außerdem noch Early Alpha oder so. Damit nicht für einen Produktivbetrieb eingesetzt. Wir haben dann einfach mal ausprobiert. Genau, so ein Cluster aufgesetzt,
04:22
wie man das so macht. Da war so ein freier Raum, und wir hatten 20 Rechner. Also, die wir dann irgendwie aufgetrieben hatten. Das war jetzt keine spezielle Hardware. Und dann haben wir mal zumindest das Proxmox 4 und Garneti getestet, weil die anderen sind ja aus anderen Gründen schon rausgeflogen.
04:43
Wir haben aber auch Anforderungen uns überlegt. Die sind vielleicht nicht unbedingt die, die wir heute haben würden, aber trotzdem, wir wollten beliebige Verschiebbarkeit von den VMs haben. Und da haben wir uns überlegt, naja, das kriegen wir auf jeden Fall mit CEF RBD hin. Wir wollten bei QEMO KVM bleiben, weil wir das kannten und das Konzept
05:01
irgendwie uns etwas weniger erscheint als von Xen. Und wir wollten echte VMs haben. Wir wollten HA-Features haben. Also mehr als irgendwie, dass da ein APC-UPS-D läuft und wenn die USB anspringt, die Server runterfahren, das ist keine HA. Das ist aber das, was Proxmox zu dem Zeitpunkt als HA verstanden hat, zumindest in unserer Welt.
05:24
Wir wollten eine anständige API haben. Uns war Stabilität des Ganzen wichtig. Also wir wollten jetzt, wie gesagt, das haben wir schon gesagt, wir haben die Early Alpha ausgeschlossen und wollten auch darauf insgesamt achten. Mandantenfähigkeit brauchten wir insofern, als dass irgendwie ein paar Leute dann ihre eigenen VMs irgendwie neu starten konnten und so. Nichts
05:43
besonders Spezielles an der Stelle. Wir wollten besseres CLI-Tooling haben, mit dem man dann auch, wenn diese Installation so insgesamt unzufrieden ist, noch irgendwie sinnvoll mitarbeiten kann. Ja und wie gesagt, der in der Upgrade-Fahrung. Also ohne Neuinstallation und ohne Downtime der VMs.
06:02
Natürlich muss man hyperweise nach einem Update mal neu starten, aber dafür dann halt die VMs wegmigrieren. Ja. Ja und dann sind wir bei Ganiti hängen geblieben am Ende. Genau, ich meine, das ist ja auch unser Vortragsthema. Insofern war das wohl offensichtlich. Ja, für diejenigen, die Ganeti noch nicht so gut kennen. Einmal was, was so Technologie dahintersteckt.
06:23
Also macht Virtualisierung auf Xen- oder KVM-Basis. Wurde initial mit Xen entwickelt, unterstützt aber mittlerweile KVM mindestens genauso gut. Genau. Storage, DABD, Ceph, Blockdev, also irgendwie generische Blockdevices, Plane, damit meinen sie LVM. Und dann gibt es da noch so
06:40
external storage, da kann man seinen eigenen Gedöns dran stöpseln. Soweit ich weiß, hat Google auch benutzt im Wesentlichen dann external storage oder DABD. Genau. Skalierbarkeit, also wir haben dann irgendwie aus unserem bestehenden Setup-Server rausgelöst und dann, also das kann man halt frei hinzufügen,
07:00
ohne dass es da irgendwie Probleme gibt. Genau. Ja, es hat eine API und auch ein offizielles Modul dafür in Python 2. War für uns hinreichend gut integrierbar dadurch. Genau, das offizielle Interface ist nicht etwa irgendein merkwürdiges Webinterface, sondern Kommandozeile. Wirklich eine Werkzeugsammlung statt irgendwelchen dicken Controllern
07:23
oder sowas, die dann immer laufen müssen. Das ist extrem flexibel. Wirklich fortresilient, also wirklich cool, was das angeht. Webinterfaces gibt es wohl. Da gibt es also einige fertige Community-Projekte für verschiedene Anwendungszwecke. Aber build your own ist halt auch immer gut. Das haben wir tatsächlich am Ende gemacht,
07:44
weil wir halt wirklich nur einen ganz engen Feature, ganz wenige Features brauchten und dann war das es einfacher, das selber zu entwickeln. Ja, das schöne, angenehme ist auch, das ist halt open sources, deswegen sind wir ja auch hier damit. Und auch in den Web-Repositories direkt verfügbar. Das war dann für uns sehr praktisch,
08:01
weil wir betreiben da eh schon alles drauf. Ja, und dann haben wir uns gedacht, das Projekt ist offiziell von Google. Also die machen auch was mit so virtuellen Computern. Die können das wahrscheinlich. Das sollte was taugen. Ja, weitere Kriterien. Also andere Projekte, da sieht man so ein iteratives Vorgehen, um nicht zu sagen agil.
08:24
Und dann also bei Ansible haben wir immer festgestellt, das war zumindest unsere Sicht der Dinge, lieber dreimal programmiert als einmal nachgedacht. Ja, da kommt dann sowas bei rum oder so. Und bei Garneti haben wir halt festgestellt,
08:40
das ist wirklich durchdacht. Da haben sich Leute echt Gedanken gemacht, wie man denn sowas erst mal designen und dann erst angefangen zu programmieren. Das fanden wir schon sehr durchdacht. Also da kommen halt solche Dinge eher nicht bei rum.
09:00
Und wenn doch, dann erkennt man das auch als Problem. Da denkt man halt schon dran. Und dann kommt halt sehr durchdachte Software bei rum. Ja, also Garneti ist erstens durchdacht, zweitens durchdacht, drittens durchdacht. Das hat uns schon echt überzeugt. Ja, offizieller Upgrade-Fahrt ohne Downtime. Das haben wir jetzt das dritte Mal erwähnt. Genau, das ist also wirklich, wenn man mal so hyper-weiser aufsetzt, ein gutes Feature, was man haben will.
09:24
Wir haben natürlich dann bei der Marktanalyse auch mal so das GitHub angeguckt dazu. Da waren aktuelle Comments drin, das war auch irgendwie von Vollzeitentwicklern entwickelt. Es gibt und gab jährliche Konferenzen dazu. Also jetzt nichts sehr Großes, aber man hat sich da mal mit Entwicklern und Usern getroffen.
09:43
Man kann die Design-Dokumente direkt neben der Doku abrufen, also wie sich Features vorgestellt werden, wie die gedacht sind, wie man die benutzen soll. Warum überhaupt steht da auch dabei? Das ist auch nicht schlecht. Und dann verhältnismäßig gute Dokumentation im Vergleich zu vieler anderer Software. Und das alles in Manpages, was es halt dann extrem einfach macht.
10:01
Gerade wenn man dann halt auf dem hyper-weiser ist, was weiß ich, sei es sogar im Serverraum, weil dann doch irgendwas nicht funktioniert, extrem praktisch. Ja, und das Ergebnis war für uns sieht nach einer sehr stabilen Software aus. Das wollen wir eigentlich haben. Technisch gesehen basiert das auf Faskell und Python
10:21
und benutzt so Kommunikation zwischen den hyper-weisern SSH. Und ist halt so ein Job-Base-System. Also wenn man auf dem Masternode dann irgendwas anstößt, eine Veränderung, da wird halt ein Hintergrundjob für gestartet, der das macht. Dass die VMs laufen, benötigt kein Demon, der da dauerhaft mitläuft.
10:42
Die laufen einfach so weiter, auch wenn man das Genetik komplett runter schmeißt. Und die Debian-Integration ist sehr gut. Also wir setzen da vor allem direkt mit dem Debootstrap, das war direkt mit dabei auf. Das ist schon sehr praktisch. Genau. Wir machen mal ein paar Beispiele, wie das so ungefähr vom Tooling aussieht.
11:00
Also es gibt immer so Befehle, gnt-cluster, gnt-node, gnt-instance. Mit Instance werden VMs gemeint. Und wenn man sich jetzt mal so gnt-instance anguckt, dann sieht man halt immer so Sachen wie, naja, gnt-instance. Dann gibt es irgendein Kommando, was wir tatsächlich machen wollen. Dann in diesem Fall, naja gut, wir wollen mal ein Neufahr-M anlegen. Wir sagen also, in welchem Storage-Format das abgelegt werden soll.
11:24
Dann irgendwie unser Custom-Debootstrap. Disk-Size, was weiß ich, Name. Gut, braucht man irgendeinen Namen. Das sind dann übrigens auch gleich FQDNs hier. Dann irgendwie Memory-Größe, IP, Link.
11:41
Das ist der Name der Disk und dann ist der Name der VM. Eigentlich relativ angenehm. Und die meisten dieser Tools funktionieren auf eine gleich beziehungsweise sehr ähnliche Art und Weise. Genau, also dann was weiß ich, Modify, würde halt genauso funktionieren. Das gibt es dann aber auch bei gnt-cluster, gnt-node und so weiter. Ja, dann haben wir noch ein Beispiel für eine Live-Migration.
12:01
Genau, also ihr habt das Testcluster gesehen. Unsere Überlegung war dann, naja, also Live-Migration muss schon funktionieren. Lass mal ausprobieren. Dann kam da irgendwie das da. Ja, also man gibt halt das Kommando an, dann kriegt man erst mal die Nachfrage. Willst du das wirklich? Und wie man es an diesem YouTube-Box in der halben Weise merkt, diese Software ist sehr von sich überzeugt.
12:21
Aber bisher auch zu Recht bei uns. Machen wir mal. Dann rötet das da so ein bisschen rum. Dann sagt er dann und eigentlich ist das zweimal nicht funktioniert. In den zwei Jahren. Und das lag an unserer Blödheit und nicht an der Software. Insofern, da waren wir relativ froh mit.
12:41
Dann gibt es H-Tools. Das ist so eine Sammlung. Also ein fettes Binary, nein, kein fettes Binary. Ein Binary, mit dem man halt allerlei Dinge für dieses Cluster machen kann. Da gibt es zum einen H-Ball, das balanciert das Cluster nach Ressourcenverbrauch. Das ist wirklich sehr praktisch. H-Check gibt den Cluster-Held-Status aus und kann H-Ball simulieren.
13:04
H-Space gibt die Cluster-Capacity aus. Das ergibt mit DABD sehr viel Sinn. Das ist halt nicht so implementiert. Da steht dann ein Prozent. Aber gut, die Zev-Integration war noch relativ frisch.
13:20
Genau. Dann H-Roller. Damit hat man Cluster-Maintenance-Reboot-Scheduler. Das ist interessant, wenn man wirklich große Cluster hat, die mit DABD laufen. Dann möchte man so etwas haben wie starten wir alle Nodes parallel neu, die ich parallel neu starten kann. Und mach mal Höhe, ich will das gesamte Cluster neu starten, bitte. Was weiß ich, machen wir ein Kernel-Update oder so was.
13:43
Ist jetzt für 5 VM-Server eher uninteressant, zumal wir auch ehrlich gesagt nur einen als Redundanz haben. Also funktioniert bei uns nicht. Haben wir uns auch nie angeguckt. Aber ist vielleicht der Vollständigkeit aber hier ganz interessant. Ja, dann haben wir noch ein Beispiel für Habal. Dem sagt man erst mal mit Minus 11.
14:00
Mach mir doch mal einen Vorschlag, wie sieht denn deiner Meinung nach ein besser balanciertes Cluster aus. Der rechnet dann so ein bisschen rum und berechnet dann so einen Score dafür. Genau, was ganz wichtig ist, das Ganze macht er von N. Also nicht irgendwie jetzt versuchen, das ganz, was weiß ich, auf Toll für Come-Raus zu optimieren, sondern die einfachste Lösung, die eine einigermaßen gute Balanciierung macht.
14:24
Also das macht er mit diesem Cluster-Score-Wert. Und dann damit kriegt man das dann ganz gut hin. Ja, mit Minus X kann man das dann auch machen lassen. Und dann werden halt so Jobs submitted, die das dann übernehmen. Gut, kommen wir zur Praxis.
14:43
Ja, die Funktionen, die da implementiert sind, wir haben das ja schon mehrfach erwähnt, durch und zu Ende gedacht. Das hat sich auch in der Praxis dann so bestätigt. Die Stabilität überzeugt wirklich. Wir hatten da nur Probleme aus eigener Dummheit mit. Und das CLI damit finden wir auch sehr zufrieden.
15:01
Damit kann man sehr gut arbeiten. Ja, aber es gibt natürlich auch immer so Dinge im Hintergrund, die sind nicht so ganz so schön. Und das war dann das HA, was halt, also, ja, da gibt es so eine Toolsammlung für, die man aber so richtig durch implementieren muss. Dann ist das halt schon selber am Ende.
15:21
Was auch Sinn ergibt, weil natürlich jedes Cluster anders aussieht. Kannst du das Mikrofon einmal nach hinten durchgeben? Da gibt es eine Frage. Ist an, ja. Bei Balance habt ihr das hinterher auch performancemäßig gemerkt, dass das so gut lief. Also wenn ich jetzt den Wert ungefähr angeschaut habe, war das ja knapp die Hälfte.
15:42
Oder vielleicht zwei Slides zurück. Performancemäßig. Also... Ja, es ist so, dass wir das Tooling vor allen Dingen, also wir haben das auch manuell ausbalanciert vorher schon. Ja, also einfach, es ergibt Sinn, dass man sagt, na ja, 5 VMs da, 5 VMs da oder so was oder 10 VMs.
16:03
Oder man guckt nach RAM und nach CPU-Bedarf und so was. Performance so richtig. Also, kommen wir später noch zu, das wirklich große Bottleneck ist das CEF und nicht irgendwelche Computer-Ressourcen. Memory ist vielleicht noch eine Sache. Da ist aber auch bei uns der Punkt, also in einer großen Firma würde man halt sagen,
16:22
ja stecken wir halt nochmal mehr RAM dazu. Bei uns ist halt einfach so, wir haben nicht das Geld, um da mal eben zu sagen, nochmal RAM dazustecken. Insofern, ja, also wie gesagt. Und ja, die Übertragung war auch mehr so ein, ja, wir haben das dann mal mit dem 10G-Switch ausprobiert und dann ging das auch in anständiger Geschwindigkeit rüber. Genau. Bitte. Ich glaube, man sollte auch noch dazu sagen,
16:42
dass dieser Score jetzt kein, also in dem Fall der Score von Null wäre eine perfekt ausbalanzierte Landschaft. Genau. Also, wir haben normalerweise immer so ein Zweier-Score. Genau. Und also, wenn man halt was weiß ich, gerade mal einen Host neu gestartet hat, einen VM-Host und den dafür vorher evakuiert hat,
17:02
ist es so, dann ist der Score halt für das Cluster bei 20 oder so was, wenn du das dann ausbalanciert hast, wieder bei 2. Wobei die trotzdem alle hinreichend performant laufen in der Zeit. Also, das ist mehr so eine Kennzahl und keine echte Performance-Garantie oder so was, ja. Wir waren hier, na, du?
17:21
Genau. Ja, habe ich gerade schon gesagt, Performance und so. Also, wenn man Ceph wirklich gut betreiben will bei sowas, braucht man da irgendwie, ja... Viel von. Viel von, viel Zeit. Viele SSDs. Und daran klemmt es bei uns halt so ein bisschen.
17:40
Also, ich weiß nicht, alle halbe Jahr setze ich mich dann hin und tune da ran irgendwas und tweak und überhaupt, dann kriege ich noch mal wieder... Also, Performance sinkt, Performance sinkt, Performance sinkt und dann irgendwie wieder... Aber kontinuierlich sieht man eigentlich, dass die Performance nach unten geht, je mehr VMs wir kriegen mit dem Ceph. Also, na ja, kommen wir später noch mal zu. Genau. Und auch gerade bei dem Ceph hatten wir eine erhebliche Lernkurve,
18:04
um da überhaupt mit anzufangen und zu verstehen, wie ist denn das eigentlich alles gedacht, wie soll man das aufsetzen und woran soll man drehen, dass es schneller und besser wird. Ja, unser Anwendungszweck ist dann auch noch sowas. Da kommen wir gleich noch mal zu. Der ist halt nicht unbedingt ganz typisch für ein Genetikcluster
18:22
oder vielleicht auch für allgemein für VMcluster, weil wir keine, nicht nur gleichartige VMs haben, sondern halt auch irgendwie sehr viele Sonderanforderungen an VMs. Das hat es dann noch mal komplizierter gemacht. Ja. Und zwar, dann haben wir so Zeug gelesen in der Doku
18:44
und sind dann auf so ein Design-Dokument zu Disks gestoßen. Und da wurde dann das Feature beschrieben, dass man VMs mit mehreren Disks aus verschiedenen Storage-Provenern betreiben kann. Also zum Beispiel sowohl aus dem Ceph als auch irgendeinem Random-Block-Device, was man hat. Klingt super. Das war nämlich genau etwas, was wir brauchten.
19:02
Ja, und das Design ist auch echt ausführlich und lässt da keine Wünsche offen. Also sie wollten das halt mal komplett bearbeiten, wie Garnetia das intern macht. Dass eine Disk unabhängig von der eigentlichen VM existiert und man die halt beliebig hinzufügen und wieder wegnehmen kann. Und wie gesagt, unabhängig vom Storage-Provider.
19:22
Ja, das klang auch alles ganz gut, aber ist halt leider noch nicht implementiert. Ja, jetzt kommt die Technik. Wir so.
19:46
Jetzt ergibt vielleicht der Vortragstitel mehr Sinn. Also wir haben da also an unserem Cluster gesessen und halt so, das Feature ist irgendwie, was wir gerne hätten, nicht da. Ja, dann Cev-Unterstützung.
20:01
Hey, brauchen wir, weil das war ja unsere Prämisse irgendwie so. Wir wollten ja frei verschiebbare VMs hatten. Und in unserer Welt war halt, das geht mit DRBD nicht so geil. Also machen wir das mit Cev. Cev klingt sowieso nach toller Technik und so und überhaupt. Und ja, dann haben wir das Design-Dokument geguckt. Da steht dann drin, ja, Garnetia kann Cev bzw. RBD benutzen.
20:21
Das kann den Pool einrichten und sogar monitoren. Aber es kann in Wahrheit eigentlich nur Cev-RBD benutzen. Und da stand da nochmal große Warnung, das ist alles experimentell. Woanders steht dann, dass es nicht experimentell ist, sondern voll solide Software. Und wir waren irgendwie so...
20:51
Ja, unsere Nurses waren dann, naja, wir machen halt mal, es gibt so Cev Ansible, haben wir gefunden.
21:01
Furchtbare Rollen, aber damit konnten wir dann mal so einen Cev einigermaßen sinnvoll aufsetzen. Monitoring gibt es Gott sei Dank seit einer Version, seit der letzten Version dann in Suffolk, in Suffolk. Und dann haben wir dann auch Insofern haben wir zumindest die beiden Features dann abgedeckt, aber so... War erstmal so ein bisschen doof, aber wir haben uns um das und auch um das andere Problem herumarbeiten können erstmal. Und ja,
21:22
dann kamen wir irgendwann zu dem Punkt, ja, also so HA, das war ja eigentlich auch eine unserer Prämissen. Stand auch in der Doku, die Hard Tools sind da voll super für. Die können auch mit jedem Storage, also das wäre überhaupt kein Problem. Und man sollte sich dann so Skripte drumherum bauen, die dann tatsächlich das... Nicht so praktisch, wie wenn das mitgeliefert kommt, aber das ist eine Arbeit, die kann man mal machen.
21:43
Genau. Ja, aber irgendwie in der Version, die wir benutzt haben, war das halt nicht mehr Cev-kompatibel, weil der Cev-Support noch neu war. Genau, da war irgendwie so ein, wenn das Sensor durchgegangen ist, dann stand da irgendwie folgender Parameter nicht gesetzig. Geh mal sterben. 2.12 ist übrigens die Version aus Libia und Jessie, das hat sich dann mit dem Update auf Switch bei uns auch erledigt. Unser Gefühl?
22:08
Captain, we don't have any torpedoes. Don't tell me. Tuesday. Ja. Ja, und das Leihmotiv, was sich so ein bisschen ergeben hat dabei,
22:24
Garniti ist im Gegensatz zum Ansembild lieber so dreimal nachgedacht, als einmal programmiert. Manchmal gar nicht programmiert. Oder einfach nur anders programmiert. Steht dann aber in der Mainpage. Aber das war halt auch so ein Punkt. Wir haben dann so, ah, Design-Dokumente voll gut, die sind strukturiert. Da steht auch alles drin, was sie sich überlegt haben.
22:42
Das ist ja auch den Versionen zugeordnet von Garniti. Dann steht ja drin, was sie da gemacht haben. Das kann man ja darauf referenzieren und überhaupt, aber ... Sie updaten die halt nicht immer, wenn sie das implementiert haben. Und, merkst du, das ist ganz wichtig, ein Design-Dokument ist doch keine Implementierung. Ich glaube, das haben wir jetzt gelernt.
23:02
Gut, dann kommen wir zu dem etwas anderen Paxus-Zahl-Patches. Genau, es ging gleich ... Ach ja. Ja, es klingt jetzt hochtragend.
23:22
Tatsächlich, ja, DBN hat bereits eine sinnvoll gepatchte Version, dass es gut integriert ist. Und die haben wir dann genommen und einfach unsere Patches dazugesteckt. Und verteilen das über ein lokales Repository dann an unsere Notes. Und ganz ehrlich, keine großen Features. Wir wollten einfach nur so ein paar Dinge, die mit unserer Nutzung nicht so kompatibel waren, anpassen,
23:41
dass da so ein paar kleine Rendeungen im Wesentlichen rauskommen. Ja, also einige Patches kommen einfach von GitHub, das sind nicht unbedingt unsere. Aber es ging dann ja gleich los. Ihr erinnert euch an das Testcluster. Wir haben dann mal aufgesetzt, einen Ceph installiert. Ich hatte mir gedacht, lass mal die neue Ceph-Version nehmen. Die hat eine Systemdeintegration, die nicht in Debian, also nicht die Ceph-Version, die in Debian ist.
24:03
Und gut, das Issue gab es damals noch nicht. Aber man müsste einfach nur mal lesen, es hatte sich leider an der API von Cephas geändert. Und man musste da einmal so dieses das Ding da rauspatchen. By the way, selbst wenn man
24:21
Ceph in der richtigen Version verwendet hätte, minus Ppool war nicht mal unbedingt frei konfigurierbar. Das ist einfach, also es war irgendwie so ein bisschen merkwürdig alles. Das haben wir anfangs mit Ansible gepatcht. Später dann tatsächlich ordentlich. Ja, das war einfach nur so ein relativ offensichtlicher Fix.
24:42
Genau. Ist aber alles auch gemeldet, sowohl in Debian als auch in dem GitHub-Issue-Tracker. Müsste mal irgendwie dann auch reinkommen in die Software. Genau. Ja, und dann hatten wir am Ende dann noch was mit dem Ceph. Und zwar Caching ist für externen Storage. Also Ceph ist auch nur so ein externes Storage-Plugin.
25:02
Und das ist erstmal Caching für deaktiviert. So als Default ist das sicherlich sehr, sehr sinnvoll. Also man stelle sich vor, dass das irgendwie aus einem Eiskasi kommt oder sowas und redundanter Eiskasi-Pfade und überhaupt. Und du willst da immer übermigrieren. Und dann ist der Cache noch hier. Aber du bist schon da mit der VM, dann hat man also irgendwie
25:22
Cache-Faults. Das ergibt nicht viel Sinn. Bei Ceph ist das überhaupt kein Problem, weil Ceph halt bei bestimmten Operationen automatisch den Cache erst zurückschreibt. Insofern haben wir gesagt... Patchen wir rein. Ja, und da sagen wir im wesentlichen ja, wenn das jetzt ein RBL ist, dann setzt das mal nicht Exit offen an. Genau, also wir haben auch versucht,
25:41
dabei kompatibel zu sein. Man weiß ja nie, was wir später nochmal mit dem Cluster anstellen. Insofern... Ja, beim nächsten haben wir das gar nicht versucht, kompatibel zu sein. Stimmt. Nämlich Block Devices, das ist ja auch so ein Storage-Typ, der ist als mirrored und movable markiert. Das ergibt auch Sinn, wenn das zum Beispiel aus einem Eiskasi fällt oder so. Aber ergibt halt nicht so viel Sinn, wenn wir da echte Platten im Server haben,
26:01
die einfach durchreichen möchten. Ja, und da sind wir dann einfach hingegangen und haben gesagt, nee, das ist nicht movable, das ist auch nicht mirrored. Genau, geh mal sterben, das passt. Das ist jetzt nicht so das, was man auch wieder zur Rückstab mitten möchte dem Projekt, aber tut erst mal, bis uns eine cleverere Lösung einfällt. Oder so. Also wahrscheinlich wäre sinnvoll, das einfach konfigurierbar zu machen.
26:22
Das ist sogar, glaube ich, vorgesehen, dass das konfigurierbar ist. Das ist aber weder über API noch über Tooling konfigurierbar. Aber es gibt da so Code-Blocker, die dafür vorgesehen sind, soweit wir das verstanden hatten. Ja, und dann der schönste Fehler von allen, also Block Devices. Wollen wir, wie gesagt, noch etwas hinzufügen? Wir haben da so eine VM, die soll einfach
26:42
so ein paar Daten kriegen, die wir nicht noch irgendwie in Renodanten-Storage haben müssen. Genau. Haben wir in die FAQ geguckt, es gibt keine Size-Limitations in Geneti. Fanden wir toll. Ja, da hatten wir uns dann überlegt, okay, wir machen Folgendes, haben wir vorher überlegt, ja, wir tun die eigentliche VM,
27:01
das System, tun wir das SEV, dann können wir das frei migrieren und es ist nicht so schlimm, wenn mal der Storage der Lokale dann nicht da ist. Ja, was weiß ich, wegen Wartung oder so was, das war halt im Login-Gateway ursprünglich. Ja gut, geht aber nicht, weil wir erinnern uns, das haben sie nicht implementiert. Aber, na gut, dann machen wir das halt anders,
27:20
nehmen wir eine SSD und dann haben wir noch irgendwie so 16 Daten-HDDs. 15 kommen, Problem muss dann hinzufügen und bei der 16. kam dann... Ne, das geht nicht. Max-Discount ist irgendwie überschritten. Ja, wir haben da erstmal rumgeguckt. Und auf der Melding-Liste war so ein Ja,
27:41
folgende Kommando-Zeilen-Operation für GNT Cluster, probiert die mal, wurde dann auch schon irgendwie auf der Melding-Liste zurückgemeldet, ne, ging nicht. Ja, dann nimm doch einfach größeren Storage. Statt mehr Storage, ja. War bei uns aber nicht drin. Geile Idee, geht für uns nicht. Gut, haben wir mal ein bisschen in den Code gewühlt, wie man das halt so macht und haben dann folgende Stelle entdeckt.
28:06
Unser Patch ist nicht geil, aber es musste halt in dem Moment einfach laufen. Wir haben auch noch ein paar andere Dinge probiert. Tatsächlich ist Max-Discount ein freikonfigurierbarer Parameter. Der lässt sich auch auf größer 16 setzen.
28:22
Das hat aber keine Wirkung, weil die Konstante da greift. Wenn man das kleiner setzt, ist das kein Problem, aber wir wollten ja mehr. Keine Ahnung, warum das drin ist. Wir haben auch ins Gitlog mal geguckt und das war irgendwie so, weil wir migrieren ein Python-Tooling auf Haskell, ist es da irgendwo mitbeigewesen. Also es ist ganz plötzlich.
28:43
Und entsprechend steht auch nirgendwo was an Dokumentation oder Grund, warum das so ist. Also es ist ja nicht das Einzige. Man sieht ja, wenn man da dann weiter runterguckt, ja, Max-Nix gibt's ja auch noch. Also maximal Anzahl Netzwerk-Interfaces. Ich glaube, da waren noch zwei oder drei mehr Dinge, die einfach so ein hardcoded Parameter haben. Auch alles irgendwie nicht so ganz erkennbar, dieser Grund.
29:04
Aber ... Gut, funktioniert jetzt für unseren Anwendungsfall. Und ja, am Ende kommt noch so ein bisschen Ausblick. Und zwar der ewige Montag. Google hat nämlich vor so ungefähr zwei Jahren,
29:20
und das ist auch ungefähr so der Punkt, wo wir uns das dann überlegt haben, was wir das machen wollen, ja, haben sie halt die Entwickler abgezogen. Und ja, seitdem arbeitet da halt kein von uns entwickler mehr dran. Aber Google hat halt das Projekt unter den eigenen Fittichen behalten. Und ja, da braucht man irgendwie CLA, wenn man mitwirken will. Und selbst wenn man CLA hat,
29:41
werden die Patches noch lange nicht angenommen. Also da sind also ein Haufen offener Issues in einem Github-Tracker. Was auch ganz witzig ist, wenn man sich diesen Github-Tracker anguckt, sieht man auch sehr offensichtlich. Also das war das letzte Google-Code-Projekt, ja. Und das hat dann irgendjemand mal schnell migriert. Und sie haben das, also ich weiß nicht, was sie da mitgemacht haben,
30:00
aber sämtliche Referenzen von den Issues sind jetzt kaputt. Weil ... Ja, neue Issuenummern. Neue Issuenummern. Und sie haben die halt nicht in der richtigen Reihenfolge eingefügt. Ja, jedenfalls alles Moppelkotze oder so. Ja, ähm ... Aber es gibt weiterhin viele Nutzer. Also zum Beispiel Zipgate, Spreadshirt.
30:21
Debian selbst? Debian selbst, genau. Dann gibt's in Griechenland einige Firmen, die das nutzen. Das griechische Forschungsnetzwerk. Und auch, was weiß ich, ein paar weitere Firmen, die das nutzen. Also es ist schon so, dass das Relevanz hat. Also diese Genetikons gibt's auch weiterhin. Da treffen sich man dann hauptsächlich mittlerweile Nutzer. Ähm, um ihre Anwendungsfälle zu diskutieren.
30:41
Genau. Und deren Plan war dann so, wir sind ja eigentlich ein paar Leute, lass uns mal so eine echte Community darum aufbauen und selbst weitermachen, ohne Google. Und dann halt nötigenfalls forgen, dass wir halt irgendwie die Kontrolle darüber zurückkriegen und weitermachen können, dass das nicht im ewigen Montag hängen bleibt. Ja. Aber ...
31:01
Also ein RC-Release, das ist jetzt auch in Ubuntu. Das kommt in Debian Buster. Mit Versionsnummer 2.16.rc4. In Debian. Okay. Aber ich mein, das ist ja ein sich stabiles Software. Genau, sie haben halt irgendwie so einen Wandel von Patches nochmal applied und dann gebaut oder so. Aber wie gesagt, aus mehr als einem RC-Release ist halt nicht rausgekommen.
31:24
Ähm, und auch so richtig, Entwicklung hat nicht wieder angefangen. Es gab bisher keinen Fork. Ähm, ja, und jetzt ist Ende September wieder Garnetikon und mal gucken, ob's die Leute hinreißen lassen, das weiterzumachen. Ob es dann Dienstag tatsächlich wird. Denn das ist halt auch einer der Punkte für unsere Empfehlung.
31:40
Wir würden das prinzipiell weiterempfehlen, weil das ein echt toller Software ist. Aber wenn das Projekt halt stehen bleibt und keine Zukunft hat, dann wird das halt irgendwann nicht mehr so geil sein. Ähm, weil, also, jeder kennt das ja. Software muss irgendwie mit der Zeit gehen. Ja, was wir, also, was wir uns überlegt haben, ist, naja, also wir haben ja jetzt safe gemacht.
32:01
Hier haben wir schon ein paar Mal gesagt, vielleicht nicht unbedingt die beste Entscheidung gewesen. Also würde ich jetzt auch wirklich überlegen, wenn man das macht, ist viel Arbeit, 2 für 2 schlechte Performance. Viele Fallstriche und unseren Anwendungsfall vielleicht einfach nochmal überdenken. Wir haben echt viel Parameter tweaking, sowohl an Ganeti, klar mal auch die Patches natürlich, aber machen müssen,
32:23
damit das jetzt so läuft, wie es bei uns läuft. Aber was wir auch mitgeben wollen, jedem, der sagt, ja gut, ich find das geil, das Projekt, lass es mal benutzen, macht ruhig kleine Patches, ja. Das ist echt nicht schlimm. Und Debian stellt einem die volle Infrastruktur zur Verfügung. Man macht einfach Absource und dann den üblichen Debian-Bauprozess,
32:41
legt seinen Patch mit in das Patchverzeichnis und schwuppdiwupp hat ein Paket, das kann man dann auch nochmal automatisieren, wenn man möchte, dass das automatisch neu gebaut wird in Abständen, dass man auch die Patches, die innerhalb des Releases kommen, noch mit reinkriegt. Also prinzipiell kann man schon so machen, für unseren Anwendungsfall mit den 5 Star wahrscheinlich lieber DABD benutzen.
33:01
Genau. Und dann wird das auch besser. Aber wenn ich safe nochmal machen würde, dann so. Ja und damit sind wir auch eigentlich schon am Ende und wäre noch für Fragen da. Und Diskussionen gerne. Bitte, wo ist denn das Mikrofon gerade?
33:22
Mal angenommen, ihr solltet jetzt eure Nachfolge einarbeiten. Ja. Sind wir gerade dabei. Jawohl. Was gebt ihr denen mit? Migriert weg oder? Nein. Also solang die Zukunft des Projektes gerade so unklar ist, würde ich sagen, bleibt dabei. Weil, also solang das,
33:42
was in Debian drin ist, bleibt dabei. Es ergibt überhaupt keinen Sinn, da jetzt wegzumigrieren. Wenn jetzt klar ist, vor allen Dingen gerade im September, die Community wird irgendwie dann irgendwann weitergehen, dann sollte man dabei bleiben und da echt mitwirken. Also so viel Zeit, gerade als Studenten hat man vielleicht ein bisschen Zeit, um wenigstens, was weiß ich, Issues aufzumachen
34:01
oder vielleicht mal kleine Patches. Also ich meine, ein paar von denen könnte man ja auch mal submitten. Das würde Sinn ergeben, aber das Problem ist wegmigrieren, dann steht man wieder vor der gleichen Wahl, wie wir standen. Ich meine, natürlich, Proxmox 4 ist tatsächlich ein echter Sprung gewesen. Das ist schon irgendwie netter.
34:23
Ich glaube, fünf oder sechs sind sie inzwischen. Das ist auch alles hübscher geworden, aber das Konzeptionelle an Proxmox hat sich halt nicht geändert. Nämlich, dass da dieses zentrale Webinterface ist, über das man alles steuert. Die API, die wir uns damals angeguckt hatten, war irgendwie merkwürdig. Da gab es dann auch ein Python-Modul für das. Ein inoffizielles, was wir da noch patchen mussten.
34:42
Aber es hat alles nicht so funktioniert, wie wir das gerne gehabt hätten und das war ja auch eine der Hauptgründe, da wegzugehen. Ich glaube, Garneti hat immer noch gutes Potential, denn es ist wirklich rock solid. Also die Probleme, die wir damit hatten, waren alles Anwenderprobleme.
35:01
Und halt dieses, wir haben nicht gerallt, dass Design-Dokumente nicht die Implementation ist am Anfang. Aber das können wir jetzt den Leuten, die wir neu einarbeiten, sofort mitgeben. Und ich glaube, der Thomas will was sagen. Er ist nämlich der Arme, der eingearbeitet wird. Tatsächlich hatte ich eigentlich nur noch eine andere Frage.
35:21
Du hattest es ja erwähnt mit den Platten, die direkt durchgereicht werden sollten als Block Device, was jetzt eben diese eine VM ist, die nicht so wirklich miriert werden kann. Die Story mit NBD kenne ich leider schon. Aber spricht da nicht irgendwas dagegen aus deiner Sicht oder aus eurer Sicht, das Ganze mit iSCSI zu machen und auf dem Host dann das iSCSI Tage zu haben und das durchs Netzwerk zu reichen? Oder war das einfach nur zu komplex
35:40
und wir machen das jetzt halt so und die VM miriert dann nicht? Also tatsächlich iSCSI ist ein guter Punkt, da hatten wir auch drüber nachgedacht. Das Problem war in dem Moment, als wir unsere VM-Server mit Debian Jessie aufgesetzt haben, hatten wir siegelnagelneue 10 Gigabit Internetwerkarten mussten dann den Backport-Kernel installieren, weil die neuen Karten halt einfach mit dem uralt316-Kernel
36:02
nicht unterstützt wurden. Und dann war das Problem, in dem Linux-Kernel war gerade eine Transition für die Backends von iSCSI. Und da hat dann das User Frontend mit dem Kernel nicht mehr zusammengearbeitet und es ging einfach gar nicht mehr. Und dann haben wir halt die Lösung. Also wir haben erst einen Workaround mit Network Block Devices gemacht.
36:23
Also ne, lass das. Finger vorn weglassen ist scheiße. Und dann haben wir uns aber überlegt, lass uns das so machen. Ich glaube das war auch erst nach dem Update und auch einfach VMs getrennt. Wir haben dann halt jetzt die eine VM, die migrierbar ist, wo Nutzer drauf können und die andere, wo dann die Daten draufliegen, die halt im Zweifelsfall mal nicht verfügbar sind.
36:42
Und die macht das dann mit NFS. Genau, weil das ist halt auch einfach die geschickte Wahl dann gewesen. Weitere Fragen? Ja, ich lauf mal rum, ja. Das ist wahrscheinlich einfacher. Kannst du einmal das Mikro durchreichen bitte? Danke.
37:03
Ja hallo. Ich hab ne Frage zu eurer WebUI, weil wir haben uns auch dieses Ganeti MGR da mal angeschaut aus Griechenland. Habt ihr da die Möglichkeit das vorzuführen? Oder? Eure Eigenentwicklung, die ihr angesprochen hattet? Also es ist nicht das, was du erwartest, möchte ich sagen.
37:24
Aber ich guck mal, ob es geht. Ich denke ja. Ja, Moment. Ja, ist okay. Erstmal gucken, ob wir da überhaupt drankommen. Genau, wir müssen mal eben ins VPN kommen.
37:41
Und dazu muss ich jetzt erst mal das WLAN wechseln, weil das EduROM hier... Ja, das hilft aber nicht. Ich will jetzt hier nicht BIMA stöpseln. Also ich kann ja währenddessen mal erzählen, das ist im Wesentlichen so ein,
38:01
wir holen einmal Informationen über die NOS und die Instances raus, was wir so kriegen können aus der API direkt. Zeigen das halt irgendwie in halbwegs übersichtlich an. Und man kann dann daneben noch auf den Reboot-Knopf drücken. Und dann ist da noch ein ElderBlock-Info. Das dann auch anhand von Texts, die diese VMs haben,
38:23
entscheidet, ob man dann den Knopf drücken darf oder nicht und was man überhaupt angezeigt kriegt. Das ist im Wesentlichen die Funktionität von den Dingen. Moment, das ist immer... Das haben wir nicht vorbereitet, aber... Gibt es währenddessen vielleicht noch andere Fragen?
38:51
Ja, ihr habt jetzt viel gesprochen, was ihr mit Garnet gemacht habt, aber nicht euren Anwendungsfall. Also was sind die virtuellen Maschinen, die ihr da macht?
39:01
Okay, ich schieb mal das Ding nach hier drüben. Und um das jetzt mal zu sagen, wir sind halt, wie wir schon sagten, keine professionellen Leute. Wir sind bei uns in der Fachschaft Mathematik, Physik, Informatik in der RWTH und machen das hobbymäßig. Und wir haben halt irgendwie ein bisschen Geld bekommen, weil wir haben so eine Video-AG, die zeichnen Vorlesungen auf.
39:24
Und da haben wir dann von der Hochschule Geld dafür bekommen, damit wir das einfach ein bisschen verbessern können, den Service. Und das ist also einer unserer Anwendungsfälle. Und dann haben wir halt irgendwie... Ja, also ich mein, es ist nicht hübsch, aber wir sehen halt sofort, welche VMs sind an, welche VM gibt es,
39:41
welche IPs haben die, welche Festplatten, wie viel RAM. Da oben sehen wir dann die Auslastung, wie die VM-Server ausgelastet sind. Wir können sie... Einer von den Knöpfen funktioniert nicht. Ich klick doch mal auf so ein Note.
40:00
Ich klick mal auf so ein Note, dann können wir dann halt also hier jetzt also nochmal genau sehen, dass es dann sortiert alles nach den Sachen. Und ja, also im Wesentlichen, wir betreiben halt all so Dinge, die man halt in so einem, ich würde mal sagen, Small-Business-Umfeld braucht. Das ist eigentlich völlig übertrieben für eine Fachschaft.
40:22
Aber was geht, das geht. Und wir lernen eine ganze Menge und haben da eine Menge Spaß mit. Und ja, vielleicht können wir mal irgendwie jetzt so hier was weiß ich, unseren CI-Runner nehmen. Ja, also auch hier kriegen wir nochmal Details dazu. Was ein wirklich echt gutes Feature ist, ist das da.
40:40
Wir kriegen die VNC-Connection da gesagt. Das ist nämlich immer ein bisschen umständlich, das sonst aus dem Tooling zu kriegen. Und insbesondere da haben wir dann Mandantenfähigkeit bekommen. Nämlich, also wir können halt einzelne VMs sagen, hey, folgende LDAP-Gruppen können auf diese VMs in dem Web-Interface zugreifen. Die können auf die drei Buttons drücken. Sie können halt hier einmal reingehen und dann die VNC-Geschichte sehen.
41:03
Hat halt echt dann den Vorteil. Und was für VMs wir da sprechen, wir haben halt hier so einen Build-Server, Osak Build. Osak ist der Open-Source-Arbeitskreis unserer Fachschaft. Und was die machen, ist Linux-Install-Partys organisieren. Habe ich vor drei Jahren einen Vortrag drüber gehalten. Und ich bin da heute nicht mehr dabei, aber das geht weiter.
41:23
Und die bauen halt auf diesem Server zum Beispiel dann Images. Und da haben wir dann lokale Disks. Und da ist dann halt wichtig, dass das Ding nicht migrierbar ist, weil wenn das dann migriert wird, sind die Disks immer noch da, aber der läuft da. In der einen Richtung funktioniert das. Dann sagt er, ja, migriert. Und dann versucht er, den Storage da wieder hochzunehmen.
41:41
Dann sagt er, ja, also völlig unglücklich. Und rückmigrieren geht auch nicht, weil Garneti sagt, ne, also irgendwie Pre-Conditions-Failure, weil die Disks sind ja gar nicht da. Aber ich hätte hier ja gar nicht, also geht nicht. Ich musste hier jetzt ausmachen dafür. Genau. Und geht nicht. Also dann muss man irgendwie so Dummy-Devices, also was weiß ich,
42:01
wie man das halt so macht, ja dann. So ein Loop-Device dahintun. Und dann kann man das da einbinden an der richtigen Stelle. Nochmal 47 siblings später die Maschine anfassen, rüber migrieren hoffen. Und damit waren wir echt glücklich über diesen Patch, dass wir Dinge einfach nicht mehr wegbewegen können. Hat auch den Vorteil, dass jetzt das Balancer-Tool damit funktioniert,
42:21
weil das Balancer-Tool war immer gern der Meinung, hey, die Maschine hat 8 GB RAM, also es sind 2 bis 8 GB tatsächlich. Das zeigt das gerade nicht an. Es sind 8 GB RAM, die bringe ich auf der Maschine viel, viel besser unter, weil da ist viel weniger los. Wupp, weg. Hab ich sogar live migriert.
42:44
Also so viel zum Thema. Das sind diese Fehler, die wir gemacht haben. Ja, und ansonsten so typische Anwendungen, keine Ahnung. Wir haben irgendwann mal erfahren, dass wir an der Hochschule die Organisationsanlage mit den meisten Web-Servern sind. Also die Aussage war, es gibt halt eine große Firewall, die das ganze Netz absichert.
43:02
Und da war dann irgendwie die Aussage von dem Mensch, der das managt. Wir sind die, die mit den meisten Web-Servern Freigaben sind. Genau, und wir haben sogar die Wohnheime in letzter Zeit überholt. Die früher, also, ja. Genau. Ja, und halt dies-und-das-Mail-Server hast du nicht gesehen. Was man so braucht.
43:21
Beantwortet das die Frage? Okay. Ja, bitte. Aber eben hab ich das Mikro warten, und dann hören die Leute das Stream auch, oder in der Aufzeichnung. Ein Softwareprodukt ausgeschlossen wegen Alpha-Qualität. Ja. Habt ihr deren Entwicklung ein bisschen verfolgt? Nö.
43:41
Nee, wir haben da jetzt kürzlich noch mal draufgeguckt, aber irgendwie, es hat uns irgendwie nicht so richtig überzeugt. Also guck's dir gerne an. Ich würd mich auch echt freuen, wenn du dich dann einfach mal meldest, wenn du sagst, hey, ist geil. Aber irgendwie mit diesem iJabba-D, ich bin halt auch, ich mag iJabba-D nicht besonders, ja.
44:01
Und das hat auch nichts, also das hat weder was mit der Sprache noch irgendwas zu tun. Ich hab damit halt schlechte Erfahrungen gemacht. Ich hab das Ding nicht eingerichtet bekommen, ja. Und das sind dann so, das sind so subjektive Meinungen, und dann schließt man Dinge auch wieder aus oder kümmert sich nicht drum aus. Außerdem haben wir ja auch gefunden, hey, Garneti, das gefällt uns. Insofern, aber guck's dir gerne an.
44:20
Du scheinst ja irgendwie bei euch in der Firma migrieren zu wollen oder sowas. Nein, selber bin ich Freischaffnerdman. Und bei dem einen oder anderen Kunden könnte man sowas ja durchaus mal einsetzen. Aber habe halt auch euer Problem. Irgendwie und wann muss ich an meinen Nachteilbefolger denken.
44:42
Denn freie Leute sind in der Regel nur kurz beschäftigt. Weitere Fragen. Ich würde sagen, das ist dann auch die letzte Frage. Wir haben nämlich jetzt 12 Uhr. Und ihr sollt ja auch noch alle beim Rausgehen... bewerten.
45:00
Wir bzw. wir, weil ich mach ja auch mit, haben da jetzt so einen Ceph. Und du hast ja auch selber gesagt, das hat so den Vorteil, da ist irgendwie so ein Pool an Festplatten, da ist irgendwie so ein Cluster. Und wenn ich eine VM will, dann macht die da so ein Objekt da drauf. Und dann ist da irgendwie Magie und dann ist das redundant und überhaupt. Gibt es eigentlich auch noch andere Systeme, die jetzt nicht Ceph sind, die man mit Garneti benutzen kann, die sowas haben? Und es ist jetzt zum Beispiel so völlig egal, welche drei Systeme...
45:21
Normalerweise würde man das in dem Environment, wie wir es haben, im DRBD machen. Genau. Und dann kannst du halt nicht unbedingt eine VM direkt von da nach da migrieren, sondern musst erst in Secondary rüber tauschen, damit das dann geht. Genau. Und das andere ist, es gibt andere Interfaces, die du machen kannst. Soweit ich weiß, hat Google da sein eigenes System für. Und gleichzeitig ist es auch so...
45:41
Du kannst dann natürlich auch deine, was weiß ich, fette Dollarfirma appliance daneben ins Reck stellen, wo dann der Storage rausfällt, mit garantierter IOPS und was weiß ich. Und da fallen dann deine iSCSI-Tages raus. Das geht halt auch, aber ich fürchte auch, das werden wir nicht leisten können. Also, ich ziele halt irgendwie eher auf andere Softwarelösungen ab, weil bei der BD zumindest, so wie ich das bislang verstanden habe,
46:02
war halt so mein Eingriff, ich hab da so ein Primary und Secondary und wenn jetzt irgendwie die beiden Festplatten ausfallen, dann ist da halt was weg. Während bei Zev, ja, da ist irgendwie Rumfercluster. Deiner Trick ist, dass du da Rate noch mal drunter verwendest. Und ansonsten, der BD kannst du auch inzwischen mit drei Spiegelungen fahren. In neueren Kernelversionen. Ich weiß nicht, wie gut das in Garneti drin ist,
46:22
experimentell, aber naja, wisst ihr, man muss auch manchmal Dinge riskieren. Also ich mein... Ja. Ja, ansonsten bedanken wir uns für eure Aufmerksamkeit. Ich hoffe, wir haben euch ja ein bisschen unterhalten.
46:42
Und stimmt ab. Und ansonsten, wir stehen glaube ich gleich draußen noch einen Moment, wenn ihr noch irgendwie reden wollt. Dankeschön.