ChaosPad V1.1
Full screen

Server Notice:

hide

rc3-nowhere-talk-213 Latest text of pad rc3-nowhere-talk-213 Saved Feb 11, 2024

 
Hallo Du!
Bevor du loslegst den Talk zu transkribieren, sieh dir bitte noch einmal unseren Style Guide an: https://wiki.c3subtitles.de/de:styleguide. Solltest du Fragen haben, dann kannst du uns gerne direkt fragen oder unter https://webirc.hackint.org/#irc://hackint.org/#subtitles oder https://rocket.events.ccc.de/channel/subtitles oder https://chat.rc3.world/channel/subtitles erreichen.
Bitte vergiss nicht deinen Fortschritt im Fortschrittsbalken auf der Seite des Talks einzutragen.
Vielen Dank für dein Engagement!
Hey you!
Prior to transcribing, please look at your style guide: https://wiki.c3subtitles.de/en:styleguide. If you have some questions you can either ask us personally or write us at https://webirc.hackint.org/#irc://hackint.org/#subtitles or https://rocket.events.ccc.de/channel/subtitles or https://chat.rc3.world/channel/subtitles .
Please don't forget to mark your progress in the progress bar at the talk's website.
Thank you very much for your commitment!
======================================================================
 
 
[Musik]
[Gelächter]
[Musik]
[Gelächter]
 unser Sprecher ist Sebastian pichelhofer er ist Filmemacher und kameraentwickler und letzes ist der große mal hier ist denn sein Vortrag zur zur Einblicken in die Entwicklung einer Open Source äh Kinofilm Kamera würde uns erklären wie es mit dem axiumprjekt ähm dazu kam dass eine selbstgebaute oder selbsterstellte kinofilmkamera ins Leben gerufen wurde mit dem Ziel genau diese kinoeffekte zu erzeugen die zu einem Kinofilm dazu gehören also eine Körnung eine Tiefenunschärfe und auch ein gewisses Maß an Flimmern die einfach zu dieser Atmosphäre gehören das ganze gibt's seit grob 2006 sebastian hat mir vor gesagt er ist 2008 zu dem Projekt gestoßen und ich würde sagen jetzt lassen wir ihn mal erzählen worum es hier W geht viel Spaß wir sind hier im Zentralarchiv des filmarchivs Austria hier lagern über 200.000 Filme das sind über 500.000 Filmrollen oder 65 Millionen Meter Film das F war so nett uns hier unseren Talk aufzeichnen zu lassen ich weiß online und in echt das wir alles ganz was anderes aber es ist nun mal wie es ist und wir versuchen das Beste draus zu machen und immerhin können wir jetzt Dinge herzeigen wie eben hier wo wir sind und sozusagen eine Location mitbringen die so sonst nicht möglich wäre immerhin eine Chance aus der Krise sozusagen äh obwohl es vor aufgezeichnet ist gibt's nach dem Talk natürlich live Q&A wo ich dann auch online dabei bin und jetzt starten wir in die Geschichte des digitalen Films und Reisen zurück sozusagen in die Steinzeit oder in die Anfänge des digitalen Films in das Jahr 2001 bis jetzt war klar praktisch alles was man in einem Kino gesehen hat wurde auf analogen Film gedreht es wurde zwar schon einige Zeit lang die Postproduktion also die Film Nachbearbeitung digital abgewickelt und noch immer mehr Kinos fangen an auf digitale Projektion umzustellen aber immer noch ist Film also das analoge Material die einzige Möglichkeit einen Film aufzuzeichnen und das beginnt sich jetzt langsam zu ändern was ist analoger Film eigentlich 
eine Fotoemulsion also eine lichtsensitive Schicht auf eineran transparenten Folie die verändert sich bei Kontakt mit Licht und wird dann chemisch in mehreren Schritten entwickelt fixiert und dann mehrmals kopiert durchbelichtet oder eben geschnitten tatsächlich zerteilt zusammengeklebt wieder kopiert und so weiter und im Endeffekt geht dann jede kopierte Filmrolle nach diesem ganzen Prozess in ein Kino und wird dort durch den Projekt durchgespult und pro das war über 100 Jahre lang Stand der Technik und das täglich Brot und state of the art für viele Generationen von Filme machen und wir stehen jetzt sozusagen im Jahr 2001 am Anfang oder im Umbruch einer era wo sich das komplett aufhört und in sehr kurzer Zeit wandelt es herrscht Aufbruchstimmung wie gesagt immer mehr Kinos rüsten auf digitale Projektion um der Druck oder der Anstoß ist auch die Filme schon digital komplett digital zu produzieren warum es ist eine riesenkostenersparen ist einerseits natürlich das analoge Filmmaterial kostet pro Meter ein Vermögen sozusagen die gesamte Entwicklung ist aufwendig teuer die Technik ist teuer der gesamte Ablauf ist teuer alles ist teuer und digital Speicherplatz ist günstig wird immer günstiger und die Nachbearbeitung am Computer und leistungsstarken Geräten ist einfach ganz eine andere Dimension und ganz eine andere Möglichkeit und ganz eine andere Verfügbarkeit weil Computertechnik hat sich schon lange etabliert nur halt noch für die Akquisition des Films noch nicht und diese Lücke beginnt sich jetzt zu schließen man muss zurückdenken der erste komplett computeranimierte Spielfilm Toy Story ist jetzt schon 6 Jahre alt also es ist eigentlich schon einiges an Zeit vergangen seit das begonnen hat und jetzt beginnen zur Größen wie Robert Rodriguez mit once upon a time in Mexico oder vielleicht kennt jemand George Lucas Star Wars Episode 2 als erste große Produktion als erste große Hollywood Projekte ihre ersten Filme komplett digital zu drehen auf einer umgebauten Fernseh
 broadcast Kamera aber es gab eben nichts anderes das war die einzige Möglichkeit in High Definition Full HD und in 24 Bildern pro Sekunde aufzuzeichnen die kinokameratechnik insgesamt steckt aber noch völlig in den kinderschulen wie gesagt es ist eine Fernsehkamera und auch nicht jeder ist zufrieden mit dem Ergebnis aber es ist ein Anfang und insgesamt äh ist der Wandel eigentlich nicht mehr aufzuhalten das Kino hat sich Jahrzehnte lang schon als qualitativ hochwertiger und wertvoller als das Fernsehen gesehen einen großen Beitrag dazu hat eben die kinoästhetik und das Filmnegativ was eben im Gegensatz zu Fernsehen von der Abbildungsqualität deutlich hochwertiger war aber was macht jetzt diese kinoästhetik genau aus einerseits haben wir dieses typische Flimmern wir zeichnen im Kino auf mit 24 Bildern pro Sekunde Fernsehen je nachdem Europa oder USA mit 50 Halbbildern oder 60 Halbbildern das heißt Fernsehen ist immer von den Bewegungen deutlich flüssiger deutlich schnellere frilraten gewesen das Kino deutlich langsamer dieses pulsierende Licht WE auch bei der Projektion ist ja immer der Film läuft ja nicht in einem durch durch den Projektor sondern wird immer um ein Bild weitergeschoben dann das Licht aufgedreht dann das Licht wieder abgedreht dann der Film wieder um ein Bild weitergeschoben das heißt es gibt den ständiges pulsieren das nimmt man im Kino zwar nicht wahr wenn man mal in den Film hineinkippt aber ist doch von der Ästhetik her ganz was anderes als im Fernsehen es gab eine Zeitlang einen Trend HFR oder high frame rate im Kino wo dann mit 48 statt 24 Bildern aufgezeichnet und projiziert wurde ein Paradebeispiel oder eins der ersten großen Projekte die das umgesetzt hat war Peter Jackson Hobbit 2012 und die Idee war eben hier durch die Actionsequenzen und die schnellen Bewegungen dass ich das mit einer höheren frame rate besser intensiver erleb machen lässt es gab auch eine Zeitlang einen ähnlichen Trend bei Fernsehgeräten wo eben Smart TVs intelligente Z
wischenbilder berechnet haben und damit auch frilmraten von 24 auf entsprechende 50 oder 60 Herz hoch gerechnet haben mit Marketing Namen wie clear Motion Motion estimation und so weiter das Ergebnis war das einfach jeder teuer produzierte Hollywood Film mit hochwertiger Bild Ästhetik im Endeffekt ausgesehen hat wie eine billige fernsehsopera war ein totaler Flop äh mittlerweile wird praktisch nichts mehr in HFR gedreht und produziert und ist wieder aus der sozusagen Geschichte entschwunden die Filmkörnung entsteht durch die zufällige Verteilung der silberkristalle am filmngativ und der große Unterschied zum digitalraster am digitalen Bildsensor der ja immer genau dasselbe Muster dasselbe Gitter hat ist eben dass die Verteilung der silberkristalle mit jedem Bild unterschiedlich und zufällig ist das bedeutet dass wir wenn wir das Film negativ ansehen oder den Film projiziert sehen äh diese zufällige Verteilung sich in der Bewegung auflöst und wir den Eindruck oder die Wahrnehmung haben dass das deutlich mehr Definition mehr Auflösung analoge enthält sozusagen es gab einen kinokamerahersteller der diese Technik auch für Digital nutzen wollte und zwar hat der den Bildsensor mit Mikrovibrationen mit jedem Bild um die Distanz von unter einem Pixel verschoben das hat auch technisch funktioniert aber dann doch zu aufwendig und hat sich nicht durchgesetzt im Endeffekt sehen wir gerade dass einfach die Auflösung der Bildsensoren immer größer wird und das sozusagen die Technik ersetzt drittens die Tiefenunschärfe und das ist vielleicht das was die meisten mit kinoästhetik assoziieren entsteht neben der wah des Objektivs K Weise durch die projektions oder die abbildungsfläche also entweder am analogen Film negativ oder am digitalen Sensor die Größe eines apsc Sensors entspricht ziemlich genau der Größe von einem Super 35 negativ der Unterschied zum Kleinbildfilm also zwischen Super 35 und Kleinbildfilm ist die Richtung in die der Film vorgeschoben wird bei kein Bild also einem
 Fotoapparat wird der Film links eingespannt und wandert dann horizontal nach rechts durch dadurch ist er ein bisschen größer in der abbildungsfläche als dasselbe Film in den Filmkameras der vertikal durchgezogen wird also in diese Richtung und dadurch ein bisschen einen kleineren Ausschnitt am negativ nutzen kann nur Fernsehkameras haben immer schon und immer noch typischerweise eine zwei Drittel Zoll Bildsensor also deutlich kleiner als Super 35 ist eher mit der Größe von 16 mm Film vergleichbar und dadurch kommt eben dass die fernsehästhetik deutlich weniger tiefen undschärfe oder mehr tiefens Schärfe enthält und das eben die klassische seewohnheit zwischen Film und Fernsehen unterscheidet und viertens der Dynamikumfang der gibt das Verhältnis von Licht zwischen den hellsten und den dunkelsten Stellen im Bild an und der ist typischerweise beim Fernsehen das was wir als clipt Highlights kennen also weiße Bereiche die keine Zeichnung mehr enthalten die überbelichtet sind oder saturated sozusagen also gesättigt klippt und äh das was wir aus Audioaufnahmen z.B kennen wenn es zu stark aussteuert zu laut aufgedreht ist dann beginnt es zu krachen das ist sozusagen vergleichbar mit Bereichen im digitalen Bild die eben keine Information mehr enthalten weil sie über belichtet sind und diese Überbelichtung ist sozusagen das umliebsame Ergebnis von zu niedrigem Dynamikumfang und eben ein typischer Begleiter für Fernseh und video material das Film neativ im Gegensatz dazu hat wie kodakal festgestellt hat ca 13 Blendenstufen Dynamikumfang wobei eine Blendenstufe bedeutet die Verdopplung der Lichtmenge Fernsehkameras waren lang Zeit deutlich unter diesem Bereich mittlerweile können kinokameras ähnliche Bereiche erreichen wie eben das Filmnegativ aber typisch für Fernsehen und das können wir immer noch heutzutage sehen gerade bei Livesendungen ist für Fernsehkameras immer noch das z.B der Himmel sozusagen ausrei wie wir das nennen also eben klippt oder überbelichtet ist zurück i
ns Jahr 2001 der Wandel Kameratechnik aus dem Fernsehen ins ko zu bringen ist nicht mehr aufzuhalten wie gesagt es gibt eine immense Kostenersparnis und wo das Geld zu Hause ist da geht die Richtung hin klarerweise Speicherplatz ist billig Kameratechnik wird sozusagen von Computertechnik aufgeholt eingeholt 5 Jahre nach Star Wars Episode 2 im Jahr 2006 gibt es immer noch keine echte Kinokamera die vergleichbar ist eben mit einem analogen negativ und auch auch für ind Filmmacher ist klar sobald die Technik kommen wird wird sie zuerst verfügbar sein für die Hollywoodgrößen für die Studios das heißt es wird eine Zeit dauern bis das allgemein und leistbar verfügbar sein wird aber man hat das Potenzial mittlerweile voll erkannt und natürlich versucht auch mit einfachen Mitteln oder Trick sozusagen sich der Film kinofilmästhetik anzueignen und ein so eine Möglichkeit war das sogenannte optische 35 mm Adapter im Endeffekt eine Mattscheibe wo von der einen Seite mit einer kinooptik oder einer Fotooptik ein Bild projiziert wird auf die Mattscheibe die halbtransparent ist und von der anderen Seite dann mit einer günstigen Kamera mit einem campcorder abgefilmt wird das heißt man hat sozusagen kinofilmästhetik die Tiefen undschärfe und so weiter für arme entwickelt eines der Probleme dabei war aber dass diese matscheibe eine bestimmte Oberfläche Struktur hat und wenn sich diese matscheibe nicht bewegt sieht man diese Oberflächenstruktur mit der Zeit einfach weil eine Art dünnes Papier ist wo dann bestimmte phaserstrukturen und unten Regelmäßigkeiten sichtbar werden das heißt man jetzt begonnen zu überlegen wie kann man diese matscheibe in Bewegung versetzen damit das eben sich ein bisschen verschmiert sozusagen es gab dann tatsächlich rotierende Adapter oder vibrierende Adapter wo eben diese Mattscheibe durch die Bewegung die Struktur verlor hat aber das hat dann bedeutet erstens man braucht einen Motor mit einer eigenen Stromversorgung das macht dann einen Lärm und es wird ein
fach immer komplizierter in dem Sinn und hat sich im Endeffekt dann nicht durchgesetzt in dem Moment wo größere Bildsensoren verfügbar geworden sind aber es war der Anfang und hat auch eine ganz bestimmte Ästhetik gehabt im Endeffekt so eine Mischung aus Video und Film könnte man sagen zu dieser Zeit entdeckt ein niederländischer Filmemacher in einem Onlineforum eine Diskussion wo sich die Menschen austauschen darüber eine elfel Kamera zum Filme machen zu adaptieren ein amerikanischer Hersteller der eigentlich Produkte für wissenschaftliche Anwendungen für Industrieanwendungen produziert aber es war die erste Kamera die komplett Open Source und Open Hardware war das heißt aus damaliger Sicht hat man sich gedacht möglicherweise kann man die doch sehr gut zum Filme machen adaptieren die elffelkamera war relativ leistbar mit 600 bis 1000 $ und für damalige Verhältnisse hat auch eine sehr hohe Auflösung gehabt mit 3 Megapixel also deutlich über Full HD damals war noch Standard HD also 27p weit verbreitet und Full HD noch relativ einzigartig insofern ein ihrer Zeit sehr voraus dieser Moment 2006 begründet eigentlich den die Geburtsstunde und den Anfang des apertus Community Projekts in dem Sinn
[Musik]
[Musik]
 es hatte zwar noch nicht den Namen und war einfach nur eine Online Zusammenarbeit von auf der ganzen Welt verteilten Menschen die einfach an einem Problem oder an eine Aufgabe gemeinsam gemerkt haben und sich ausgetauscht haben aber ihre Entwicklungen und was sie herausgefunden haben wieder online gestellt haben wieder der Community zur Verfügung gestellt haben und genau da ist den sozusagen der Grundstein gelegt word für alles was danach gekommen ist und auch wo wir heute sind Open Source Cinema und die Entwicklung von den Ursprüngen eben eines 35 mm Adapters und der
[Musik]
[Musik]
 elfelkamera
[Musik]
[Musik]
[Musik]
 es entstanden dann eine Reihe von Filmprojekten mit oder um die el Kamera eben Oscar der den 35 mm Adapter gebaut hatte oder ein brasilianisches Team das mit Red forest nicht nur die Kamera komplett Open Source benutzt sondern die gesamten Produktions und auch post Produktionsprozess nur ausschließlich mit Open Source und Open Hardware Technologie umgesetzt
[Musik]
[Musik]
 hat die ersten die größere Bildsensoren zur Verfügung hatten und die auch schon serienmäßig verkauften Waren die Hersteller von digitalen spielreflexkeras wie z.B Canon in Kompaktkameras waren Videofunktionen schon gang und gebe aber ein spielreflex Kamera ist noch ein absolutes Novum und eine Kamera die sich da besonders als Symbol des Beginns der Indie Kamera Filmproduktion hervorgetan hat ist die Canon 5D Mark 2 aber leider war die Implementierung von Canon ein bisschen halbherzig und qualitativ unzureichend das hat dazu geführt dass ein neues Open Source Projekt geboren wurde um eben diese unzulängigkeiten zu umgehen und so hat tramel Hudson 2009 die Canon Firmware reverse engineert und eben genau diese Probleme behoben und das das Magic lenton Projekt genannt über die Folge Jahre ist diese F dann auf viele andere spielreflex Kameras sptiert waren und ist heutzutage sozusagen ein Symbol dafür dass Nutzer alle Dinge auf ihren Canon spielref Kameras machen können die Kanon nie wollte dass die Kameras eigentlich können bis zu den spielreflex Kameras die gar keine Videofunktion haben und mit matlänn jetzt RAW Video aufzeichnen können in den Folgejahren drä ganz viele Hersteller von digitalen kinokameras auf dem Markt um diese Lücke zwischen Angebot und Nachfrage zu schließen 2012 geht Eastman Kodak als einer der großen filmnativ Hersteller in Konkurs die Nachfrage ist eingebrochen die digitale Produktion hat sich völlig durchgesetzt Kodak kann zwar dann gerettet werden und gibt teilees das core business ab und gibt's heute als Marke schon wieder aber der analog Filmmarkt ist kollabiert die Nachfrage nach analogfilm ist komplett eingebrochen und heutzutage eigentlich nur noch eine Art liebhabernische sozusagen früher gab es insgesamt eine Handvoll von 35 mm Kameras auf jeden Kontinent und die würden einfach von einem Projekt zum nächsten weitergereicht für jeden Filmemacher war es klar dass er keine Kamera besitzt in dem Sinn sondern die für ein Projekt und für die 
Projektdauer mieten wird das war sogar bei den großen Hollywood Studios nicht anders dadurch dass jetzt aber die Technik digital wird und die Preise drastisch sinken durch diese starke Konkurrenz wird's plötzlich leistbar auch für einzelne Projekte sich Kameras zu kaufen das führt zur paradoxen Situation dass die Kameras jetzt einerseits leistbarer und aber auch immer leistungsstärker werden aber anderserseits extrem unzugänglich weil sich eben jeder Hersteller um seinen Wettbewerbsvorteil zu sichern abschottet und entweder mit wendor Login verhindert dass äh konkurrierende Technik angetockt werden kann an die Kamera es kann nur noch der eigene Akku das eigene Speichermedium und andere accessories verwendet werden die Bildverarbeitung passiert in einer Art Blackbox in einer proprietären bildverarbeitungsmagie niemand weiß was in der Kamera wirklich passiert niemand kann die Kamera reparieren öffnen verstehen alles wird nur durch lizenzierte Partner oder eben durch die eigene Firma ermöglicht und so eben die paradoxe Situation dass die Zugänglichkeit und die Möglichkeiten drastisch eingeschränkt wurden obwohl die Leistungsfähigkeit deutlich gestiegen ist außerdem sinkt die Lebenserwartung von neuen Produkten drastisch weil regelmäßig neue Generationen von Produkten herauskommen die die alten ersetzen und der Hersteller die alten Generationen einfach vernachlässigt um das neue Produkt zu verkaufen die apertus und die Magic Lanter Communities entwickeln sich zum radikalen Gegenpol dieser Strömung und tun sich zusammen um eine komplett eigens neue und radikal andere Kamera zu konzipieren sie soll veränderbar modular so zugänglich wie möglich sein so kompatibel sein mit allen möglichen Standards die schon existieren und das ist sozusagen die Geburtsstunde der axium alles entwickelte wird unter der General Public License für Software und das CERN open Hardware license für Hardware veröffentlicht und immer fschritt oder Herausforderungen umfangreich mit der Community und d
er Öffentlichkeit geteilt der axium Alpha Prototyp der erste Proof of Concept Prototyp wird 2014 im Wiener Hackerspace dem Metalab zum ersten Mal präsentiert in der Kamera läuft Linux und die gesamte Bildverarbeitung passiert in einem field Programmer gatoray also in einem FPG in Echtzeit auf die Verwendung von proprietären C wurde komplett verzichtet und alles selbst neu und Open Source entwickelt das Team kommt aus den unterschiedlichsten Richtungen es gibt Software-Entwickler hardware-entwickler Feinwerkmechaniker Kameraleute Filmschaffende Künstler im Endeffekt verfolgen alle gemeinsam dasselbe Ziel Tools zu entwickeln die man verändern kann die man verstehen kann die man erweitern kann und das bezieht sich jetzt nicht nur auf die Reparierbarkeit sondern die Erweiterbarkeit hat ganz viele Facetten in unterschiedliche Richtungen es gibt unter Filmemachern etwas das wir als den Look eines Films bezeichnen das bezieht sich auf alle Gestaltungselemente des Bildes wie jetzt die Beleuchtung die Farben die Wahl des filmstock eben der eine typische Charakteristik hat und gibt einem Film sozusagen seine visuelle Identität einen visuellen Charakter sozusagen und das ist eben die typische Handschrift eines director of photography und eines Koloristen dass sie diesen Look definieren und den auch für einen Film als typisches Wiedererkennungsmerkmal zeichnen sozusagen so wie es damals üblich war den filmstock entsprechend dem Look zu wählen ist es heute üblich die Kamera oder den Kamerahersteller entsprechend zu wählen jeder Hersteller hat eine ganz eigene Bildcharakteristik für die Bilder die aus den Kameras herauskommen und das ist das Ergebnis von properitärer Bildverarbeitung und was darin genau passiert in der Kamera ein Betriebsgeheimnis in der axium mit dem Zugang eben zu allen Schrauben und Möglichkeiten diesen Look und die Bildverarbeitung zu be Flussen gibt's auch volle Transparenz über die Bildverarbeitung und die Daten die in der Kamera entstehen und damit viel me
hr technische und auch kreative Möglichkeiten zur Einflussnahme auf die
[Musik]
 Bildgestaltung
[Musik]
[Musik]
[Musik]
 die axium Beta ist als zweite Generation Hardware deutlich kleiner als der axium Alpha Prototyp deutlich modularer und wird mittlerweile für Entwickler auch schon in kleinerie hergestellt bis vor kurzem noch
[Musik]
 manuell
[Musik]
 und Seiter seit 2021 auch industriell
[Musik]
 hergestellt es gibt mittlerweile auch einen zweite Generation Metallgehäuse Prototypen und seit ganz kurzem ganz frisch aus den Entwicklungslabors sozusagen kann der axium Recorder auch schon uncompressed 12 Bit RAW Video aus der Axion Beta auf sololl jetzt Media schreiben heute ist die Anzahl von Produkten und Herstellern am kinokameramarkt weiter gewachsen die Technologie ist reifer und leistungsstärker geworden aber an der Zugänglichkeit oder der Unzugänglichkeit proprietärer Technologie hat sich leider wenig getan wenig verbessert insofern bleibt die Mission des axumprojekts so relevant und so aufregend wie am ersten Tag vielen viel vielen vielen Dank Sebastian se ger wunderbarer Talk das tatsäch das Internet einige Fragen dazu und ich würde einfach mal starten die erste Frage ist wie verbreitet ist denn die aium Kamera heute also wir haben um die 50 die Pakets schon gebaut und verschickt international und der Schritt eben zur nächsten Stufe jetzt vom developerakit zur echten produktionskamera eben so wie man es gewöhnt ist von einer Kamera mit bedieninterface Gehäuse und so weiter ist gerade mitten in der Transition sozusagen das heißt da sind wir noch dran aber ja das ist so in etwa der Stand der Dinge im Moment okay danke schön ähm vorin ging es tatsächlich um proprietäre Kameras ähm der frageauto sagt soweit er das weiß bezieht sich das normalerweise auch auf die Daten also die sind dann genauso proprietär ist das nicht ein Problem für die Archivierung in 20 bis 100 Jahren sogar ein Problem sofort jetzt weil natürlich nur die Tools und die Software vom eigenen Hersteller dann diese Dateien fahrarbeiten lesen weiter manipulieren können und so weiter also genauso wie jetzt die Technik die die Kamera Aufzeichnung also die Akquisition betrifft ist natürlich auch Playback Datenstruktur metadatenstruktur und diese ganzen Dinge ein riesen Problem wenn es propriit ist und eben nicht zugänglich auf jeden Fall vielen Dank ähm dann gab es eine Verständnisfrage ist den
n tatsächlich alles Open Source also die schematics das verelog VDL für die fpgr Programmierung und auch der Software Sourcecode es ist tatsächlich alles was wir machen Open Source alles was die Hardware betrifft open Hardware also ja schematics build of materials Board Designs alles und natürlich auch alles was scode betrifft Firmware Tools Verarbeitung FPG Code und so weiter jawohl sehr cool dann gab es eine Frage welche Objektive kann man mit der Kamera benutzen das ist ein großes Thema weil wir natürlich sehr uns eben nicht in eine Sackgasse hinein rühren wollten wie das eben die Hersteller tun indem eben jeder seinen eigenen Objektiv Mount erfindet und was wir uns entschieden haben ist einen E-Mount zu verwenden also ein wer Distanz zwischen dem bayonet und das Sensoroberfläche sehr kurz ist und sich damit praktisch alles was es sonst an Objektiven und mechanischen Systeme gibt ganz einfach mit mechanischen Adaptern dran schrauben lässt praktisch immer und hat glaube ich eine flangech fogal distance von 18 mm und das ist alles was jetzt Spiegelreflex und so weiter bedeutet ist sowieso schon mal deutlich länger von der Distanz weil der Spiegel in der Kamera noch das dazwischen ist das heißt da kann man praktisch alles drauf montieren was es gibt an Systemen im Moment vielen Dank dann gab es eine Frage zu her HFR warum kann man denn kann man motion blur nicht einfach in der Postproduction drauf rechnen also als digitaler Effekt der Fragensteller weiß darauf hin dass wenn er sich richtig erinnert das mal das Hauptargument gegen HFR gewesen sein soll also für mich ist das Hauptargument für HFR eben die Bewegungs Intensität einfach durch die höheren Bilder normalerweise dreht man wenn man filmt immer mit der halben Belichtungszeit von der fremenrate das heißt es gibt so einen Art 180° shutter motion blur den wir als Menschen als am angenehmsten empfinden sozusagen das hat sich irgendwie etabliert und ich kenne jetzt keine Technik wie man motion blur digital also nat
ürlich gibt's es man kann z.B einfach Frame blending machen sozusagen aber dass das wirklich angewendet wird an in in Massen und groß verbreitet ist mir neu oder habe ich noch nie gehört wahrscheinlich wird's funktionieren ob es wirklich gut aussieht oder wie gut wirklich funktioniert würde ich jetzt nicht meine Hand jetzt vuerlegen also es ist schon ein Effekt der einfach aus der Bewegung beim Drehen kommen sollte okay dann wurde wurdest du gebeten mal zu erläutern wie denn ein typischer Postproduction Flow Flow auf Open Source Basis aussehen könnte äh also grundsätzlich ist natürlich das erste die Akquisition das heißt das PIL wird irendwie aufgezeichnet am Set dann oft gebackupt optimalerweise und entweder äh davon dann ein daily rausgerechnet also ein verarbeitbares schneidbares feil z.B und entweder da wird wird dann geschnitten oder das wird dann noch mal umgerechnet und so weiter und dann entweder im letzten Schritt also klassischerweise in der Post bei der also im finishing in der Farbkorrektur greift man dann wieder zurück aufs Original original also auf die absoluten Rohdaten oder mittlerweile das mit Computertechnik und Speicherplatz mittlerweile auch nicht mehr so ein Thema ist zieht man teilweise auch schon die gesamten Rohdaten durch die Produktion durch also es gibt jetzt nicht so den typischen Workflow sondern das entwickelt sich jeder wie er es braucht wie es das Projekt braucht wie es das Datenmanagement braucht und so weiter okay äh dann interessiert Menschen auch die direktverschlüsslung mittlerweile ähm als Feature programmiert wurde die direktverschlüsselung von Videodaten oder ja der Aufnahmen würde grundsätzlich denke ich kein Problem sein die Frage ist ob es wirklich in Echtzeit passieren muss weil natürlich eine durchaus exzessive Datenmenge abgelegt wird in Echtzeit das heißt die Live zu verschlüsseln macht wahrscheinlich wenig Sinn aber was könnte sofort nach der Aufnahme passieren also immer wenn die Kamera gerade nicht aufzeichnet könnt
e man die Daten verschlüsseln das wäre grundsätzlich ganz einfach möglich im Recorder wir verwenden einen Linux singlebard Computer im Moment das heißt alle Tools die da zur Verfügung stehen werden da sofort einsetzbar in dem Sinn danke schön ähm dann hat jemand eine Frage zur ähm äh zur Bildstabilisierung glaube ich und zwar gibt es eine achsenstabilisierung in der Kamera weil es ja sowohl Hersteller gibt die das im Objektiv umsetzen als auch welche die das im Body implementiert haben nein gibt's nicht bei uns keine aktive bildbestabilisation danke schön und die letzte Frage die Menschen gestellt haben ist ist denn eine Massenproduktionen Überlegung ja das ist eine Geldfrage hauptsächlich also Masse in dem Sinn ist bei uns eine ganz andere Definition als wenn man jetzt nach China geht und sagt ich möchte Hardware in Masse produzieren der Traum wär es natürlich irgendwann dass unsere Kameras vom ferband purzeln ohne stehen zu bleiben sozusagen aber im Moment ist es einfach eine eine finanzielle Frage was wir uns leisten können was wir an Auftragsvolumen schaffen und stemmen können und im Moment sind wir eher noch bei der sehr sehr kleinere also die Masse sind bei uns werden schon 100 Stück eine eine große Masse da fangen die meisten Elektronikhersteller noch gar nicht an ihre Maschinen umzustellen danke schön hier kommen gerade auf früpren rein ich würde einfach mal weiterlesen wenn das okay ist ja gerne welche Formate werden aufgenommen und gibt es auch Sequenzen in EXR Format also wir haben sozusagen ein pure RAW Format entwickelt also entwickel ist vielleicht das falsche Wort es kommen vom Bildsensor einfach in Bayer Muster also ein color Filter Array beer Format Daten in 12 Bit pro Pixel und die schreiben wir einfach sequentiell in ein PIL hinein das ist gar keine echte Dateistruktur sondern einfach 12 Bit pro Pixel hinein ins PIL äh das ist sozusagen mal die die Datenbasis für absolute Rohdaten und dann ist die Frage wie man weiter tut also das Schreiben wir im
 Moment und ob man das dann in ein ProRes umwandelt oder in ein Exer z.B ist dann eigentlich nur noch eine Frage was am axium Recorder wie gesagt es ist ein Linux Computer als nächster Schritt passieren soll möchte kann danke schön ähm lässt sich denn die axium Beta compact auch ohne UV bzw Infrarotfilter beispielsweise für Infrarot Aufnahmen verwenden ja also der Filter ist im Moment entweder aufgeschraubt beim developpaket oder in der aer compact zwischen Objektiv Mount und Sensor da gibt's zwei Layer sozusagen von filterholdern und einer davon ist eben ein UV Infrarot Sperrfilter oder Bandpassfilter und den kann man entweder rausnehmen hineintun einen anderen Filter noch ergänzen und das ist einfach so Art Lego Baukasten Prinzip Filter rein oder nicht okay magst du noch mal sagen welche Auflösung die Kamera kan der Bildsensor ist ein global shutter Sensor mit 12 Megapixel das sind 4000 x 3000 Pixel bei 12 Bit Farbtiefe und der Sensor schafft bei voller Auflösung bei voller Performance bis zu 300 Frames pro Sekunde in 8 Bit bei 12 b ist ein bisschen langsamer danke schön und dann interessiert Menschen ob es möglich ist zwei Kameras zusammenzustecken um ein stereoskopisches Bild zu erhalten so wie das z.B mit Red Kameras geht W haben es noch nicht gemacht aber grundsätzlich die Hardware wäre alles vorhanden um sogar die bildauslese Synchronisation von von Sensoren zu synchronisieren theoretisch man müsst einfach mal probieren jetzt was für ein Interface das braucht was für eine Genauigkeit das braucht aber im Endeffekt sind es zwei Linus Computer die sich ganz einfach miteinander zusammenschließen zusammen kommunizieren lassen und eben die Frage was genau für eine Genauigkeit notwendig ist ob es wirklich der Auslese Start am Bildsensor sein muss oder ob es jetzt kameraettings sind und so weiter danke schön gefühlt hast du übrigens den Rekord für die meisten Fragen gerade bekommen äh vielen Dank für deine Geduld bei der Beantwortung der Fragen vielen Dank für den wu
nderbaren Vortrag sehr gerne
[Musik]
 hier