Ich habe einige Zeit in die Weiterentwicklung der Chaptr App investiert. Neben einigen kleineren Verbesserungen und Bugfixes ist es nun möglich mit der App beliebige Audiodateien aus dem Web herunterzuladen, um dann dafür Kapitelmarken zu erstellen. Natürlich kann man auch immer noch Audiodateien aus Dropbox oder iCloud Drive importieren.
Vielleicht entsteht dadurch sogar die Möglichkeit, dass Hörer eines Podcasts Kapitelmarken für den Podcaster erstellen, der diese dann im Nachhinein auch allen anderen Hörern zur Verfügung stellen kann.
Ganzen Artikel lesen
Um Videos von Youtube herunterzuladen, ist youtube-dl wirklich absolut mein Tool der Wahl. Vor allem, weil ich mir sehr gerne auch Vorträge ansehe. Sie lassen sich mit der Option --extract-audio herunterladen und dann komfortabel wie ein Podcast genießen.
Dabei stoße ich aber immer mal wieder auf das Problem, dass in Deutschland viele Videos wegen Urheberrechtsproblemen mit der GEMA gesperrt sind. Das hat zum Teil auch seine Berechtigung. In einigen Fällen aber auch nicht, da die Erkennung automatisiert stattfindet.
Ganzen Artikel lesen
Ich nutze sehr gerne youtube-dl um Videos von Youtube oder auch ganz vielen anderen Videoplattformen herunterzuladen. Heute hatte ich den Fall, dass ich eine ganze Reihe an Videos laden wollte. Auch das lässt sich recht einfach machen.
Zunächst legt ihr eine simple Textdatei an, die eine Liste all der Video-URLs enthält, die ihr herunterladen wollt. Hier als Beispiel videoliste.txt:
https://www.youtube.com/watch?v=P9-FCC6I7u0 https://www.youtube.com/watch?v=EiaLqBTTPrs https://www.youtube.com/watch?v=P9-FCC6I7u0 https://www.youtube.com/watch?v=EiaLqBTTPrs Anschließend könnt ihr youtube-dl so aufrufen, dass es diese Liste einließt und herunterlädt:
Ganzen Artikel lesen
Ich habe das öfter mal: Ich möchte mit wget etwas herunterladen, aber eigentlich brauche ich die Bandbreite meiner Internetanbindung für andere Dinge (so viel Bandbreite habe ich leider nicht).
Kein Problem, man kann wget sagen, wie viel Bandbreite es nutzen darf:
wget --limit-rate=40000 http://example.com/folder/file
Ganzen Artikel lesen