IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert
ITleague GmbH | Ingo Lücker
All episodes
Best episodes
Top 10 IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert Episodes
Goodpods has curated a list of the 10 best IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert episodes, ranked by the number of listens and likes each episode have garnered from our listeners. If you are listening to IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert for the first time, there's no better place to start than with one of these standout episodes. If you are a fan of the show, vote for your favorite IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert episode by adding your comments to the episode page.
#032 - SmartWatch
IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert
11/10/17 • 5 min
Wir hören es überall und spätestens seit den Apple Watches für bis zu 20.000 Euro wissen wir wir teuer die neuen "wearables" sein können. Was ist denn eine SmartWatch eigentlich genau?
Dies und mehr beantwortet Daniel Ascencao in der heutigen Folge.
#006 - POP3 / IMAP - was benötige ich wirklich?
IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert
05/09/16 • 6 min
In dieser Episode erklären wir was man unter POP3 bzw. IMAP versteht. Nennen Beispiele für den Einsatz und wie so häufig die Vorteile und Nachteile der Nutzung. Zudem finden Sie auf unserer Website unter www.innovativeit.de/8006 den Hinweis auf die drei bestens kostenlosen E-Mail-Anbieter, die sowohl POP3 als auch IMAP anbieten.
#002 - Was sind eigentlich diese Cookies?
IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert
04/09/16 • 2 min
In dieser Episode erklären wir Ihnen vom IT Manager Podcast, was Cookies sind, zeigen Ihnen ein Beispiel auf, erklären Ihnen, ob Cookies gefährlich sind und wieso Sie Cookies löschen sollten.
#003 - Was ist eine SSD?
IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert
04/15/16 • 5 min
Wir erklären, was eine SSD ist, welches die Vor- und Nachteile sind, ob es Alternativen zur SSD gibt, welches die aktuellen Größen sind und wozu sich SSDs ideal eignen bzw. besser gemieden werden sollten. Zudem bieten wir auf unserer Website unter www.innovativeit.de/8003 weitere Informationen zu dem Thema, beantworten die Frage, wieso Sie auf eine externe SSD verzichten sollten, haben einen Leistungsvergleich aktueller SSDs hinterlegt und eine Empfehlung für eine professionelle SSD abgegeben.
#115 - Was steckt hinter FIDO und FIDO2?
IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert
09/13/19 • 5 min
Die Abkürzung FIDO steht für Fast IDentity Online und ermöglicht, vereinfacht formuliert, eine starke und sichere Authentifizierung im Internet- und das ganz ohne Passwörter.
Wie sie bereits wissen, gilt die Kombination von Benutzername und Passwort längst nicht mehr als der heilige Gral, wenn es um die sichere Authentifizierung im Internet geht.
So wurde 2013 die FIDO-Allianz gegründet. Die gemeinnützige Organisation hat das Ziel gemeinsam mit vielen verschiedenen Unternehmen, offene und lizenzfreie Standards für die weltweite Authentifizierung im Internet zu entwickeln und so die Online-Sicherheit signifikant zu erhöhen.
Um dieses Ziel zu erreichen, hat die FIDO-Allianz bis 2014 zwei lizenzfreie Standards entwickelt, die unter den Namen U2F und UAF bekannt sind.
- U2F ist die Abkürzung für universeller zweiter Faktor. Der Standard beschreibt eine allgemeine Zwei-Faktor-Authentifizierung. Das bedeutet, dass man mit U2F bereits existierendes Verfahren zur Benutzerauthentifizierung mit einem zusätzlichen Faktor absichert. Diese Erweiterung kann z.B. die Benutzung eines Tokens beispielsweise ein USB-Stick sein, welches Informationen beinhaltet die die Authentifizierung erst ermöglichen.
- Der zweite Standard ist UAF, was für universelles Rahmenwerk zur Authentifizierung steht. Der Standard beschreibt, wie man sich im Internet ohne Passwort authentifiziert. Hierzu können biometrische Verfahren zum Einsatz kommen, sodass ein Benutzer aufgefordert wird sich z.B. per Fingerabdruck an einem Gerät zu authentifizieren. Das Besondere an diesem Verfahren ist, dass der Fingerabdruck nicht an den Server weitergeleitet wird, sondern nur zu einer lokalen Authentifizierung beiträgt, sprich der Nutzer authentifiziert sich nur gegenüber einem lokalen Gerät, einem sogenannten FIDO Authenticator. Das kann beispielsweise ein Smartphone sein. Nach der lokalen Authentifizierung wird von dem Gerät die asymmetrische Kryptographie verwendet, um den Benutzer am Server authentifizieren zu können.
Mit dem FIDO2 Projekt wurden die beiden FIDO-Standards U2F und UAF weiterentwickelt.
FIDO2 besteht aus einer Web-Authentifizierungsspezifikation, bekannt als WebAuthn, welches für die Browser-Server-Kommunikation zuständig ist und das entsprechende Client-to-Authenticator-Protokoll, kurz CTAP-Protokoll, welches die Browser-Authenticator-Kommunikation definiert.
Der neue FIDO2-Standard ersetzt das herkömmliche Passwort und führt folgende Sicherheitslevel für die Authentifizierung ein:
- Die Ein-Faktor-Authentifizierung: Hier wird das Passwort durch den Besitz des Authenticators ersetzt.
- Die Zwei Faktor Authentifizierung: Hier wird das Passwort durch den Authenticator und die Kenntnis über eine PIN, die zuvor im Authenticator gesetzt wurde, ersetzt.
Die Ergänzung zu den bisherigen Standards besteht darin, dass mit FIDO2 nicht nur der Besitz des Authenticators, sondern durch die Verwendung eines PIN für den Token auch Wissen nachweisbar ist und damit gänzlich auf Passwörter verzichtet werden kann.
Wie funktioniert der Authentifizierungsprozess nun genau?Den Authentifizierungsprozess übernimmt ein Challenge-Response-Verfahren, wobei der Browser bei Authentifizierung an Webseiten die Rolle eines Relays übernimmt. Im Detail verhält sich das wie folgt:
- Die Webseite sendet eine Challenge an den Client-Browser, dieser leitet die Challenge mit weiteren Daten an den Authenticator weiter.
- Der Authenticator fragt die bei der Registrierung zuvor eingerichtete Zugangsberechtigung (privater Schlüssel) ab und überprüft Wissen des Benutzers (PIN). Sind diese Schritte erfolgreich, erzeugt er eine digitale Signatur der Challenge und übergibt diese an den Browser.
- Der Browser reicht die signierte Challenge an die Webseite weiter, welche die Signatur überprüft und bei erfolgreicher Verifizierung den Client authentifiziert
Der Vorteil von der FIDO- Authentifizierung ist, dass sie auf die fortschrittlichere Challenge-Response Technik setzen, bei der das geteilte Geheimnis (der Private-Key) den Authenticator nicht verlässt und damit nicht übertragen werden muss. Dies hat vor allem beim Kompromittieren eines Endgeräts beträchtliche Vorteile, da Malware wie Keylogger keine Chance bekommen, Informationen abzugreifen, die eine Authentifizierung bei einem Dienst ermöglichen.
Auf der anderen Seite muss man für den Fall eines Authenticator-Verlusts wichtige Vorkehrungen treffen: Entweder man richtet mehrere Authenticatoren ein, um sich im Falle eines Verlustes nicht auszusperren oder man muss auf Restore Codes zurückgreifen.
Ein letztes Wort zum Schluss: In einer Zeit, in der sich die Online-Sicherheitslage drastisch verschlechtert, wird die Erfindung und Einführung von offenen Authentifizierungsstandards immer wichtiger. Geräte, die mit FIDO und FIDO2 kompatibel sind, bieten das Höchstmaß an Schutz v...
#132 - Was ist eigentlich eine Bandbreite?
IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert
01/10/20 • 9 min
Diese Folge wird unterstützt von Blinkist. Unter blinkist.de/itmanager erhaltet ihr 25% auf das Jahresabo Blinkist Premium.
Heute dreht sich alles um das Thema: „Was ist eigentlich eine Bandbreite?”
Zunächst einmal müssen Sie wissen, dass der Begriff "Bandbreite" in zwei verschiedenen Kontexten verwendet werden kann:
In digitalen Systemen wird der Begriff Bandbreite oft als Synonym für die Übertragungsgeschwindigkeit oder die Übertragungskapazität verwendet. Die synonyme Verwendung der Begriffe geht auf den Zusammenhang zwischen Bandbreiten und Übertragungsraten zurück. Die Bandbreite stellt einen wichtigen Faktor dar, wenn es darum geht, die Qualität und Geschwindigkeit eines Netzwerks zu bestimmen.
Die kleinste Übertragungsrate ist das Bit, weshalb die Datenübertragungsrate häufig auch als Bitrate (Einheit Bit Pro Sekunde - Bit/s) bezeichnet wird. Da heutige Netzwerke jedoch in der Regel eine viel größere Bandbreite haben, die sich mit so einer kleinen Einheit nicht gut wiedergeben lassen, sind die Angaben Megabits pro Sekunde MBits , Gigabits pro Sekunde GBits oder Terabits pro Sekunde TBits geläufiger.
Sie können sich die Bandbreite auch als Wasserfluss durch ein Rohr vorstellen. Dabei ist die Bandbreite die Geschwindigkeit, mit der das Wasser sprich die Daten bei verschiedenen Bedingungen durch das Rohr, als die Verbindung, fließt. Anstelle von Bits pro Sekunde misst man jetzt Liter pro Minute. Während größere Rohre mehr Wasser liefern, fließt durch kleinere Rohre eine geringere Menge. Somit stellt die Wassermenge, die potenziell durch das Rohr fließen kann, die maximale Bandbreite dar, während die Wassermenge, die gegenwärtig durch das Rohr fließt, die aktuelle Bandbreite wiedergibt.
Allerdings stammt der Begriff Bandbreite ursprünglich aus den Bereichen Physik und Signaltechnik. Dort bezeichnet er eine Spanne innerhalb eines Frequenzbereichs. Diese Spanne, auch Frequenzbereich genannt, wird durch eine obere und untere Grenzfrequenz bestimmt, in dem ein Signal übertragen wird.
Grundsätzlich besitzt jeder Übertragungskanal infolge seiner physikalischen Eigenschaften eine untere und eine obere Grenzfrequenz. Je größer die Bandbreite, desto mehr Informationen lassen sich pro Zeiteinheit übertragen.
In analogen Systemen wie Telefon oder Radio, wird die Bandbreite in Hertz (Hz) bzw. in Kilohertz (KHz) oder Megahertz (MHz) gemessen. So weist beispielsweise ein analoges Telefon eine untere Grenzfrequenz von 300 Hz und eine obere Grenzfrequenz von 3400 Hz. Daraus ergibt sich die Bandbreite von 3100 Hz, was für eine Übermittlung von Sprachdaten völlig ausreicht.
Aber wie viel Bandbreite ist eigentlich erforderlich?Die durchschnittliche Bandbreite eines Internetanschluss in Deutschland liegt derzeit bei etwa 15 Megabit pro Sekunde (Mbit/s). Über moderne VDSL oder Kabelanschluss-Zugänge lässt sich eine Bandbreite von bis zu einigen hundert Megabit pro Sekunde (Mbit/s) erzielen. An einem Glasfaser-Anschluss ist die mögliche Bandbreite noch einmal deutlich höher, auch mehr als 1 Gigabit pro Sekunde (Gbit/s) sind problemlos möglich.
Welche Bandbreite für die die Bedürfnisse eines Nutzers sinnvoll ist, hängt grundsätzlich davon ab, wofür die Übertragungskanäle genutzt werden.
Beispielsweise erfordern das Streamen von Filmen in HD-Qualität, HD-Videokonferenzen und Multiplayer-Online-Spiele in HD eine höhere Bandbreite als das Webbrowsen, Streamen von Musik oder das abrufen von E-Mails.
Je nach Übertragungsmedium und Übertragungstechnologie existieren typische Bandbreiten.
Diese sind bei analogen Systemen beispielsweise:
- analoge Telefonie mit 3.400 Hertz,
- Integrated Services Digital Network, kurz ISDN, mit circa 130 Kilohertz,
- 10-Megabit-Ethernet mit circa 30 Megahertz
- Asymmetric Digital Subscriber Line-Anschlüsse, kurz ADSL mit circa 1,1 Megahertz
und in digitalen Systemen
- Integrated Services Digital Network, kurz ISDN mit 64 kbit/s je Kanal,
- Ethernet mit 10, 100 oder 1.000 Mbit/s,
- Die Weiterentwicklungen der Asymmetric Digital Subscriber Line-Anschlüsse, kurz ADSL2+ mit bis zu 25 Mbit/s im Download
Kommen wir zur nächsten Frage: Warum wird eigentlich die Bandbreite gemessen und wie?
Grundsätzlich ist eine Messung der Bandbreite dann nötig um sicherzustellen, dass kostenpflichtige Verbindungen auch das leisten, was sie versprechen. Das gilt für private Nutzer und Unternehmen gleichermaßen. Private Nutzer können mithilfe eines Online-Bandbreitentest herausfinden, ob der vom Internetdienstanbieter berechnete Anteil der Verbindung, tatsächlich genutzt werden kann. Unternehmen hingegen, können den Durchsatz zwischen Büros messen, die mit einer von der Telefongesellschaft geleasten Leitungsverbindung verbunden werden.
Für gewöhnlich erfolgt die Messung der Bandbreite ...
#0108 - Was ist ein Honeypot?
IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert
07/26/19 • 6 min
Kontakt: Ingo Lücker, [email protected]
Bei einem Honeypot zu deutsch Honigtopf handelt es sich um eine digitale Lockfalle. Das bedeutet, dass sich Honeypots nach außen hin, wie echte Computerprogramme, Serversysteme oder Netzwerke verhalten und verschiedene Dienste und Nutzer simulieren.
Ähnlich wie Bären für Honig schwärmen, läuft Cyberkriminellen beim Anblick dieser unzureichend gesicherten Systeme, Anwendungen und Netzwerke das Wasser im Mund zusammen.
Sobald sie einen Angriff auf die Honeypots starten, erhalten die Administratoren eine Nachricht und die Aufzeichnung der “kriminellen” Aktivitäten beginnt.
Mit Honeypots lassen sich so die Angriffsmuster und Angriffsmethoden protokollieren und analysieren. Außerdem besteht sogar die Chance, dass man die Angreifer identifizieren und verfolgen kann.
Da Honeypots, von den produktiven IT-Systemen und Netzwerken isoliert sind und besonders überwacht werden, kann durch das Eindringen eines Angreifers kein Schaden entstehen.
Um Honeypots einzurichten gibt es in der Praxis serverseitige und clientseitige Technologien.
- Beim serverseitigen Honeypotting, werden Angreifer in isolierte Bereiche eines IT-Systems gelockt, um sie so von kritischen Netzwerkkomponenten fernzuhalten. Dazu simuliert ein einfacher Honeypot eine Serveranwendung, die einen oder mehrere Dienste im Netzwerk bereitstellt – beispielsweise einen Webserver. Lässt sich ein Angreifer durch das Ablenkmanöver täuschen und startet einen Versuch in das System einzudringen, zeichnet der Honeypot sämtliche Aktivitäten auf, schlägt Alarm oder leitet Gegenmaßnahmen ein.
- Beim clientseitigen Honeypotting wird eine Anwendungssoftware imitiert, die Serverdienste in Anspruch nimmt. Ein Paradebeispiel hierfür ist die Simulation eines Browsers, der gezielt unsichere Webseiten besucht, um Daten über Sicherheitsrisiken zu sammeln. Kommt es auf einer dieser Seiten zu einem Angriff auf den Browser oder Browser-Plug-ins, wird der Vorgang protokolliert.
Grundsätzlich ist das Ziel eines Honeypots, lange unentdeckt zu bleiben und einen Angreifer zu täuschen. Daher ist eines der wichtigsten Kriterien zur Klassifizierung von Honeypots der Grad der Interaktivität mit dem Angreifer.
Man unterscheidet in diesem Zusammenhang sowohl serverseitig als auch clientseitig zwischen Low-Interaction-Honeypots und High-Interaction-Honeypots.
- Low-Interaction-Honeypots sind Scheinziele mit einem geringen Grad an Interaktivität. Das bedeutet, dass sie in der Regel auf der Nachahmung realer Systeme oder Anwendungen basieren. Dabei werden Dienste und Funktionen nur soweit simuliert, dass ein Angriff möglich ist.
- High-Interaction-Honeypots sind Scheinziele mit einem hohen Grad der Interaktivität. Das bedeutet, dass es sich hierbei um reale Systeme handelt, die Server-Dienste anbieten und daher gut überwacht und abgesichert werden müssen.
Neben diesen beiden Technologien gibt es noch die sogenannte Research-Honeypots und Produktion-Honeypots.
- Research-Honeypots werden von Forschungseinrichtungen, Behörden und vom Militär genutzt, um Informationen über neue Angriffsmuster zu sammeln und diese in aufbereiteter Form der Internet-Community zur Verfügung zu stellen.
- Production-Honeypots werden in Unternehmen in erster Linie zum Schutz des Firmennetzwerks eingesetzt. Hierzu werden in den Netzwerkbereichen, die im Normalbetrieb nicht angesprochen werden und weder Mitarbeitern noch Kunden Dienste zur Verfügung stellen, digitale Lockfallen installiert.
Durch die fingierten Sicherheitslücken werden die Angreifer so in ein ungenutztes System gelockt und die Zugriffe können als Angriff gewertet, überwacht und analysiert werden.
Wie werden Honeypots nun implementiert?Um Honeypots einzurichten beziehungsweise zu implementieren haben Administratoren grundsätzlich zwei Möglichkeiten: Entweder wird ein physisches System als Honeypot genutzt oder man implementiert einen Honeypot auf Basis von Virtualisierungs-Software.
- Bei einem physischen Honeypot handelt es sich um einen eigenständigen Rechner, der mit eigener Adresse in ein Netzwerk eingebunden wird.
- Bei einem virtuellen Honeypot handelt es sich um ein logisches System, dass durch eine Virtualisierungs-Software Ressourcen eines physischen Rechners zugeteilt bekommt.
Fazit:
Sie sehen, ein Honeypot kann, wenn er richtig eingesetzt wird, ein wertvoller Bestandteil eines mehrschichtigen IT Sicherheitskonzeptes sein. Sie sind ein bewährtes Mittel, um Cyberangriffe und Bedrohungen zu erkennen, zu analysieren und entsprechende Schlüsse daraus zu ziehen. Außerdem kann man mit Honeypots Angreifer von echten Serversystemen oder Netzwerken ablenken, ohne sie zu schädigen.
Allerdings muss man bedenken, dass falsch konfigurierte Honeypot-Sicherheitssys...
#127 - Was ist FTP?
IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert
11/29/19 • 7 min
Die Abkürzung FTP steht für File-Transfer-Protocol und ist die englische Bezeichnung für „Dateiübertragungsprotokoll”. Bei diesem Protokoll handelt es sich genauer gesagt um ein Netzwerkprotokoll, welches den Transfer von Daten zwischen einem Server und Client in einem IP-Netzwerk ermöglicht.
Die ursprüngliche Spezifikation des File-Transfer-Protocol wurde am 16. April 1971 als RFC 114 veröffentlicht. RFC steht für Request for Comments und bezeichnet ein formelles Dokument der Internet Engineering Task Force. Im Oktober 1985 wurde mit RFC 959 die heute noch gültige Spezifikation des File Transfer Protocol eingeführt. Somit gilt das File-Transfer-Protocol als eines der ältesten Protokolle, die es im Zusammenhang mit dem Internet gibt.
Das File-Transfer-Protocol dient primär dem Austausch von Dateien zwischen einem Client und einem Server oder der Übertragung zwischen zwei Servern. Hierbei sind mehrere Konstellationen denkbar:
- vom Server zum Client
- Client zum Server
und
- von einem Server zu einem anderen Server. Hier spricht man in der Regel von einem Dateiaustausch mittels des File Exchange Protocols.
Sobald eine FTP-Verbindung hergestellt worden ist, können FTP-User nicht nur Dateien hoch- und herunterladen, sondern auch neue Verzeichnisse anlegen, verändern, auslesen oder löschen. Außerdem können sie Dateien umbenennen, verschieben und löschen. Zudem ermöglicht das File Transfer Protocol die Berechtigungsverwaltung für Dateien. Sprich, man kann festlegen, ob gespeicherte Dateien nur vom Besitzer, von einer bestimmten Gruppe oder von der Öffentlichkeit gelesen, geändert oder ausgeführt werden dürfen.
Aber lassen Sie mich die Dateiübertragung mittels des File Transfer Protokolls noch etwas näher erklären.
Um einen FTP-Server zu erreichen, ist zunächst einmal der Verbindungsaufbau durch eine Benutzerauthentifizierung und einen FTP-Client notwendig. Beim FTP-Client handelt es sich um eine Software, die in den meisten Betriebssystemen standardmäßig integriert ist und welches das FTP-Protokoll zur Übertragung von Dateien nutzt.
Ein FTP-Verbindungsaufbau sieht vor, dass das FTP zwei separate Verbindungen zwischen Client und Server herstellt. Eine Verbindung ist der Steuerkanal über den TCP-Port 21. Dieser Kanal dient ausschließlich zur Übertragung von FTP-Befehlen, auch Kommandos genannt und deren Antworten. Die zweite Verbindung ist der Datenkanal über den TCP-Port 20. Dieser Kanal dient ausschließlich zur Übertragung von Daten.
Im ersten Schritt wird also der Steuerkanal vom FTP-Client zum FTP-Server aufgebaut. Steht der Steuerkanal werden sowohl Befehle des Clients zum Server gesendet als auch die Antworten des Servers zum Client übertragen. Im zweiten Schritt wird Datenverbindung vom FTP-Server zum FTP-Client initiiert, um die Daten auszutauschen, wie es in den Kommandos festgelegt wurde. Sobald die Dateiübertragungen abgeschlossen sind, werden die Verbindungen vom Benutzer oder vom Server (Timeout) beendet.
Grundsätzlich gibt es zwei unterschiedliche Herangehensweisen, einen Datei-Transfer zwischen Client und Server zu initialisieren: den aktiven und den passiven Verbindungs-Modus.
Beiden gemein ist, dass zuerst eine Steuerverbindung aufgebaut wird, über die FTP-Kommandos gesendet werden, und anschließend zum Datentransfer eine Datenverbindung aufgebaut wird.
Der Unterschied liegt darin, wer diese Verbindungen aufbaut - Client oder Server. Im Detail läuft das folgendermaßen ab:
- Beim aktiven Verbindungsmodus reserviert der Client 2 TCP-Ports. Über den ersten Port baut er die Steuerverbindung zu Port 21 des Servers auf und teilt dem Server die 2. Port-Nummer mit, auf welchem der Client die Daten erwartet.
- Beim passiven Verbindungsmodus reserviert der Client 2 TCP-Ports zur eigenen Verwendung und baut über den ersten Port die Steuerverbindung zu Port 21 des Servers auf. Da eine passive Verbindung gewünscht ist, sendet der Client aus dem angesprochenen FTP-Befehlssatz das Kommando PASV. Damit weiß der Server: Eine passive Verbindung ist erwünscht, woraufhin er für sich einen TCP-Port für den Datentransfer reserviert und diesen Port dem Client mitteilt.
Neben dem aktiven und dem passive Verbindungs-Modus kennt das FTP zwei verschiedene Übertragungsmodi: Den ASCII-Modus und den Binary-Modus, wobei sich die beiden Modi in der Art der Codierung unterscheiden.
- Der ASCII-Modus wird zur Übertragung von reinen Text-Dateien verwendet. Hier muss die Zeilenstruktur des Textes umcodiert werden. Bei diesem Vorgang wird der Zeichensatz dieser Datei an das Zielsystem angepasst.
- Der Binary-Modus hingegen überträgt die Dateien byteweise ohne die Daten zu ändern. Dieser Modus wird am häufigsten genutzt. Vorzugsweise natürlich bei Binär-Dateien.<...
#072 - Was ist eigentlich WordPress?
IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert
11/16/18 • 6 min
In dieser Folge erfahren Sie alles über die Open Source Lösung WordPress. Egal ob für Apps, Webseiten oder Blogs, überall wird WordPress verwendet. Warum die Lösung so beliebt ist, die Vorteile und Nachteile für Anwender, all das erfahren Sie wie immer beim IT Manager Podcast. Viel Spaß beim Zuhören!
#40 - Warum es HTML5 geben muss?
IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert
03/02/18 • 6 min
In dieser Folge geht es um Entstehung, die Ziele, den Aufbau und die Kritik am Nachfolger von HTML4, also der neuen „core language“ des Webs.
Show more best episodes
Show more best episodes
FAQ
How many episodes does IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert have?
IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert currently has 141 episodes available.
What topics does IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert cover?
The podcast is about Podcasts, Education, Business and Manager.
What is the most popular episode on IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert?
The episode title '#132 - Was ist eigentlich eine Bandbreite?' is the most popular.
What is the average episode length on IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert?
The average episode length on IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert is 7 minutes.
How often are episodes of IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert released?
Episodes of IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert are typically released every 7 days.
When was the first episode of IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert?
The first episode of IT Manager Podcast (DE, german) - Aktuelle IT-Themen vorgestellt und diskutiert was released on Apr 4, 2016.
Show more FAQ
Show more FAQ