Teilen:

Aktuelles / Blog: #arbeit

Was ist Kanban?

08.12.2022 | von Patrick Fischer, M.Sc., Gründer & Data Scientist: FDS
Kanban ist eine Methode, die zur Steuerung des Flusses von Arbeit in einem Unternehmen verwendet wird. Es wurde ursprünglich von Toyota entwickelt, um die Produktionsprozesse zu optimieren. Das Ziel des Kanban-Systems ist, die Effizienz der Arbeit zu steigern und die Kosten zu senken. Es ist ein visuelles System, das auf der Visualisierung der Arbeit und der Einhaltung bestimmter Regeln basiert. Kanban kann für die Produktion, den Vertrieb und die Entwicklung von Software verwendet werden.
Gefällt mir (0)
Kommentar

Was ist AngularJS?

08.12.2022 | von Patrick Fischer, M.Sc., Gründer & Data Scientist: FDS
AngularJS ist ein JavaScript-Framework, das vom Unternehmen Google entwickelt wurde, um Web-Anwendungen zu erstellen. Es wurde als Alternative zu traditionellen Webanwendungen entwickelt und verwendet ein Model-View-Controller-Designmuster, um die Entwicklung von Anwendungen zu vereinfachen. Es verwendet HTML, CSS und JavaScript, um die Benutzeroberfläche zu erstellen und Benutzerinteraktionen zu verarbeiten. Es bietet eine Vielzahl von Funktionen, wie z.B. Datenbindung, Routing, Validierung, Erstellung mobiler Anwendungen usw., die den Entwicklern helfen können, eine schnelle und effiziente Webanwendung zu erstellen.
Gefällt mir (0)
Kommentar

Was ist Github?

08.12.2022 | von Patrick Fischer, M.Sc., Gründer & Data Scientist: FDS
GitHub ist ein Web-basierter Versionsverwaltungsdienst, mit dem Softwareentwickler gemeinsam an Projekten arbeiten können. Mit GitHub können Entwickler ihre Projekte verwalten und verfolgen, indem sie Änderungen an den Dateien verfolgen, gemeinsam an Code arbeiten und Ideen diskutieren. Es ist eine der beliebtesten Plattformen für Open-Source-Software-Entwicklung.
Gefällt mir (0)
Kommentar

Was ist Hadoop?

08.12.2022 | von Patrick Fischer, M.Sc., Gründer & Data Scientist: FDS
Hadoop ist eine freie, quelloffene Software-Plattform, die auf verteilten Storage- und Verarbeitungssystemen basiert und es Unternehmen ermöglicht, sehr große Datenmengen zu speichern und zu analysieren. Hadoop wurde ursprünglich von Apache Software Foundation entwickelt und ist ein integraler Bestandteil der Big-Data-Technologie. Es wird häufig zur Speicherung und Analyse sehr großer Datenmengen verwendet, die in einer traditionellen Datenbank möglicherweise nicht richtig verarbeitet werden könnten. Hadoop ist mit verschiedenen Tools wie MapReduce, HDFS und YARN ausgestattet, die es Unternehmen ermöglichen, Daten effizient zu speichern und zu verarbeiten.
Gefällt mir (0)
Kommentar

Was ist SparkQL?

08.12.2022 | von Patrick Fischer, M.Sc., Gründer & Data Scientist: FDS
SparkQL ist eine Abfragesprache, die auf dem Apache Spark-Framework basiert und es Benutzern ermöglicht, Daten aus verschiedenen Quellen wie Hadoop HDFS, Apache Cassandra und Apache Hive abzufragen. SparkQL ist eine einfache und leistungsstarke Abfragesprache, mit der Benutzer komplexe Abfragen auf Big-Data-Sets ausführen können. Es bietet ein vereinfachtes Modell zur Verarbeitung und Analyse von Big-Data-Daten.
Gefällt mir (0)
Kommentar

Unser Angebot an Sie:

Medien- und PR-Datenbank 2024

Nur für kurze Zeit zum Sonderpreis: Die Medien- und PR-Datenbank mit 2024 mit Informationen zu mehr als 21.000 Zeitungs-, Magazin- & Hörfunk-Redaktionen uvm.

Newsletter

Abonnieren Sie unseren Newsletter und erhalten Sie aktuelle Neuigkeiten & Informationen zu Aktionen: