Januar 2016

Band 31, Nummer 1

Dieser Artikel wurde maschinell übersetzt.

Anmerkung der Redaktion – Komm groß raus oder bleib zu Hause

Durch Michael Desmond | Januar 2016

Michael DesmondGroße Datenmengen ist fast immer Geschäfts, und es wird einen Großteil der Entwicklung daher. Markt Vorhersagen Research Kleidung Wikibon-Projekt, die Ausgaben für die Technologie für umfangreiche Daten und Dienste 49.28 Milliarden US-Dollar in 2018, Einrichten von 27.36 Milliarden US-Dollar im Jahr 2014 vornehmen gelangen.

Microsoft arbeitet nicht überraschend, um Entwickler in Big Data-Szenarien zu ermöglichen. Auf der Build-Konferenz in San Francisco letzten April ergab das Unternehmen Dienste wie Azure Data Warehouse, Azure Data Lake und elastische Datenbanken für Azure SQL-Datenbank. Wie wir in 2016 verschieben, beginnen unerlässliches Früchte tragen. Dem erläutert wird, warum dieser Monatsausgabe des MSDN Magazine für Big Data-Technologien und die Entwicklung ausgerichtet ist.

Michael Rys, in seiner Funktion "ausführenden Big Data Batch Analytics einfacher Verwendung U-SQL," untersucht die neue U-SQL-Sprache, die Semantik von SQL und C#-Unterstützung für große Datenmengen kombiniert. Als Nächstes Omid Afnan veranschaulicht sammeln, analysieren und kontinuierliche Datenströme in Echtzeit in seinem Artikel "in Echtzeit-Datenanalysen für .NET-Entwickler mit HDInsight." Der letzte Artikel in der Menge Gaurav Malhotra des "Erstellen Big Data Pipelines mit Azure Data Lake und Azure Data Factory," führt Sie durch Erstellen einer Big Data-Pipeline mit Azure Data Factory Webprotokolldaten in Azure Data Lake Speicher verschieben und verarbeiten die Daten mithilfe eines U-SQL-Skripts auf den Azure Data Lake Analytics-Dienst.

Warum Big Data und weshalb jetzt? Als Afnan Notizen 2015 war ein großer Jahr für große Datenmengen bei Microsoft.

"Obwohl wir intern Multi-Exabyte skalieren in unsere große Datenmengen erreicht haben, wir haben ausgeliefert viele neue Funktionen in Azure", sagt Afnan. "Fortschritte in HDInsight und die Version von Azure Data Lake müssen große Datenmengen deutlich einfacher für Entwickler. ADL Analysen und Speicher können Entwickler legen den Schwerpunkt auf die Abfragen und Aggregationen auf der Ebene der betriebssystemneutrale die Komplexität der verteilten computing Cluster und MapReduce-Architektur unter."

Er gibt auch aktuelle Investitionen in Visual Studio Tools, die zum Codieren und Debuggen für ADL und HDInsight optimieren. Dennoch Afnan sagt Dev Cafés stoßen eine Herausforderung auftretenden steilen Lernkurve für die "drei V" Big Data-Geschwindigkeit, verschiedene und Volume – und die verteilte Multi-Phase Programmiermodelle, die im Bereich verwendet.

"Eine Möglichkeit zum Sammeln von Rohdaten von Interesse in einem Big Data-Speicher, und starten Sie Datasets untersuchen, finden Einblicke und in Betrieb schließlich den Prozess ist der ideale Ausgangspunkt wäre", sagt er. "Verringert die Einarbeitungszeit kann erreicht werden durch Verringern der Anzahl der Punkte, die Sie verwalten müssen. Über eine große Datenmengen ist Plattform, die eine Abstraktion der Auftrag hat sicherlich eine gute Möglichkeit zur Vermeidung stranden und der Vorgang wurde abgebrochen."

Microsoft-Ziele zu Dev Geschäfte in der die Herausforderung, die Bereitstellung von Tools und Plattformen, die verfügbar zu machen und neue Funktionen zu optimieren. Zu diesen Vorteilen gehören sagt Afnan, neuen Entwicklertools für "komplexeren Debugszenarios für einzelne Knoten/Vertex-Fehlern, zum Durchsuchen von Daten Zeitversatz Probleme und Analyse von mehrere Läufe des gleichen Skripts."

Es gibt viele im Bereich der Big Data begeistert sein. Ich erwarte, dass wir weitere große Datenmengen in unsere Seiten über die Monate und Jahre angezeigt werden müssen.


Michael Desmondist der Chefredakteur des MSDN Magazine.