Apache Hadoop - 詳しく見る
Apache Hadoop は、データの大規模な収集と処理のためのソリューションを提供します。 ASF はプロジェクトの中央リポジトリおよび配布ポイントとして機能し、Apache はユーザーと開発者のコア コミュニティとして機能します。 Apache Hadoop は、サーバー上の Java および Java プラットフォームのサポートを通じて、大規模なアプリケーションの展開を容易にすることを目的としています。 Apache Hadoop は、Juhan Lamb Pedrick、Alex Balcov、Michael J. Cafarella、Gerald M. Glassner、Raymond C. Tsouline によって開発されました。これは、Facebook で最初に開発され、後に Twitter と Google で使用された NoSQL データベース管理システムの技術に基づいています。
Apache Hadoop には、Map-Reduce、Yago、Summation などの幅広いテクノロジーが含まれています。 Apache Hadoop は、Map-Reduce フレームワークをより効果的で使いやすくすると同時に、プログラマーに直感的なユーザー インターフェイスを提供するために開発されました。 Apache Hadoop は、従来のサーバー インストールから、数千のタスクを並行して実行する完全並列分散システムにスケールアップすることを目指しています。各ワーカーが作業を小さな断片に分割できるようにすることで、大量のデータ集約型タスクを処理できるため、基盤となるクラスターによって大きなタスクを効率的に分割できます。
分散データ分析 Apache Hadoop の助けを借りて、ユーザーは、高価な分散システムやストレージ メディアを必要とせずに、任意のデバイスからリアルタイム データにアクセスできます。 Apache Hadoop は、拡張性と効率性に優れたデータ ウェアハウスおよびデータ処理テクノロジを提供します。 Map Reduce フレームワークにより、ユーザーは Map の複雑さを効果的に軽減できるため、より複雑なグラフやビジネス インテリジェンス (BI) アプリケーションの開発が可能になります。ユーザーは、ETL ハンドラーが複雑な変換を効率的に処理できるようにする単純な ETL (Extract-Transform-Load) アプリケーションを構築することもできます。