Hadoop向けデータ処理・管理技術「Apache Falcon」がASFのトップレベルプロジェクトに
オープンソースプロジェクトの支援を行っている非営利団体The Apache Software Foundation(ASF)は1月19日(米国時間)、Apache Hadoop向けデータ処理・管理技術の「Apache Falcon」をインキュベーターからトップレベルプロジェクト(TLP)に昇格させることを決定したと発表した。
Apache Falconはデータの発見やライフサイクル管理、データパイプラインの管理などの用途に向けたHadoop向けデータガバナンスエンジン。Hadoopプラットフォームでのデータ管理をより容易にすることを目指しており、インフラエンドポイントやデータセット、処理ルールを宣言的に定義し、エンティティ間の依存性管理を行うことでさまざまなデータ管理機能のオーケストレーションや管理が可能。Hadoopのデータ管理ソリューションとして運用環境でも利用されているという。また、Hadoop関連技術を提供する米Hortonworksによると、次世代のデータコンセプトであるData Lakeのモデリング、管理と運用の土台技術としても利用できるとしている。同社は「Hortonworks Data Platform 2.1」でFalconを統合している。
Apache FalconはHadoopを利用するシンガポールInMobiが開発したもので、ASFに寄贈されて2013年4月にインキュベータープロジェクトとなった。プロジェクトのガバナンスがASFの能力主義(メリトクラシー)ベースのプロセスと主義の要件を満たしていることが認められ、2年未満でのTLP昇格となる。
Apache Falcon
http://falcon.apache.org/