富士通投入大數據,混搭由Apache Hadoop大數據組合的富士通軟件,它說這比單獨使用開源代碼更好。
像很多Hadoop用戶一樣,使用富士通的大型機、Sparc、x86設備的的客戶抱怨產品Hadoop Distributed File System(HDFS)的局限性,所以富士通升級一月份發布的Apache Hadoop 1.0堆,并且給HDFS提升性能。
據富士通稱,問題在于企業系統與Hadoop 系統在不同的系統中存儲不同格式的數據,你最終不得不從企業系統中上傳數據到Hadoop集群,整理數據,然后下載縮減的數據回到企業系統中。
Interstage Big Data Parallel Processing Server V1.0采用Hadoop MapReduce算法,并與富士通專有的分布式文件系統結合,最終企業系統和Hadoop集群可以互相配合。該文件系統運行在主機上,利用富士通的Eternus磁盤陣列,有針對企業系統的標準Linux界面,以及用于Hadoop集群的兼容HDFS界面。
富士通沒有對其專有的分布式文件系統命名,但是它可能屬于富士通Fujitsu Exabyte File System(FEFS)的變體,這個產品是在去年公布的,并將目標客戶鎖定在公司的超級計算機用戶。(FEFS本身就是開源Lustre文件系統的變體。)
另一個創新就是富士通引進Interstage Hadoop發行版,聚集Hadoop主控節點,由控制器告知哪個服務器節點處理哪個數據,單節點故障和Hadoop集群的性能瓶頸,以便于得到高可用性。
最大的好處是Hadoop和企業系統都可以處理位于Eternus陣列的數據,這樣相當程度的加大了Hadoop的效率,因為你不必再等待企業數據上傳到Hadoop集群。如果假設你沒有其它想要進入MapReduce的外部數據,這種問題對于現在做大數據的很多公司來說是不成立的。
Interstage Big Data Parallel Processing Server V1.0將要在四月底開始出貨。每個服務器處理器的許可費用為7465美元。富士通表示,在日本以外的銷售價格可能有所不同。
推薦閱讀
2012年的這些年輕創業者,是完全不同模樣的一批人,其中很大一部分都是“草根創業者”,沒有海外留學的經歷,甚至有些人輟學或者因為高考不利才走上創業之路,他們中的許多人甚至不到30歲就有著多次創業的經歷。 【I>>>詳細閱讀
地址:http://m.sdlzkt.com/a/xie/20111230/158960.html