Kailangan ko bang matuto ng Hadoop para sa spark?
Kailangan ko bang matuto ng Hadoop para sa spark?

Video: Kailangan ko bang matuto ng Hadoop para sa spark?

Video: Kailangan ko bang matuto ng Hadoop para sa spark?
Video: Sekreto Para Siya Naman Ang Mabaliw At Humabol SAYO 2024, Nobyembre
Anonim

Hindi, ayaw mo kailangang matuto ng Hadoop sa learnSpark . Spark ay isang malayang proyekto. Ngunit pagkatapos ng YARNAnd Hadoop 2.0, Spark naging tanyag dahil Spark maaaring tumakbo sa ibabaw ng HDFS kasama ng iba pa Hadoop mga bahagi. Hadoop ay isang balangkas kung saan isinusulat mo ang MapReduce ng trabaho sa pamamagitan ng pagmamana ng mga klase sa Java.

Katulad nito, alin ang mas mahusay na matuto ng spark o Hadoop?

Ang una at pangunahing pagkakaiba ay ang kapasidad ng RAM at paggamit nito. Spark gamit higit pa Random Access Memory kaysa Hadoop , ngunit ito ay "kumakain" ng mas kaunting halaga ng internet o disc memory, kaya kung gagamit ka Hadoop , ito ay mas mabuti upang makahanap ng isang malakas na makina na may malaking internalstorage.

Pangalawa, madaling matutunan ang Hadoop? Hadoop programming ay mas madali para sa mga taong may kasanayan din sa SQL - salamat sa Pig at Hive. Ang mga mag-aaral o mga propesyonal na walang anumang programming background, na may lamang basicSQL kaalaman, ay maaaring master Hadoop sa pamamagitan ng comprehensivehands-on Hadoop pagsasanay kung mayroon silang kasigasigan at pagnanais na matuto.

Tinanong din, gaano katagal bago matutunan ang Hadoop?

humigit-kumulang 3-4 na buwan

Pinapalitan ba ng spark ang Hadoop?

Spark hindi kailanman maaaring maging a kapalit para sa Hadoop ! Spark ay isang processing engine na gumagana sa tuktok ng Hadoop ecosystem. Tulad ng ipinakita sa itaas na arkitektura, Spark ay kapalit ng MapReduce sa Hadoop ecosystem. Mayroong iba pang mga sangkap sa Hadoop architecture upang iproseso ang data tulad ng Pig andHive.

Inirerekumendang: