Wat is Apache Spark? Het big data-platform dat Hadoop verpletterde
Apache Spark gedefinieerd
Apache Spark is een gegevensverwerkingskader dat snel verwerkingstaken kan uitvoeren op zeer grote gegevenssets en ook gegevensverwerkingstaken kan verdelen op meerdere computers, alleen of samen met andere gedistribueerde computerhulpmiddelen. Deze twee kwaliteiten zijn essentieel voor de wereld van big data en machine learning, waarvoor het verzamelen van enorme rekenkracht nodig is om door grote datastores te gaan. Spark neemt ook een deel van de programmeerlasten van deze taken van de schouders van ontwikkelaars met een gebruiksvriendelijke API die veel van het gruntwerk van gedistribueerde computing en big data-verwerking wegneemt.
Om dit artikel volledig te lezen, klik hier
3236869
» Lees hier het oorspronkelijke bericht.