h2oai / h2o-3

jun 10, 2021
admin

H2O er en in-memory-platform til distribueret, skalerbar maskinlæring. H2O bruger velkendte grænseflader som R, Python, Scala, Java, JSON og Flow notebook/webgrænseflade og arbejder problemfrit sammen med big data-teknologier som Hadoop og Spark. H2O tilbyder implementeringer af mange populære algoritmer såsom generaliserede lineære modeller (GLM), Gradient Boosting Machines (herunder XGBoost), Random Forests, Deep Neural Networks, Stacked Ensembles, Naive Bayes, Generalized Additive Models (GAM), Cox Proportional Hazards, K-Means, PCA, Word2Vec, samt en fuldautomatisk maskinlæringsalgoritme (H2O AutoML).

H2O kan udvides, så udviklere kan tilføje datatransformationer og brugerdefinerede algoritmer efter eget valg og få adgang til dem via alle disse klienter. H2O-modeller kan downloades og indlæses i H2O-hukommelsen til scoring eller eksporteres til POJO- eller MOJO-format til ekstremt hurtig scoring i produktionen. Flere oplysninger kan findes i H2O-brugervejledningen.

H2O-3 (dette repository) er den tredje inkarnation af H2O og efterfølgeren til H2O-2.

Indholdsfortegnelse

  • Download af H2O-3
  • Ressourcer til åben kildekode
    • Sporing af problemer og anmodninger om funktioner
    • Liste over H2O-ressourcer
  • Anvendelse af H2O-3-kodeartefakter (biblioteker)
  • Bygning af H2O-3
  • Lancering af H2O efter bygning
  • Bygning af H2O på Hadoop
  • Sparkling Water
  • Dokumentation
  • Citering af H2O
  • Køreplan
  • Fællesskab / rådgivere / investorer

1. Download af H2O-3

Mens det meste af denne README er skrevet til udviklere, der laver deres egne builds, downloader og bruger de fleste H2O-brugere bare en færdigbygget version. Hvis du er Python- eller R-bruger, er den nemmeste måde at installere H2O på via PyPI eller Anaconda (for Python) eller CRAN (for R):

Python

pip install h2o

R

install.packages("h2o")

Mere information om downloading & installation af H2O findes i H2O-brugervejledningen.

2. Open source-ressourcer

De fleste mennesker interagerer med tre eller fire primære open source-ressourcer: GitHub (som du allerede har fundet), JIRA (til fejlrapporter og problemsporing), Stack Overflow til H2O-kode/software-specifikke spørgsmål og h2ostream (en Google-gruppe/et e-mail-diskussionsforum) til spørgsmål, der ikke egner sig til Stack Overflow. Der er også en Gitter H2O-udvikler-chatgruppe på Gitter, men af hensyn til arkivering & for at maksimere tilgængeligheden, vil vi foretrække, at standard H2O Q&A foregår på Stack Overflow.

2.1 Issue Tracking and Feature Requests

(Bemærk: Der er kun ét issue tracking-system for projektet. GitHub-emner er ikke aktiveret; du skal bruge JIRA.)

Du kan gennemse og oprette nye problemer i vores open source JIRA: http://jira.h2o.ai

  • Du kan gennemse og søge efter problemer uden at logge ind på JIRA:
  • Klik på Issues-menuen
  • Klik på Search for issues
  • For at oprette et problem (enten en fejl eller en anmodning om en funktion) skal du først oprette dig en konto:
  • Klik på Log In-knappen øverst til højre på skærmen
  • Klik på Create an acccount nederst i login-boksen
  • Når du har oprettet en konto og er logget ind, skal du bruge Create-knappen i menuen til at oprette et problem
  • Skab H2O-3-problemer i PUBDEV-projektet. (Bemærk: Sparkling Water-spørgsmål skal indgives under SW-projektet.)
  • Du kan også stemme på anmodninger om funktioner og/eller andre spørgsmål. Afstemning kan hjælpe H2O med at prioritere de funktioner, der indgår i hver version.
    1. Gå til H2O JIRA-siden.
    2. Klik på Log ind for enten at logge ind eller oprette en konto, hvis du ikke allerede har en.
    3. Søg efter den funktion, du ønsker at prioritere, eller opret en ny funktion.
    4. Klik på linket Stem på dette spørgsmål. Dette er placeret i højre side af problemet under afsnittet People.

2.2 Liste over H2O-ressourcer

3. Brug af H2O-3 artefakter

Hvert natligt build udgiver R-, Python-, Java- og Scala-artefakter til et build-specifikt repository. Især kan du finde Java-artefakter i maven/repo-mappen.

Her er et eksempeluddrag af en gradle-byggefil, der bruger h2o-3 som afhængighed. Udskift x, y, z og nnnn med gyldige tal.

Referer til den seneste H2O-3 bleeding edge nightly build-side for oplysninger om installation af nightly build-artefakter.

Referer til GitHub-repositoriet h2o-droplets for at få et arbejdseksempel på, hvordan du bruger Java-artefakter med gradle.

Bemærk: Stabile H2O-3 artefakter offentliggøres jævnligt på Maven Central (klik her for at søge), men kan være væsentligt forsinket i forhold til H2O-3 Bleeding Edge nightly builds.

4. Opbygning af H2O-3

For at komme i gang med H2O-udviklingen kræves JDK 1.7, Node.js, Gradle, Python og R. Vi bruger Gradle-wrapperen (kaldet gradlew) til at sikre, at opdaterede lokale versioner af Gradle og andre afhængigheder er installeret i din udviklingsmappe.

4.1. Før du bygger

Bygning af h2o kræver et korrekt opsat R-miljø med de nødvendige pakker og et Python-miljø med følgende pakker:

gripcoloramafuturetabulaterequestswheel

For at installere disse pakker kan du bruge pip eller conda.Hvis du har problemer med at installere disse pakker på Windows, skal du følge afsnittet Opsætning på Windows i denne vejledning.

(Bemærk: Det anbefales at bruge et virtuelt miljø, f.eks. VirtualEnv, til at installere alle pakker. )

4.2. Opbygning fra kommandolinjen (Hurtigstart)

For at opbygge H2O fra repositoriet skal du udføre følgende trin.

Opskrift 1: Klon frisk, byg, spring test over og kør H2O

Opskrift 2: Klon frisk, byg og kør test (kræver en fungerende installation af R)

git clone https://github.com/h2oai/h2o-3.gitcd h2o-3./gradlew syncSmalldata./gradlew syncRPackages./gradlew build

Noter:

  • Kørsel af test starter fem test-JVM’er, der danner en H2O-klynge, og kræver mindst 8 GB RAM (helst 16 GB RAM).
  • Kørsel ./gradlew syncRPackages understøttes på Windows, OS X og Linux og anbefales på det kraftigste, men er ikke påkrævet. ./gradlew syncRPackages sikrer et komplet og konsistent miljø med forhåndsgodkendte versioner af de pakker, der kræves til test og builds. Pakkerne kan installeres manuelt, men vi anbefaler at indstille en ENV-variabel og bruge ./gradlew syncRPackages. For at indstille ENV-variablen skal du bruge følgende format (hvor `${WORKSPACE}} kan være en hvilken som helst sti):
mkdir -p ${WORKSPACE}/Rlibraryexport R_LIBS_USER=${WORKSPACE}/Rlibrary

Opskrift 3: Træk, rens, byg og kør test

git pull./gradlew syncSmalldata./gradlew syncRPackages./gradlew clean./gradlew build

Noter

  • Vi anbefaler at bruge ./gradlew clean efter hver git pull.

  • Skip test ved at tilføje -x test til sidst i kommandolinjen gradle build. Testene kører typisk i 7-10 minutter på en bærbar Macbook Pro med 4 CPU’er (8 hyperthreads) og 16 GB RAM.

  • Synkronisering af smalldata er ikke påkrævet efter hvert pull, men hvis testene mislykkes på grund af manglende datafiler, skal du prøve ./gradlew syncSmalldata som det første fejlfindingstrin. Synkronisering af smalldata downloader datafiler fra AWS S3 til smalldata-mappen i dit arbejdsområde. Synkroniseringen er inkrementel. Du skal ikke tjekke disse filer ind. Smalldata-mappen er i .gitignore. Hvis du ikke kører nogen test, har du ikke brug for smalldata-mappen.

  • Kørsel ./gradlew syncRPackages understøttes på Windows, OS X og Linux, og det anbefales kraftigt, men er ikke påkrævet. ./gradlew syncRPackages sikrer et komplet og konsistent miljø med forhåndsgodkendte versioner af de pakker, der er nødvendige for test og builds. Pakkerne kan installeres manuelt, men vi anbefaler at indstille en ENV-variabel og bruge ./gradlew syncRPackages. For at indstille ENV-variablen skal du bruge følgende format (hvor ${WORKSPACE} kan være en hvilken som helst sti):

    mkdir -p ${WORKSPACE}/Rlibraryexport R_LIBS_USER=${WORKSPACE}/Rlibrary

Opskrift 4: Bare byg docs

./gradlew clean && ./gradlew build -x test && (export DO_FAST=1; ./gradlew dist)open target/docs-website/h2o-docs/index.html

4.3. Opsætning på Windows

Trin 1: Hent og installer WinPython.

Valider python fra kommandolinjen ved at bruge which python (eller sudo which python) for at bekræfte, at python bruger den nyligt installerede pakke. Opdater miljøvariablen med WinPython-stien.

Trin 2: Installer de nødvendige Python-pakker:
pip install grip 'colorama>=0.3.8' future tabulate wheel
Trin 3: Installer JDK

Installer Java 1.7, og tilføj den relevante mappe C:\Program Files\Java\jdk1.7.0_65\bin med java.exe til PATH i miljøvariabler. For at sikre dig, at kommandoprompten registrerer den korrekte Java-version, skal du køre:

javac -version

Variablen CLASSPATH skal også indstilles til undermappen lib i JDK:

CLASSPATH=/<path>/<to>/<jdk>/lib
Trin 4. Installer Node.js

Installer Node.js, og tilføj den installerede mappe C:\Program Files\nodejs, som skal indeholde node.exe og npm.cmd, til PATH, hvis den ikke allerede er præsuppleret.

Trin 5. Installer R, de nødvendige pakker og Rtools:

Installer R, og tilføj bin-mappen til din PATH, hvis den ikke allerede er inkluderet.

Installer følgende R-pakker:

  • RCurl
  • jsonlite
  • statmod
  • devtools
  • roxygen2
  • testthat

For at installere disse pakker fra en R-session:

Bemærk, at libcurl er påkrævet for installation af RCurl R-pakken.

Bemærk, at disse pakker ikke dækker kørsel af tests, de er kun til opbygning af H2O.

Finalt skal du installere Rtools, som er en samling af kommandolinjeværktøjer til at lette R-udvikling på Windows.

BEMÆRK: Under installationen af Rtools må du ikke installere Cygwin.dll.

Trin 6. Installer Cygwin

BEMÆRK: Under installationen af Cygwin skal du fravælge Python-pakkerne for at undgå en konflikt med Python.org-pakken.

Trin 6b. Validér Cygwin

Hvis Cygwin allerede er installeret, skal du fjerne Python-pakkerne eller sikre dig, at Native Python står før Cygwin i PATH-variablen.

Trin 7. Opdater eller validér Windows PATH-variablen, så den omfatter R, Java JDK, Cygwin.
Trin 8. Git-klon h2o-3

Hvis du ikke allerede har en Git-klient, skal du installere en. Standardklienten kan findes her http://git-scm.com/downloads. Sørg for, at understøttelse af kommandoprompt er aktiveret før installationen.

Download og opdater h2o-3-kildekoder:

git clone https://github.com/h2oai/h2o-3
Trin 9. Kør gradle-bygningen på øverste niveau:
cd h2o-3./gradlew.bat build

Hvis du støder på fejl, skal du køre igen med --stacktrace for at få flere instruktioner om manglende afhængigheder.

4.4. Opsætning på OS X

Hvis du ikke har Homebrew, anbefaler vi, at du installerer det. Det gør pakkehåndtering for OS X let.

Trin 1. Installer JDK

Installer Java 1.7. For at sikre dig, at kommandoprompten registrerer den korrekte Java-version, skal du køre:

javac -version
Trin 2. Installer Node.js:

Ved hjælp af Homebrew:

brew install node

Som andet kan du installere fra NodeJS-webstedet.

Trin 3. Installer R og de nødvendige pakker:

Installer R, og tilføj bin-mappen til din PATH, hvis den ikke allerede er inkluderet.

Installer følgende R-pakker:

  • RCurl
  • jsonlite
  • statmod
  • devtools
  • roxygen2
  • testthat

For at installere disse pakker fra en R-session:

Bemærk, at libcurl er påkrævet for installation af RCurl R-pakken.

Bemærk, at disse pakker ikke dækker kørsel af tests, de er kun til opbygning af H2O.

Trin 4. Installer python og de nødvendige pakker:

Installer python:

brew install python

Installer pip-pakkehåndtering:

sudo easy_install pip

Næste installation af de nødvendige pakker:

sudo pip install wheel requests 'colorama>=0.3.8' future tabulate 
Trin 5. Git-klon h2o-3

OS X bør allerede have Git installeret. Sådan hentes og opdateres h2o-3-kildekoder:

git clone https://github.com/h2oai/h2o-3
Trin 6. Kør gradle-bygningen på øverste niveau:
cd h2o-3./gradlew build

Bemærk: På en almindelig maskine kan det tage meget lang tid (ca. en time) at køre alle testene.

Hvis du støder på fejl, skal du køre igen med --stacktrace for at få flere instruktioner om manglende afhængigheder.

4.5. Opsætning på Ubuntu 14.04

Trin 1. Installer Node.js
curl -sL https://deb.nodesource.com/setup_0.12 | sudo bash -sudo apt-get install -y nodejs
Trin 2. Installer JDK:

Installer Java 8. Installationsvejledning kan findes her JDK-installation. For at sikre dig, at kommandoprompten registrerer den korrekte Java-version, skal du køre:

javac -version
Trin 3. Installer R og de nødvendige pakker:

Installationsvejledning kan findes her R-installation. Klik på “Download R for Linux”. Klik på “ubuntu”. Følg de givne instruktioner.

Følg de samme instruktioner som for OS X ovenfor for at installere de nødvendige pakker.

Bemærk: Hvis processen ikke lykkes med at installere RStudio Server på Linux, skal du køre en af følgende:

sudo apt-get install libcurl4-openssl-dev

eller

sudo apt-get install libcurl4-gnutls-dev

Trin 4. Git Clone h2o-3

Hvis du ikke allerede har en Git-klient:

sudo apt-get install git

Download og opdater h2o-3-kildekoder:

git clone https://github.com/h2oai/h2o-3
Trin 5. Kør gradle-bygningen på øverste niveau:

Hvis du støder på fejl, skal du køre igen ved hjælp af --stacktrace for at få flere instruktioner om manglende afhængigheder.

Sørg for, at du ikke kører som root, da bower vil afvise en sådan kørsel.

4.6. Opsætning på Ubuntu 13.10

Trin 1. Installer Node.js
curl -sL https://deb.nodesource.com/setup_10.x | sudo bash -sudo apt-get install -y nodejs
Trin 2-4. Følg trin 2-4 for Ubuntu 14.04 (over)

4.7. Opsætning på CentOS 7

5. Start af H2O efter opbygning

For at starte H2O-klyngen lokalt skal du udføre følgende på kommandolinjen:

java -jar build/h2o.jar

En liste over tilgængelige JVM- og H2O-optioner til opstart (f.eks. -Xmx, -nthreads, -ip), findes i H2O-brugervejledningen.

6. Opbygning af H2O på Hadoop

Forudkomponerede H2O-on-Hadoop zip-filer er tilgængelige på download-siden. Hver Hadoop-distributionsversion har en separat zip-fil i h2o-3.

For selv at bygge H2O med Hadoop-understøttelse skal du først installere sphinx for python: pip install sphinxStart derefter opbygningen ved at indtaste følgende fra den øverste h2o-3-mappe:

(export BUILD_HADOOP=1; ./gradlew build -x test)./gradlew dist

Dette vil oprette en mappe kaldet “target” og generere zip-filer der. Bemærk, at BUILD_HADOOP er standardadfærden, når brugernavnet er jenkins (se settings.gradle); ellers skal du anmode om det, som vist ovenfor.

Tilføjelse af understøttelse for en ny version af Hadoop

I mappen h2o-hadoop har hver Hadoop-version en build-mappe for driveren og en assemblermappe for fatjar.

Du skal:

  1. Føj en ny drivermappe og en samlemappe (hver med en build.gradle-fil) i h2o-hadoop
  2. Føj disse nye projekter til h2o-3/settings.gradle
  3. Føj den nye Hadoop-version til HADOOP_VERSIONS i make-dist.sh
  4. Føj den nye Hadoop-version til listen i h2o-dist/buildinfo.json

Sikker brugerimpersonering

Hadoop understøtter sikker brugerimpersonering via sin Java API. En kerberos-autentificeret bruger kan få tilladelse til at give fuldmagt til ethvert brugernavn, der opfylder bestemte kriterier, der er angivet i NameNodes core-site.xml-fil. Denne efterligning gælder kun for interaktioner med Hadoop-API’en eller API’erne for Hadoop-relaterede tjenester, der understøtter den (dette er ikke det samme som at skifte til den pågældende bruger på oprindelsesmaskinen).

Indstilling af sikker brugerimpersonering (for h2o):

  1. Opret eller find et id til brug som proxy, der har begrænset til ingen adgang til HDFS eller relaterede tjenester; proxybrugeren behøver kun at blive brugt til at udgive sig for en bruger
  2. (Påkrævet, hvis du ikke bruger h2odriver) Hvis du ikke bruger driveren (f.eks.f.eks. har du skrevet din egen kode mod h2o’s API ved hjælp af Hadoop), skal du foretage de nødvendige kodeændringer for at udgive dig for brugere (se org.apache.hadoop.security.UserGroupInformation)
  3. I enten Ambari/Cloudera Manager eller direkte på NameNodes core-site.xml-fil skal du tilføje 2/3 egenskaber for den bruger, som vi ønsker at bruge som proxy (erstat med det simple brugernavn – ikke det fuldt kvalificerede hovednavn).
    • hadoop.proxyuser.<proxyusername>.hosts: de værter, som proxybrugeren har tilladelse til at udføre impersonerede handlinger på vegne af en gyldig bruger fra
    • hadoop.proxyuser.<proxyusername>.groups: de grupper, som en impersoneret bruger skal tilhøre, for at impersonering kan fungere med den pågældende proxybruger
    • hadoop.proxyuser.<proxyusername>.users: de brugere, som en proxybruger har tilladelse til at impersonere
    • Eksempel: <property> <name>hadoop.proxyuser.myproxyuser.hosts</name> <value>host1,host2</value> </property> <property> <name>hadoop.proxyuser.myproxyuser.groups</name> <value>group1,group2</value> </property> <property> <name>hadoop.proxyuser.myproxyuser.users</name> <value>user1,user2</value> </property>
  4. Genstart kernetjenester som HDFS & YARN for at ændringerne kan træde i kraft

Impersonerede HDFS-handlinger kan ses i hdfs-auditloggen (‘auth:PROXY’ bør vises i ugi=-feltet i poster, hvor dette er relevant). YARN bør på samme måde vise ‘auth:PROXY’ et sted i Resource Manager UI.

For at bruge sikker impersonering med h2os Hadoop-driver:

Hvor dette forsøges, se Risici med impersonering, nedenfor

Når du bruger h2odriveren (f.eks.f.eks. når du kører med hadoop jar ...), skal du angive -principal <proxy user kerberos principal>, -keytab <proxy user keytab path> og -run_as_user <hadoop username to impersonate>, ud over eventuelle andre nødvendige argumenter. Hvis konfigurationen lykkedes, vil proxybrugeren logge ind og udgive sig for -run_as_user, så længe denne bruger er tilladt af enten konfigurationsegenskaben users eller groups (konfigureret ovenfor); dette håndhæves af HDFS & YARN, ikke af h2o’s kode. Driveren indstiller effektivt sin sikkerhedskontekst som den personificerede bruger, så alle understøttede Hadoop-handlinger vil blive udført som denne bruger (f.eks. YARN, HDFS API’er understøtter sikkert personificerede brugere, men andre kan ikke).

Forholdsregler ved udnyttelse af sikker personificering

  • Målbrugstilfælde for sikker personificering er programmer eller tjenester, der på forhånd autentificerer en bruger og derefter bruger (i dette tilfælde) h2odriveren på vegne af denne bruger. H2O’s Steam er et perfekt eksempel: auth bruger i webapp over SSL, impersonér denne bruger, når du opretter h2o YARN-containeren.
  • Proxy-brugeren skal have begrænsede tilladelser i Hadoop-klyngen; det betyder ingen tilladelser til at få adgang til data eller foretage API-kald. På denne måde vil den, hvis den bliver kompromitteret, kun have beføjelse til at udgive sig for en bestemt delmængde af brugerne i klyngen og kun fra bestemte maskiner.
  • Brug hadoop.proxyuser.<proxyusername>.hosts-egenskaben, når det er muligt eller praktisk muligt.
  • Giv ikke proxybrugerens adgangskode eller keytab til en bruger, som du ikke ønsker at udgive sig for en anden bruger (dette er generelt enhver bruger). Formålet med impersonation er ikke at give brugere mulighed for at udgive sig for at udgive sig for hinanden. Se det første punkt for den typiske brugssituation.
  • Begræns brugerlogon til den maskine, som proxyingen sker fra, når det er praktisk muligt.
  • Sørg for, at den keytab, der bruges til at logge ind på proxybrugeren, er korrekt sikret, og at brugere ikke kan logge ind som dette id (f.eks. via su)
  • Sæt aldrig hadoop.proxyuser..{users,groups} til ‘*’ eller ‘hdfs’, ‘yarn’ osv. At tillade en bruger at udgive sig for hdfs, yarn eller en anden vigtig bruger/gruppe bør gøres med ekstrem forsigtighed og analyseres kraftigt, før det tillades.

Risici ved sikker udgivelse af identitet

  • Den id, der udfører udgivelsen af identitet, kan kompromitteres ligesom enhver anden brugerid.
  • Indstilling af enhver hadoop.proxyuser.<proxyusername>.{hosts,groups,users}-egenskab til ‘*’ kan i høj grad øge eksponeringen for sikkerhedsrisici.
  • Når brugere ikke er autentificeret, før de bruges med driveren (f.eks. som Steam gør det via en sikker web-app/API), er det vanskeligt at kontrollere processen/systemet.

7. Sparkling Water

Sparkling Water kombinerer to open source-teknologier: Apache Spark og H2O Machine Learning-platformen. Den gør H2O’s bibliotek af avancerede algoritmer, herunder Deep Learning, GLM, GBM, K-Means og Distributed Random Forest, tilgængeligt fra Spark-arbejdsgange. Spark-brugere kan vælge de bedste funktioner fra begge platforme for at opfylde deres Machine Learning-behov. Brugerne kan kombinere Spark’s RDD API og Spark MLLib med H2O’s maskinlæringsalgoritmer, eller bruge H2O uafhængigt af Spark til modelopbygningsprocessen og efterbehandle resultaterne i Spark.

Sparkling Water Ressourcer:

  • Downloadside for præbyggede pakker
  • Sparkling Water GitHub-repository
  • README
  • Dokumentation for udviklere

8. Dokumentation

Dokumentationshjemmeside

Den vigtigste H2O-dokumentation er H2O-brugervejledningen. Besøg http://docs.h2o.ai for at få en introduktion på øverste niveau til dokumentation om H2O-projekter.

Generer REST API-dokumentation

Brug følgende kommandoer for at generere REST API-dokumentationen:

Standardplaceringen for den genererede dokumentation er build/docs/REST.

Hvis opbygningen mislykkes, skal du prøve gradlew clean og derefter git clean -f.

Dokumentation for bleeding edge build-dokumentation

Dokumentation for hver enkelt bleeding edge nightly build er tilgængelig på siden for nightly build.

9. Citation af H2O

Hvis du bruger H2O som en del af din arbejdsgang i en publikation, bedes du citere din(e) H2O-ressource(r) ved hjælp af følgende BibTex-post:

H2O Software

Formaterede H2O Software-citationseksempler:

H2O Booklets

H2O-algoritmehæfter er tilgængelige på Documentation Homepage.

@Manual{h2o_booklet_name, title = {booklet_title}, author = {list_of_authors}, year = {year}, month = {month}, url = {link_url},}

Citationseksempler på formaterede hæfter:

10. Køreplan

H2O 3.34.0.1 – januar 2021

  • Udvidet isolationsskov-algoritme
  • Uplift Trees
  • Extracting & ranking feature interactions from GBM and XGBoost models
  • RuleFit MOJO, CoxPH MOJO
  • Support for MOJO2 Scoring
  • Grid-Search fault Tolerance
  • Kubernetes Operator
  • Externalized XGBoost on Kubernetes clusters

11. Fællesskab

H2O er blevet bygget af et stort antal bidragydere gennem årene både inden for H2O.ai (virksomheden) og det større open source-fællesskab. Du kan begynde at bidrage til H2O ved at svare på Stack Overflow-spørgsmål eller indsende fejlrapporter. Vær med!

Team & Committers

SriSatish AmbatiCliff ClickTom KraljevicTomas NykodymMichal MalohlavaKevin NormoyleSpencer AielloAnqi FuNidhi MehtaArno CandelJosephine WangAmy WangMax SchloemerRay PeckPrithvi PrabhuBrandon HillJeff GamberaAriel RaoViraj ParmarKendall HarrisAnand AvatiJessica LanfordAlex TellezAllison WashburnAmy WangErik EckstrandNeeraja MadabhushiSebastian VidrioBen SabrinMatt DowleMark LandryErin LeDellAndrey SpiridonovOleg RogynskyyNick MartinNancy JordanNishant KaloniaNadine HussamiJeff CramerStacie SpreitzerVinod IyengarCharlene WindomParag SanghaviNavdeep GillLauren DiPernaAnmol BalMark ChanNick KarpovAvni WadhwaAshrith BarthurKaren HayrapetyanJo-fai ChowDmitry LarkoBranden MurrayJakub HavaWen PhanMagnus StensmoPasha StetsenkoAngela BartzMateusz DymczykMicah StubbsIvy WangTerone WardLeland WilkinsonWendy WongNikhil ShekharPavel PscheidlMichal KurkaVeronika MaurerovaJan SterbaJan JendrusakSebastien PoirierTomáš Frýda

Advisors

Scientific Advisory Council

Stephen BoydRob TibshiraniTrevor Hastie

Systems, Data, FileSystems and Hadoop

Doug LeaChris PouliotDhruba Borthakur

Investors

Jishnu Bhattacharjee, Nexus Venture PartnersAnand Babu PeriasamyAnand RajaramanAsh BhardwajRakesh MathurMichael MarksEgbert BiermanRajesh Ambati

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.