Hi Patrick,

I guess the easiest way is to use log aggregation: 
https://spark.apache.org/docs/latest/running-on-yarn.html#debugging-your-application

BR

Jean-Michel



Dr. Ing. h.c. F.  Porsche Aktiengesellschaft
Sitz der Gesellschaft: Stuttgart
Registergericht: Amtsgericht Stuttgart HRB-Nr. 730623
Vorsitzender des Aufsichtsrats: Dr. Wolfgang Porsche
Vorstand: Oliver Blume, Vorsitzender
Lutz Meschke, stv. Vorsitzender
Andreas Haffner, Detlev von Platen, Albrecht Reimold, Uwe-Karsten Städter, 
Michael Steiner

Informationen zum Umgang mit Ihren Daten finden Sie in unsere 
Datenschutzhinweisen unter https://www.porsche.com/germany/porscheag-privacy/

Die vorgenannten Angaben werden jeder E-Mail automatisch hinzugefügt. Dies ist 
kein Anerkenntnis,
dass es sich beim Inhalt dieser E-Mail um eine rechtsverbindliche Erklärung der 
Porsche AG handelt.
Erklärungen, die die Porsche AG verpflichten, bedürfen jeweils der Unterschrift 
durch zwei zeichnungs-
berechtigte Personen der AG.




-----Ursprüngliche Nachricht-----
Von: tkrol <patric...@gmail.com>
Gesendet: Freitag, 7. Juni 2019 16:22
An: user@spark.apache.org
Betreff: Getting driver logs in Standalone Cluster

Hey Guys,

I am wondering what is the best way to get logs for driver in the cluster mode 
on standalone cluster? Normally I used to run client mode so I could capture 
logs from the console.

Now I've started running jobs in cluster mode and obviously driver is running 
on worker and can't see the logs.

I would like to store logs (preferably in hdfs), any easy way to do that?

Thanks



--
Sent from: http://apache-spark-user-list.1001560.n3.nabble.com/

---------------------------------------------------------------------
To unsubscribe e-mail: user-unsubscr...@spark.apache.org


---------------------------------------------------------------------
To unsubscribe e-mail: user-unsubscr...@spark.apache.org

Reply via email to