doc:tracing: add entry for +traceprocessors, which has existed for years, but never...
authorEric Bohm <ebohm@illinois.edu>
Fri, 3 Aug 2012 20:49:11 +0000 (15:49 -0500)
committerEric Bohm <ebohm@illinois.edu>
Fri, 3 Aug 2012 20:49:11 +0000 (15:49 -0500)
doc/projections/tracing.tex

index 724bf5d331b3313cd0e65366e692f3c6ea4fdb14..f7a01e8e99be51f52dd545e02f4aeca5000effe2 100644 (file)
@@ -165,6 +165,9 @@ not displayed. This option enables warning messages to be printed to
 screen. However, on large numbers of processors, they can overwhelm
 the terminal I/O system of the machine and result in unacceptable
 perturbation of the application.
 screen. However, on large numbers of processors, they can overwhelm
 the terminal I/O system of the machine and result in unacceptable
 perturbation of the application.
+
+{\tt +traceprocessors RANGE}: Only output logfiles for PEs present in the range (i.e. \tt{0-31,32-999966:1000,999967-999999} to record every PE on the first 32, only every thousanth for the middle range, and the last 32 for a million processor run).
+
 \end{itemize}
 
 \subsection{End-of-run Analysis for Data Reduction}
 \end{itemize}
 
 \subsection{End-of-run Analysis for Data Reduction}
@@ -172,7 +175,7 @@ perturbation of the application.
 
 As applications are scaled to thousands or hundreds of thousands of
 processors, the amount of data generated becomes extremely large and
 
 As applications are scaled to thousands or hundreds of thousands of
 processors, the amount of data generated becomes extremely large and
-potentially unmanageable by the visualization tool. At the time of this
+potentially unmanageable by the visualization tool. At the time of this{\tt +traceWarn}
 documentation, \projections{} is capable of handling data from 8000+
 processors but with somewhat severe tool responsiveness issues. We
 have developed an approach to mitigate this data size problem with
 documentation, \projections{} is capable of handling data from 8000+
 processors but with somewhat severe tool responsiveness issues. We
 have developed an approach to mitigate this data size problem with