Initialize zcMsgType for all message allocations
[charm.git] / src / conv-core / cputopology.C
1 #include <map>
2 #include <vector>
3 #include <algorithm>
4 #include "converse.h"
5 #include "sockRoutines.h"
6
7 #define DEBUGP(x)  /** CmiPrintf x; */
8
9 /** This scheme relies on using IP address to identify physical nodes 
10  * written by Gengbin Zheng  9/2008
11  *
12  * last updated 10/4/2009   Gengbin Zheng
13  * added function CmiCpuTopologyEnabled() which retuens 1 when supported
14  * when not supported return 0
15  * all functions when cputopology not support, now act like a normal non-smp 
16  * case and all PEs are unique.
17  *
18  * major changes 10/28/09   Gengbin Zheng
19  * - parameters changed from pe to node to be consistent with the function name
20  * - two new functions:   CmiPhysicalNodeID and CmiPhysicalRank
21  *
22  * 3/5/2010   Gengbin Zheng
23  * - use CmiReduce to optimize the collection of node info
24  */
25
26 #if 1
27
28 #include <stdlib.h>
29 #include <stdio.h>
30 #include <unistd.h>
31
32 #include <stdlib.h>
33 #include <stdio.h>
34
35 #if CMK_BLUEGENEQ
36 #include "TopoManager.h"
37 #endif
38
39 #if CMK_BLUEGENEQ
40 #include "spi/include/kernel/process.h"
41 #endif
42
43 #if CMK_CRAYXE || CMK_CRAYXC
44 extern "C" int getXTNodeID(int mpirank, int nummpiranks);
45 #endif
46
47 #if defined(__APPLE__)  && CMK_HAS_MULTIPROCESSING_H
48 #include <Carbon/Carbon.h>
49 #include <Multiprocessing.h>
50 #endif
51
52 #if CMK_BIGSIM_CHARM
53 #include "middle-blue.h"
54 using namespace BGConverse;
55 #endif
56
57 extern "C" int CmiNumCores(void) {
58   int a = 1;
59 #ifdef _WIN32
60 struct _SYSTEM_INFO sysinfo;
61 #endif  
62
63   /* Allow the user to override the number of CPUs for use
64      in scalability testing, debugging, etc. */
65   char *forcecount = getenv("FORCECPUCOUNT");
66   if (forcecount != NULL) {
67     if (sscanf(forcecount, "%d", &a) == 1) {
68       return a; /* if we got a valid count, return it */
69     } else {
70       a = 1;      /* otherwise use the real available hardware CPU count */
71     }
72   }
73
74 #if defined(__APPLE__)  && CMK_HAS_MULTIPROCESSING_H
75   a = MPProcessorsScheduled(); /* Number of active/running CPUs */
76 #endif
77
78 #ifdef _WIN32
79   //struct _SYSTEM_INFO sysinfo;  
80   GetSystemInfo(&sysinfo);
81   a = sysinfo.dwNumberOfProcessors; /* total number of CPUs */
82 #endif /* _MSC_VER */
83
84
85 #ifdef _SC_NPROCESSORS_ONLN
86   a = sysconf(_SC_NPROCESSORS_ONLN); /* number of active/running CPUs */
87 #ifdef _SC_NPROCESSORS_CONF
88   /* also consider CPUs that are temporarily powered down by the OS */
89   const int b = sysconf(_SC_NPROCESSORS_CONF);
90   if ( b > a ) a = b;
91 #endif
92 #elif defined(_SC_CRAY_NCPU)
93   a = sysconf(_SC_CRAY_NCPU);
94 #elif defined(_SC_NPROC_ONLN)
95   a = sysconf(_SC_NPROC_ONLN); /* number of active/running CPUs */
96 #endif
97 #if CMK_BLUEGENEQ
98   a *= Kernel_ProcessCount();
99 #endif
100
101   if (a < 1) a = 1;
102
103   return a;
104 }
105
106 struct _procInfo {
107   skt_ip_t ip;
108   int pe;
109   int ncores;
110   int rank;
111   int nodeID;
112 };
113
114 typedef struct _hostnameMsg {
115   char core[CmiMsgHeaderSizeBytes];
116   int n;
117   _procInfo *procs;
118 } hostnameMsg;
119
120 typedef struct _nodeTopoMsg {
121   char core[CmiMsgHeaderSizeBytes];
122   int *nodes;
123 } nodeTopoMsg;
124
125 typedef struct _topoDoneMsg { // used for empty reduction to indicate all PEs have topo info
126   char core[CmiMsgHeaderSizeBytes];
127 } topoDoneMsg;
128
129 // nodeIDs[pe] is the node number of processor pe
130 class CpuTopology {
131 public:
132   static int *nodeIDs;
133   static int numPes;
134   static int numNodes;
135   static std::vector<int> *bynodes;
136   static int supported;
137
138   ~CpuTopology() {
139     delete [] bynodes;
140   }
141
142     // return -1 when not supported
143   int numUniqNodes() {
144 #if 0
145     if (numNodes != 0) return numNodes;
146     int n = 0;
147     for (int i=0; i<CmiNumPes(); i++) 
148       if (nodeIDs[i] > n)
149         n = nodeIDs[i];
150     numNodes = n+1;
151     return numNodes;
152 #else
153     if (numNodes > 0) return numNodes;     // already calculated
154     std::vector<int> unodes(numPes);
155     int i;
156     for (i=0; i<numPes; i++) unodes[i] = nodeIDs[i];
157     std::sort(unodes.begin(), unodes.end());
158     int last = -1;
159     std::map<int, int> nodemap;  // nodeIDs can be out of range of [0,numNodes]
160     for (i=0; i<numPes; i++)  { 
161         if (unodes[i] != last) {
162           last=unodes[i];
163           nodemap[unodes[i]] = numNodes;
164           numNodes++; 
165         }
166     }
167     if (numNodes == 0)  {
168       numNodes = CmiNumNodes();
169       numPes = CmiNumPes();
170     }
171     else {
172         // re-number nodeIDs, which may be necessary e.g. on BlueGene/P
173       for (i=0; i<numPes; i++) nodeIDs[i] = nodemap[nodeIDs[i]];
174       CpuTopology::supported = 1;
175     }
176     return numNodes;
177 #endif
178   }
179
180   void sort() {
181     int i;
182     numUniqNodes();
183     bynodes = new std::vector<int>[numNodes];
184     if (supported) {
185       for (i=0; i<numPes; i++){
186         CmiAssert(nodeIDs[i] >=0 && nodeIDs[i] <= numNodes); // Sanity check for bug that occurs on mpi-crayxt
187         bynodes[nodeIDs[i]].push_back(i);
188       }
189     }
190     else {    /* not supported/enabled */
191       for (i=0;i<CmiNumPes();i++)  bynodes[CmiNodeOf(i)].push_back(i);
192     }
193   }
194
195   void print() {
196     int i;
197     CmiPrintf("Charm++> Cpu topology info:\n");
198     CmiPrintf("PE to node map: ");
199     for (i=0; i<CmiNumPes(); i++)
200       CmiPrintf("%d ", nodeIDs[i]);
201     CmiPrintf("\n");
202     CmiPrintf("Node to PE map:\n");
203     for (i=0; i<numNodes; i++) {
204       CmiPrintf("Chip #%d: ", i);
205       for (int j=0; j<bynodes[i].size(); j++)
206         CmiPrintf("%d ", bynodes[i][j]);
207       CmiPrintf("\n");
208     }
209   }
210
211 };
212
213 int *CpuTopology::nodeIDs = NULL;
214 int CpuTopology::numPes = 0;
215 int CpuTopology::numNodes = 0;
216 std::vector<int> *CpuTopology::bynodes = NULL;
217 int CpuTopology::supported = 0;
218
219 namespace CpuTopoDetails {
220
221 static nodeTopoMsg *topomsg = NULL;
222 static CmmTable hostTable;
223
224 CpvStaticDeclare(int, cpuTopoHandlerIdx);
225 CpvStaticDeclare(int, cpuTopoRecvHandlerIdx);
226 CpvStaticDeclare(int, topoDoneHandlerIdx);
227
228 static CpuTopology cpuTopo;
229 static CmiNodeLock topoLock = 0; /* Not spelled 'NULL' to quiet warnings when CmiNodeLock is just 'int' */
230 static int done = 0;
231 static int topoDone = 0;
232 static int _noip = 0;
233
234 }
235
236 using namespace CpuTopoDetails;
237
238 static void printTopology(int numNodes)
239 {
240   // assume all nodes have same number of cores
241   const int ways = CmiNumCores();
242   if (ways > 1)
243     CmiPrintf("Charm++> Running on %d hosts (%d sockets x %d cores x %d PUs = %d-way SMP)\n",
244               numNodes, CmiHwlocTopologyLocal.num_sockets,
245               CmiHwlocTopologyLocal.num_cores / CmiHwlocTopologyLocal.num_sockets,
246               CmiHwlocTopologyLocal.num_pus / CmiHwlocTopologyLocal.num_cores,
247               ways);
248   else
249     CmiPrintf("Charm++> Running on %d hosts\n", numNodes);
250
251 #if !CMK_BLUEGENEQ
252   // ignore BG/Q's reserved socket
253   if (ways != CmiHwlocTopologyLocal.num_pus)
254     CmiPrintf("Charm++> Warning: Internally-determined PU count does not match hwloc's result!\n");
255 #endif
256 }
257
258 /* called on PE 0 */
259 static void cpuTopoHandler(void *m)
260 {
261   _procInfo *rec;
262   hostnameMsg *msg = (hostnameMsg *)m;
263   int tag, tag1, pe;
264
265   if (topomsg == NULL) {
266     int i;
267     hostTable = CmmNew();
268     topomsg = (nodeTopoMsg *)CmiAlloc(sizeof(nodeTopoMsg)+CmiNumPes()*sizeof(int));
269     CMI_ZC_MSGTYPE(topomsg) = CMK_REG_NO_ZC_MSG;
270     CmiSetHandler((char *)topomsg, CpvAccess(cpuTopoRecvHandlerIdx));
271     topomsg->nodes = (int *)((char*)topomsg + sizeof(nodeTopoMsg));
272     for (i=0; i<CmiNumPes(); i++) topomsg->nodes[i] = -1;
273   }
274   CmiAssert(topomsg != NULL);
275
276   msg->procs = (_procInfo*)((char*)msg + sizeof(hostnameMsg));
277   CmiAssert(msg->n == CmiNumPes());
278   for (int i=0; i<msg->n; i++) 
279   {
280     _procInfo *proc = msg->procs+i;
281
282 /*   for debug
283   skt_print_ip(str, msg->ip);
284   printf("hostname: %d %s\n", msg->pe, str);
285 */
286     tag = *(int*)&proc->ip;
287     pe = proc->pe;
288     if ((rec = (_procInfo *)CmmProbe(hostTable, 1, &tag, &tag1)) != NULL) {
289     }
290     else {
291       proc->nodeID = pe;           // we will compact the node ID later
292       rec = proc;
293       CmmPut(hostTable, 1, &tag, proc);
294     }
295     topomsg->nodes[pe] = rec->nodeID;
296     rec->rank ++;
297   }
298
299   printTopology(CmmEntries(hostTable));
300
301     // clean up CmmTable
302   hostnameMsg *tmpm;
303   tag = CmmWildCard;
304   while ((tmpm = (hostnameMsg *)CmmGet(hostTable, 1, &tag, &tag1)));
305   CmmFree(hostTable);
306   CmiFree(msg);
307
308   CmiSyncBroadcastAllAndFree(sizeof(nodeTopoMsg)+CmiNumPes()*sizeof(int), (char *)topomsg);
309 }
310
311 /* called on PE 0 */
312 static void topoDoneHandler(void *m) {
313   CmiLock(topoLock);
314   topoDone++;
315   CmiUnlock(topoLock);
316 }
317
318 /* called on each processor */
319 static void cpuTopoRecvHandler(void *msg)
320 {
321   nodeTopoMsg *m = (nodeTopoMsg *)msg;
322   m->nodes = (int *)((char*)m + sizeof(nodeTopoMsg));
323
324   CmiLock(topoLock);
325   if (cpuTopo.nodeIDs == NULL) {
326     cpuTopo.nodeIDs = m->nodes;
327     cpuTopo.sort();
328   }
329   else
330     CmiFree(m);
331   done++;
332   CmiUnlock(topoLock);
333
334   //if (CmiMyPe() == 0) cpuTopo.print();
335 }
336
337 // reduction function
338 static void * combineMessage(int *size, void *data, void **remote, int count) 
339 {
340   int i, j;
341   int nprocs = ((hostnameMsg *)data)->n;
342   if (count == 0) return data;
343   for (i=0; i<count; i++) nprocs += ((hostnameMsg *)remote[i])->n;
344   *size = sizeof(hostnameMsg)+sizeof(_procInfo)*nprocs;
345   hostnameMsg *msg = (hostnameMsg *)CmiAlloc(*size);
346   CMI_ZC_MSGTYPE(msg) = CMK_REG_NO_ZC_MSG;
347   msg->procs = (_procInfo*)((char*)msg + sizeof(hostnameMsg));
348   msg->n = nprocs;
349   CmiSetHandler((char *)msg, CpvAccess(cpuTopoHandlerIdx));
350
351   int n=0;
352   hostnameMsg *m = (hostnameMsg*)data;
353   m->procs = (_procInfo*)((char*)m + sizeof(hostnameMsg));
354   for (j=0; j<m->n; j++)
355     msg->procs[n++] = m->procs[j];
356   for (i=0; i<count; i++) {
357     m = (hostnameMsg*)remote[i];
358     m->procs = (_procInfo*)((char*)m + sizeof(hostnameMsg));
359     for (j=0; j<m->n; j++)
360       msg->procs[n++] = m->procs[j];
361   }
362   return msg;
363 }
364
365 // reduction function
366 static void *emptyReduction(int *size, void *data, void **remote, int count)
367 {
368   if (CmiMyPe() != 0) {
369     CmiLock(topoLock);
370     topoDone++;
371     CmiUnlock(topoLock);
372   }
373   *size = sizeof(topoDoneMsg);
374   topoDoneMsg *msg = (topoDoneMsg *)CmiAlloc(sizeof(topoDoneMsg));
375   CMI_ZC_MSGTYPE(msg) = CMK_REG_NO_ZC_MSG;
376   CmiSetHandler((char *)msg, CpvAccess(topoDoneHandlerIdx));
377   return msg;
378 }
379
380 /******************  API implementation **********************/
381
382 extern "C" int LrtsCpuTopoEnabled()
383 {
384   return CpuTopology::supported;
385 }
386
387 extern "C" int LrtsPeOnSameNode(int pe1, int pe2)
388 {
389   int *nodeIDs = cpuTopo.nodeIDs;
390   if (!cpuTopo.supported || nodeIDs == NULL) return CmiNodeOf(pe1) == CmiNodeOf(pe2);
391   else return nodeIDs[pe1] == nodeIDs[pe2];
392 }
393
394 // return -1 when not supported
395 extern "C" int LrtsNumNodes()
396 {
397   if (!cpuTopo.supported) return CmiNumNodes();
398   else return cpuTopo.numUniqNodes();
399 }
400
401 extern "C" int LrtsNodeSize(int node)
402 {
403   return !cpuTopo.supported?CmiNodeSize(node):(int)cpuTopo.bynodes[node].size();
404 }
405
406 // pelist points to system memory, user should not free it
407 extern "C" void LrtsPeOnNode(int node, int **pelist, int *num)
408 {
409   *num = cpuTopo.bynodes[node].size();
410   if (pelist!=NULL && *num>0) *pelist = cpuTopo.bynodes[node].data();
411 }
412
413 extern "C" int LrtsRankOf(int pe)
414 {
415   if (!cpuTopo.supported) return CmiRankOf(pe);
416   const std::vector<int> &v = cpuTopo.bynodes[cpuTopo.nodeIDs[pe]];
417   int rank = 0;  
418   int npes = v.size();
419   while (rank < npes && v[rank] < pe) rank++;       // already sorted
420   CmiAssert(v[rank] == pe);
421   return rank;
422 }
423
424 extern "C" int LrtsNodeOf(int pe)
425 {
426   if (!cpuTopo.supported) return CmiNodeOf(pe);
427   return cpuTopo.nodeIDs[pe];
428 }
429
430 // the least number processor on the same physical node
431 extern "C"  int LrtsNodeFirst(int node)
432 {
433   if (!cpuTopo.supported) return CmiNodeFirst(node);
434   return cpuTopo.bynodes[node][0];
435 }
436
437
438 extern "C" void LrtsInitCpuTopo(char **argv)
439 {
440   static skt_ip_t myip;
441   hostnameMsg  *msg;
442   double startT;
443  
444   int obtain_flag = 1;              // default on
445   int show_flag = 0;                // default not show topology
446
447   if (CmiMyRank() ==0) {
448      topoLock = CmiCreateLock();
449   }
450
451 #if __FAULT__
452   obtain_flag = 0;
453 #endif
454   if(CmiGetArgFlagDesc(argv,"+obtain_cpu_topology",
455                                            "obtain cpu topology info"))
456     obtain_flag = 1;
457   if (CmiGetArgFlagDesc(argv,"+skip_cpu_topology",
458                                "skip the processof getting cpu topology info"))
459     obtain_flag = 0;
460   if(CmiGetArgFlagDesc(argv,"+show_cpu_topology",
461                                            "Show cpu topology info"))
462     show_flag = 1;
463
464 #if CMK_BIGSIM_CHARM
465   if (BgNodeRank() == 0)
466 #endif
467     {
468       CpvInitialize(int, cpuTopoHandlerIdx);
469       CpvInitialize(int, cpuTopoRecvHandlerIdx);
470       CpvInitialize(int, topoDoneHandlerIdx);
471       CpvAccess(cpuTopoHandlerIdx) =
472         CmiRegisterHandler((CmiHandler)cpuTopoHandler);
473       CpvAccess(cpuTopoRecvHandlerIdx) =
474         CmiRegisterHandler((CmiHandler)cpuTopoRecvHandler);
475       CpvAccess(topoDoneHandlerIdx) =
476         CmiRegisterHandler((CmiHandler)topoDoneHandler);
477     }
478   if (!obtain_flag) {
479     if (CmiMyRank() == 0) cpuTopo.sort();
480     CmiNodeAllBarrier();
481     CcdRaiseCondition(CcdTOPOLOGY_AVAIL);      // call callbacks
482     return;
483   }
484
485   if (CmiMyPe() == 0) {
486 #if CMK_BIGSIM_CHARM
487     if (BgNodeRank() == 0)
488 #endif
489       startT = CmiWallTimer();
490   }
491
492 #if CMK_BIGSIM_CHARM
493   if (BgNodeRank() == 0)
494   {
495     //int numPes = BgNumNodes()*BgGetNumWorkThread();
496     int numPes = cpuTopo.numPes = CkNumPes();
497     cpuTopo.nodeIDs = new int[numPes];
498     CpuTopology::supported = 1;
499     int wth = BgGetNumWorkThread();
500     for (int i=0; i<numPes; i++) {
501       int nid = i / wth;
502       cpuTopo.nodeIDs[i] = nid;
503     }
504     cpuTopo.sort();
505   }
506   return;
507 #else
508
509 #if CMK_USE_GM
510   CmiBarrier();
511 #endif
512
513
514 #if 0
515   if (gethostname(hostname, 999)!=0) {
516       strcpy(hostname, "");
517   }
518 #endif
519 #if CMK_BLUEGENEQ
520   if (CmiMyRank() == 0) {
521    TopoManager tmgr;
522
523     int numPes = cpuTopo.numPes = CmiNumPes();
524     cpuTopo.nodeIDs = new int[numPes];
525     CpuTopology::supported = 1;
526
527     int a, b, c, d, e, t, nid;
528     for(int i=0; i<numPes; i++) {
529       tmgr.rankToCoordinates(i, a, b, c, d, e, t);
530       nid = tmgr.coordinatesToRank(a, b, c, d, e, 0);
531       cpuTopo.nodeIDs[i] = nid;
532     }
533     cpuTopo.sort();
534     if (CmiMyPe()==0) printTopology(cpuTopo.numNodes);
535   }
536   CmiNodeAllBarrier();
537 #elif CMK_CRAYXE || CMK_CRAYXC
538   if(CmiMyRank() == 0) {
539     int numPes = cpuTopo.numPes = CmiNumPes();
540     int numNodes = CmiNumNodes();
541     cpuTopo.nodeIDs = new int[numPes];
542     CpuTopology::supported = 1;
543
544     int nid;
545     for(int i=0; i<numPes; i++) {
546       nid = getXTNodeID(CmiNodeOf(i), numNodes);
547       cpuTopo.nodeIDs[i] = nid;
548     }
549     int prev = -1;
550     nid = -1;
551
552     // this assumes that all cores on a node have consecutive MPI rank IDs
553     // and then changes nodeIDs to 0 to numNodes-1
554     for(int i=0; i<numPes; i++) {
555       if(cpuTopo.nodeIDs[i] != prev) {
556         prev = cpuTopo.nodeIDs[i];
557         cpuTopo.nodeIDs[i] = ++nid;
558       }
559       else
560         cpuTopo.nodeIDs[i] = nid;
561     }
562     cpuTopo.sort();
563     if (CmiMyPe()==0) printTopology(cpuTopo.numNodes);
564   }
565   CmiNodeAllBarrier();
566
567 #else
568
569   bool topoInProgress = true;
570
571   if (CmiMyPe() >= CmiNumPes()) {
572     CmiNodeAllBarrier();         // comm thread waiting
573 #if CMK_MACHINE_PROGRESS_DEFINED
574     bool waitForSecondReduction = (CmiNumNodes() > 1);
575     while (topoInProgress) {
576       CmiNetworkProgress();
577       CmiLock(topoLock);
578       if (waitForSecondReduction) topoInProgress = topoDone < CmiMyNodeSize();
579       else topoInProgress = done < CmiMyNodeSize();
580       CmiUnlock(topoLock);
581     }
582 #endif
583     return;    /* comm thread return */
584   }
585
586     /* get my ip address */
587   if (CmiMyRank() == 0)
588   {
589   #if CMK_HAS_GETHOSTNAME && !CMK_BLUEGENEQ
590     myip = skt_my_ip();        /* not thread safe, so only calls on rank 0 */
591     // fprintf(stderr, "[%d] IP is %d.%d.%d.%d\n", CmiMyPe(), myip.data[0],myip.data[1],myip.data[2],myip.data[3]);
592   #elif CMK_BPROC
593     myip = skt_innode_my_ip();
594   #else
595     if (!CmiMyPe())
596     CmiPrintf("CmiInitCPUTopology Warning: Can not get unique name for the compute nodes. \n");
597     _noip = 1; 
598   #endif
599     cpuTopo.numPes = CmiNumPes();
600   }
601
602   CmiNodeAllBarrier();
603   if (_noip) return; 
604
605     /* prepare a msg to send */
606   msg = (hostnameMsg *)CmiAlloc(sizeof(hostnameMsg)+sizeof(_procInfo));
607   CMI_ZC_MSGTYPE(msg) = CMK_REG_NO_ZC_MSG;
608   msg->n = 1;
609   msg->procs = (_procInfo*)((char*)msg + sizeof(hostnameMsg));
610   CmiSetHandler((char *)msg, CpvAccess(cpuTopoHandlerIdx));
611   msg->procs[0].pe = CmiMyPe();
612   msg->procs[0].ip = myip;
613   msg->procs[0].ncores = CmiNumCores();
614   msg->procs[0].rank = 0;
615   msg->procs[0].nodeID = 0;
616   CmiReduce(msg, sizeof(hostnameMsg)+sizeof(_procInfo), combineMessage);
617
618   // blocking here (wait for broadcast from PE0 to reach all PEs in this node)
619   while (topoInProgress) {
620     CsdSchedulePoll();
621     CmiLock(topoLock);
622     topoInProgress = done < CmiMyNodeSize();
623     CmiUnlock(topoLock);
624   }
625
626   if (CmiNumNodes() > 1) {
627     topoDoneMsg *msg2 = (topoDoneMsg *)CmiAlloc(sizeof(topoDoneMsg));
628     CMI_ZC_MSGTYPE(msg2) = CMK_REG_NO_ZC_MSG;
629     CmiSetHandler((char *)msg2, CpvAccess(topoDoneHandlerIdx));
630     CmiReduce(msg2, sizeof(topoDoneMsg), emptyReduction);
631     if ((CmiMyPe() == 0) || (CmiNumSpanTreeChildren(CmiMyPe()) > 0)) {
632       // wait until everyone else has topo info
633       topoInProgress = true;
634       while (topoInProgress) {
635         CsdSchedulePoll();
636         CmiLock(topoLock);
637         topoInProgress = topoDone < CmiMyNodeSize();
638         CmiUnlock(topoLock);
639       }
640     } else {
641       CmiLock(topoLock);
642       topoDone++;
643       CmiUnlock(topoLock);
644     }
645   }
646
647   if (CmiMyPe() == 0) {
648 #if CMK_BIGSIM_CHARM
649     if (BgNodeRank() == 0)
650 #endif
651       CmiPrintf("Charm++> cpu topology info is gathered in %.3f seconds.\n", CmiWallTimer()-startT);
652   }
653 #endif
654
655 #endif   /* __BIGSIM__ */
656
657   // now every one should have the node info
658   CcdRaiseCondition(CcdTOPOLOGY_AVAIL);      // call callbacks
659   if (CmiMyPe() == 0 && show_flag) cpuTopo.print();
660 }
661
662 #else           /* not supporting cpu topology */
663
664 extern "C" void LrtsInitCpuTopo(char **argv)
665 {
666   /* do nothing */
667   int obtain_flag = CmiGetArgFlagDesc(argv,"+obtain_cpu_topology",
668                                                 "obtain cpu topology info");
669   CmiGetArgFlagDesc(argv,"+skip_cpu_topology",
670                                "skip the processof getting cpu topology info");
671   CmiGetArgFlagDesc(argv,"+show_cpu_topology",
672                                            "Show cpu topology info");
673 }
674
675 #endif
676
677 extern "C" int CmiCpuTopologyEnabled()
678 {
679   return LrtsCpuTopoEnabled();
680 }
681 extern "C" int CmiPeOnSamePhysicalNode(int pe1, int pe2)
682 {
683   return LrtsPeOnSameNode(pe1, pe2);
684 }
685 extern "C" int CmiNumPhysicalNodes()
686 {
687   return LrtsNumNodes();
688 }
689 extern "C" int CmiNumPesOnPhysicalNode(int node)
690 {
691   return LrtsNodeSize(node);
692 }
693 extern "C" void CmiGetPesOnPhysicalNode(int node, int **pelist, int *num)
694 {
695   LrtsPeOnNode(node, pelist, num);
696 }
697 extern "C" int CmiPhysicalRank(int pe)
698 {
699   return LrtsRankOf(pe);
700 }
701 extern "C" int CmiPhysicalNodeID(int pe)
702 {
703   return LrtsNodeOf(pe);
704 }
705 extern "C" int CmiGetFirstPeOnPhysicalNode(int node)
706 {
707   return LrtsNodeFirst(node);
708 }
709 extern "C" void CmiInitCPUTopology(char **argv)
710 {
711   LrtsInitCpuTopo(argv);
712 }
713