<html><head><meta http-equiv="Content-Type" content="text/html charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;" class="">Dear Mateusz,<div class=""><br class=""></div><div class="">No this is not available in the MPS codes and it is “buggy” in the other "no-monte carlo" codes.<div class=""><br class=""></div><div class="">We usually profit much more from a simple python script generating many individual jobs that then are submitted to the cluster via the usual batch system (Slurm, etc).</div><div class=""><br class=""></div><div class=""><br class=""></div><div class="">Best,</div><div class="">Michele</div><div class=""><br class=""><div class="">
<div style="color: rgb(0, 0, 0); font-family: Helvetica; font-style: normal; font-variant-ligatures: normal; font-variant-position: normal; font-variant-caps: normal; font-variant-numeric: normal; font-variant-alternates: normal; font-variant-east-asian: normal; font-weight: normal; letter-spacing: normal; line-height: normal; orphans: 2; text-align: -webkit-auto; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; -webkit-text-stroke-width: 0px; word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;" class=""><div class="">--</div><div class="">ETH Zurich</div><div class=""><span style="text-align: -webkit-auto;" class="">Dr.</span><span style="text-align: -webkit-auto;" class=""> </span>Michele Dolfi</div><div class="">Institute for Theoretical Physics</div><div class="">HIT G 32.4</div><div class="">Wolfgang-Pauli-Str. 27</div><div class="">8093 Zurich</div><div class="">Switzerland</div><div class=""><br class=""></div><div class=""><a href="mailto:dolfim@phys.ethz.ch" class="">dolfim@phys.ethz.ch</a></div><div class=""><a href="http://www.itp.phys.ethz.ch" class="">www.itp.phys.ethz.ch</a></div><div class=""><br class=""></div><div class="">+41 44 633 78 56 phone</div><div class="">+41 44 633 11 15 fax </div></div>
</div>
<br class=""><div><blockquote type="cite" class=""><div class="">On 6 Jan 2017, at 21:25, Mateusz Łącki <<a href="mailto:mateusz.lacki@gmail.com" class="">mateusz.lacki@gmail.com</a>> wrote:</div><br class="Apple-interchange-newline"><div class=""><div class="">Dear All<br class="">I would like to ask if there is a way to run mps_optim simulation with many tasks with MPI. I expect that the DMRG/MPS algorithms are perhaps parallelizable only by openMP, but if a input file contains many tasks then tasks could be executed in parallel, as they process independent input files, and write to independent output files.<br class=""><br class="">However it seems that this functionality is not implemented. Am I right?<br class=""><br class="">Best,<br class="">Mateusz Łącki<br class=""><br class="">----<br class="">Comp-phys-alps-users Mailing List for the ALPS Project<br class=""><a href="http://alps.comp-phys.org/" class="">http://alps.comp-phys.org/</a><br class=""><br class="">List info: https://lists.phys.ethz.ch//listinfo/comp-phys-alps-users<br class="">Archive: https://lists.phys.ethz.ch//pipermail/comp-phys-alps-users<br class=""><br class="">Unsubscribe by writing a mail to comp-phys-alps-users-leave@lists.phys.ethz.ch.</div></div></blockquote></div><br class=""></div></div></body></html>