<div dir="ltr"><div><div>The "old" way of debugging something like this is to create a ring-buffer in the binary which tracks the latest K events and then have a way to grab that ring buffer (UNIX Signal, etc). My bet is that you have some kind of deadlock situation which stems from an assumption about threads/mutexes in Erlang and how RTEMS implements the abstraction, leading to a leaky abstraction. A way to inspect the reduction counter could also be good to have.<br><br></div>In general, write down what you assume in the VM state and start sprinkling assertions in. The goal is to be scientific, so verify your assumptions. The bugs often lurk where your intuition is leading you astray and you take a giant leap of faith where minute details matter and turn out to be different from what you expect.<br><br></div>The VM can be built in several debug modes, but I'm not sure they verify the underlying fabric is as expected.<br></div><br><div class="gmail_quote"><div dir="ltr">On Tue, Feb 13, 2018 at 1:04 PM Sébastien Merle <<a href="mailto:s.merle@gmail.com">s.merle@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div><div><div>Hi,<br><br></div><div>We are working on GRiSP (<a href="http://grisp.org" target="_blank">grisp.org</a>) and we are porting the Erlang VM to PowerPC/RTEMS. Everything works fine with 19.3.6 without threading (<span class="m_-6233475827292664036gmail-blob-code-inner"><span class="m_-6233475827292664036gmail-pl-s">`--disable-threads`</span></span>). But with PLAIN or SMP build of either Erlang 19.3.6 or 20.2 we found a strange scheduling issue. Any hints and ideas on how to debug it would be so greatly appreciated! <br></div><br></div>We have a very simple project to test the issue, it has a single supervisor starting a `proc_lib` worker that stay in a busy loop after calling `proc_lib:init_ack` and a second worker that is a normal `gen_server` doing nothing. The symptom is that the supervisor starts the first worker and never get to start the second one, we never get to the Erlang console. When tracing the supervisor module (with `<span class="m_-6233475827292664036gmail-gr_ m_-6233475827292664036gmail-gr_2030 m_-6233475827292664036gmail-gr-alert m_-6233475827292664036gmail-gr_spell m_-6233475827292664036gmail-gr_inline_cards m_-6233475827292664036gmail-gr_run_anim m_-6233475827292664036gmail-ContextualSpelling" id="m_-6233475827292664036gmail-2030">dbg</span>`) we can see it "blocks" on `supervisor:do_start_child`, and when enabling verbose logging with the debug build we can see no processes gets started. This appends all the time, it is 100% reproducible.<br><br></div>What makes us think it is a scheduling issue is that adding `receive after 1 -> ok end` in the busy loop seems to fix the issue and properly start the second process and get us to the Erlang console.<br><br></div><div>Our port of the same code to ARM/RTEMS is working fine, we only have this issue on PowerPC.<br></div><div><br></div><div>We cannot use VM probes because we don't have DTrace on RTEMS, printing debug in `erl_process.c` is probably not a good idea and there is no clear place where to start debugging from with a hardware debugger.<br><br></div><div>Any guidelines, hints or ideas on how to debug this?<br><br></div><div>Thank you very much.<br><br></div><div>Regards,<br></div><div>Sebastien Merle.<br><br></div></div>
_______________________________________________<br>
erlang-questions mailing list<br>
<a href="mailto:erlang-questions@erlang.org" target="_blank">erlang-questions@erlang.org</a><br>
<a href="http://erlang.org/mailman/listinfo/erlang-questions" rel="noreferrer" target="_blank">http://erlang.org/mailman/listinfo/erlang-questions</a><br>
</blockquote></div>