<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40">
<head>
<meta http-equiv="Content-Type" content="text/html; charset=us-ascii">
<meta name="Generator" content="Microsoft Word 15 (filtered medium)">
<style><!--
/* Font Definitions */
@font-face
        {font-family:PMingLiU;
        panose-1:2 2 5 0 0 0 0 0 0 0;}
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
@font-face
        {font-family:"\@PMingLiU";
        panose-1:2 1 6 1 0 1 1 1 1 1;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:#0563C1;
        text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
        {mso-style-priority:99;
        color:#954F72;
        text-decoration:underline;}
span.EmailStyle17
        {mso-style-type:personal-compose;
        font-family:"Calibri",sans-serif;
        color:windowtext;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-family:"Calibri",sans-serif;}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]-->
</head>
<body lang="EN-US" link="#0563C1" vlink="#954F72">
<div class="WordSection1">
<p style="background:white"><b><span style="font-size:12.0pt;color:black">Apply to Participate in Virtual Office Hours for Biomechanical Modeling or Machine Learning Research Questions </span></b><span style="font-size:12.0pt;color:black"><o:p></o:p></span></p>
<p style="background:white"><i><span style="font-size:12.0pt;color:black">Application deadline: February 4, 2022, 5 PM local time </span></i><span style="font-size:12.0pt;color:black"><o:p></o:p></span></p>
<p style="background:white"><span style="font-size:12.0pt;color:black">We are pleased to announce we will be holding Virtual Office Hours on February 18-24, 2022, to support researchers working with wearable sensors, video technology, and other modalities in
 rehabilitation research. We will have two tracks: 1) Biomechanical modeling with <a href="https://opensim.stanford.edu/" target="_blank">OpenSim</a> and <a href="https://simtk-confluence.stanford.edu/display/OpenSim/OpenSense+-+Kinematics+with+IMU+Data" target="_blank">IMUs</a> or
 video, and 2) Machine learning, including video analysis. All phases of a research project are supported, such as formulating a research question, choosing and planning appropriate methods, and addressing issues with carrying out the study. We welcome and
 encourage individuals to apply as a team, if relevant. <a href="https://restore.stanford.edu/2022/01/11/apply-to-participate-in-virtual-office-hours-for-biomechanical-modeling-or-machine-learning-research-questions-4/" target="_blank">Learn more and apply</a> <o:p></o:p></span></p>
<p style="background:white"><span style="font-size:12.0pt;color:black"> <o:p></o:p></span></p>
<p style="background:white"><b><span style="font-size:12.0pt;color:black">Access Resources from Webinar - OpenSense: Analyzing Motion with Inertial Measurement Unit (IMU) Data</span></b><span style="font-size:12.0pt;color:black"> <o:p></o:p></span></p>
<p style="background:white"><span style="font-size:12.0pt;color:black">Thank you to everyone who joined us for the Mobilize and Restore Center webinar series featuring Carmichael Ong from Stanford University who presented “OpenSense: Analyzing Motion with Inertial
 Measurement Unit (IMU) Data". The recordings of the <a href="https://youtu.be/ewuvpB2QUf8" target="_blank">research presentation</a> and the <a href="https://youtu.be/qlyU-pgA1ec" target="_blank">tutorial</a> are now available on our YouTube channel. Read
 publication on <a href="https://pubs.rsna.org/doi/full/10.1148/ryai.2020190065" target="_blank">O</a><a href="https://www.biorxiv.org/content/10.1101/2021.07.01.450788v1" target="_blank">penSense</a> | Read publication on <a href="https://pubmed.ncbi.nlm.nih.gov/34383640/" target="_blank">an
 open-source and wearable system for measuring 3D human motion in real-time</a> | <a href="https://simtk-confluence.stanford.edu:8443/display/OpenSim/OpenSense+-+Kinematics+with+IMU+Data" target="_blank">Download OpenSense</a> | <a href="https://mobilize.stanford.edu/webinar-opensense-analyzing-motion-with-inertial-measurement-unit-imu-data/" target="_blank">See
 the full list of resources</a> <o:p></o:p></span></p>
<p style="background:white"><span style="font-size:12.0pt;color:black"> <o:p></o:p></span></p>
<p style="background:white"><b><span style="font-size:12.0pt;color:black">Multi-segment Foot Model Validated Using Biplanar Videoradiography</span></b><span style="font-size:12.0pt;color:black"> <o:p></o:p></span></p>
<p style="background:white"><span style="font-size:12.0pt;color:black">Past OpenSim Visiting Scholar Jayishni Maharaj and colleagues have developed a multi-segment foot model with seven degrees-of-freedom that results in more accurate kinematics than a conventional
 six-degree-of-freedom model. Comparisons were made against biplanar videoradiography measurements for walking and running. By utilizing joint constraints, the model also enables the quantification of motion in the subtalar joint.  A description of the model
 and its validation were published in <em><span style="font-family:"Calibri",sans-serif">Computer Methods in Biomechanics and Biomedical Engineering</span></em>. <a href="https://www.tandfonline.com/doi/abs/10.1080/10255842.2021.1968844" target="_blank">Read
 article</a> | <a href="https://simtk.org/projects/footankle_model" target="_blank">Download model</a> <o:p></o:p></span></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal"><b><span style="font-size:9.0pt;color:#A6A6A6">--<o:p></o:p></span></b></p>
<p class="MsoNormal"><b><span style="font-size:9.0pt;color:#767171">Joy P. Ku, PhD</span></b><span style="font-size:9.0pt;color:#767171"><o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:9.0pt;color:gray">Deputy Director | <a href="https://humanperformance.stanford.edu/">
<span style="color:gray">Wu Tsai Human Performance Alliance at Stanford</span></a>
<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:9.0pt;color:gray">Director of Education & Communications |
<a href="https://mobilize.stanford.edu/"><span style="color:gray">Mobilize Center</span></a> &
<a href="https://restore.stanford.edu/"><span style="color:gray">Restore Center</span></a>
<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:9.0pt;color:gray">Stanford University<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:9.0pt;color:gray"><o:p> </o:p></span></p>
<p class="MsoNormal"><span style="font-size:9.0pt;color:gray">650.736.8434 | joyku@stanford.edu<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:9.0pt;color:gray">Supporting open-source biocomputational resources |
</span><span style="font-size:9.0pt;color:gray"><a href="https://opensim.stanford.edu/"><span style="color:gray">OpenSim</span></a></span><span style="font-size:9.0pt;color:gray"> &
<a href="https://simtk.org/"><span style="color:gray">SimTK</span></a><o:p></o:p></span></p>
<p class="MsoNormal"><o:p> </o:p></p>
</div>
</body>
</html>