<div dir="ltr"><div><br></div><div>Hi Everyone,</div><div>Chris will continue his presentation from a few weeks ago (see below.)<br></div><div><br></div><div>See you Friday at 11 in the Stat's classroom.</div><div><br></div><div>Regards,</div><div>sekhar<br></div><div><br></div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Aug 15, 2018 at 9:10 AM, Sekhar Tatikonda <span dir="ltr"><<a href="mailto:sekhar.tatikonda@yale.edu" target="_blank">sekhar.tatikonda@yale.edu</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br>Hi Folks,<br>This Friday Chris Harshaw will talk about:<br><br>"Submodularity Beyond Lattices: Matrices, Polynomials, Arbitrary Real Vector Spaces - Oh My!"<br><br>In the recent YPNG seminars, we've heard about submodular set functions and their "continuous"<br>counterparts defined on Rn.  In both discrete and continuous domains, these submodular functions<br>are characterized by a diminishing returns condition and admit efficient maximization algorithms.<br>However, the definitions of these functions heavily relied on an underlying lattice structure in the<br>domain. For many domains, such as matrices, polynomials, and function spaces, we can envision<br>a notion of diminishing returns, although there is not a clear choice of lattice. In this talk, we<br>introduce a broader notion of submodularity that extends to arbitrary real vector spaces. We<br>also give approximation algorithms for maximizing these nonconvex objectives. Finally, we<br>discuss potential applications in maximum likelihood estimation.<br><br>See you Friday at 11.<br><br>Regards,<br>sekhar<br></div>
</blockquote></div><br></div></div>