R. Blanquero, E. Carrizosa, C. Molero-Río, D. Romero Morales

Classic regression trees are defined by a set of orthogonal cuts, i.e., the branching rules are of the form variable X not lower than threshold c. Oblique cuts, with at least two variables, have also been proposed, leading to generally more accurate and smaller-sized trees. The variables and thresholds are selected by a greedy procedure. The use of a greedy strategy yields low computational cost, but may lead to myopic decisions. The latest advances in Optimization techniques have motivated further research on procedures to build optimal regression trees. In this talk, we propose a continuous optimization approach to tackle this problem. This is achieved by including a cumulative density function that will indicate the path to be followed inside the tree, yielding a random implementation of the cuts. In contrast to classic regression trees, our formulation is flexible enough since sparsity or performance guarantee in a subsample could be easily included.

Palabras clave: Classification and Regression Trees; Optimal Decision Trees; Nonlinear Programming

Programado

AM-2 Análisis Multivariante
4 de septiembre de 2019  14:45
I3L8. Edificio Georgina Blanes


Otros trabajos en la misma sesión


Últimas noticias

Política de cookies

Usamos cookies solamente para poder idenfiticarte y autenticarte dentro del sitio web. Son necesarias para el correcto funcionamiento del mismo y por tanto no pueden ser desactivadas. Si continúas navegando estás dando tu consentimiento para su aceptación, así como la de nuestra Política de Privacidad.

Adicionalmente, utilizamos Google Analytics para analizar el tráfico del sitio web. Ellos almacenan cookies también, y puedes aceptarlas o rechazarlas en los botones de más abajo.

Aquí puedes ver más detalles de nuestra Política de Cookies y nuestra Política de Privacidad.