Charla de Borrachos

Charlas Pasadas

Título: ¿Paul McCartney es un impostor?

Introducción al Reconocimiento Forense de Hablantes. (bajar pdf)

Disertante: Miguel Martínez Soler

Fecha: Jueves 22 de Agosto de 2013

Cita: Aula 3 Pab I 19 hs

Resumen:
Según la leyenda urbana, Paul McCartney murió en un accidente automovilístico el 9 de noviembre de 1966 y fue reemplazado por un doble. ¿Podemos verificar esta teoría comparando grabaciones de Paul antes y después de esa fecha?

Suponemos que debe haber un patrón en la voz de las personas que nos permite reconocerlas; una especie de impresión digital del habla. Pero, ¿estamos seguros de que estos patrones distinguen inequívocamente a las personas? ¿Podemos asegurar que éstos se mantienen inalterables en las diferentes condiciones en las que se encuentra el hablante, como ruido ambiental, estados emocionales o estilos de habla?

No comprender a fondo este problema puede llevar a encarcelar inocentes, liberar culpables... o "matar" Beatles.


Título: A quienes les gustó esta charla también les gustó ...

Cómo los Sistemas de Recomendación revolucionaron la industria del comercio electrónico. (bajar pdf)

Disertante: Ernesto M. Mislej

Fecha: Jueves 27 de Junio de 2013

Cita: Aula 3 Pab I 19 hs

Resumen:
¿Te preguntaste cómo hace Amazon para recomendarte libros y otros productos? ¿O Netflix para sugerirte nuevas películas o series? ¿Sabías que las ventas a través de recomendaciones superan en varios órdenes de magnitud a las ventas por "top sellers"?

Sistemas de Recomendación es la disciplina derivada del Data Mining que se enfoca en el diseño de filtros personalizados sobre el catálogo de ítems que sean del gusto o del interés del usuario. Para tal fin se utiliza la historia de calificaciones realizada por el usuario y por la comunidad de usuarios.

A los sectores más populares como Video-on-Demand, Contenido Digital y eCommerce se le han sumado recomendación de espectáculos, restaurantes, noticias, gente para conocer, chistes y hasta nombres de bebés.

Daremos un repaso por los hitos más importantes de esta emergente área. Contaremos cuáles son y cómo funcionan las principales técnicas. Charlaremos sobre la problemática actual, tendencias y desafíos.

Y sentaremos las bases para armar un sistema de recomendación de vinos.


Título: ¿Me escuchás bien? ¡Fuerte y claro!

Cómo lograr que las computadoras hablen mejor. (bajar pdf)

Disertante: Christian G. Cossio Mercado

Fecha: Jueves 6 de Junio de 2013

Cita: Aula 3 Pab I 19 hs

Resumen:
Aunque es una acción automática, cuando escuchamos una voz se ejecutan varios procesos físicos, químicos, eléctricos y cognitivos en nuestro cuerpo.

Resulta interesante saber cómo es la percepción humana de la voz, no sólo para poder resolver problemas clínicos de audición, sino también para hacer mejores sistemas que reconozcan lo que decimos y generen habla natural y agradable.

En esta charla veremos algo sobre cómo escuchamos lo que oímos, y cómo eso nos puede servir para hacer computadoras que hablen mejor. En particular interesará saber cómo podríamos hacer que una computadora emule parte de la percepción humana para evaluar en forma automática a sistemas de conversión de texto a habla (TTS, del inglés Text-to-Speech), y darles feedback para que puedan mejorar su calidad.


Título: Sube a mi voiture y conéctate a mi red! (bajar pdf)

Disertante: Lautaro Dolberg

Fecha: Viernes 23 de Noviembre de 2012

Cita: Aula 8 Pab I 16 hs

Resumen:
Las redes vehiculares se conforman a partir de autos en movimiento como nodos. Súper dinámicas, en movimiento y con un area de cobertura muy extensa prometen resultados muy prácticos. Las aplicaciones van desde optimización del traáico en autopistas y escenarios urbanos, mejoras de la seguridad vial hasta estrategias de marketing súper localizadas.

Nos preguntamos cómo a partir del flujo de una masa de autos en movimiento, entrando y saliendo de una ciudad o autopista pueden garantizarnos mejor seguridad vial, evitar embotellamientos y ahorrar combustible. Quiénes son partícipes de estas redes? Partiendo desde sus orígenes y llegando hasta los últimos avances, en esta charla les contaré cómo funcionan las redes vehiculares, algunas aplicaciones exitosas en diferentes lugares del mundo y las problemáticas actuales que existen.

Esta tecnología se viene con toda, desde sistemas embebidos que funcionan integrados con el auto hasta aplicaciones en smartphones. Haciendo foco en seguridad informática les contaré las problemáticas puntuales que intentamos resolver, tratando de hacer protocolos más seguros y buscando huecos de seguridad en las aplicaciones existentes.


Título: ¿Cuán dificil es distinguir a Bach de Mozart? (bajar pdf)

Disertante: Pablo Rodriguez Zivic

Fecha: Viernes 9 de Noviembre de 2012

Cita: Aula 8 Pab I 16 hs

Resumen:
La música con el tiempo cambia. Se inventan instrumentos nuevos, técnicas compositivas y el lenguaje musical evoluciona. Ahora, ¿Podemos medirlo? En esta charla presento cómo estadisticas sencillas dan lugar a patrones característicos de los períodos más grandes - y estudiados - de la historia de la música. Como es de esperarse, estos patrones se encuentran ocultos en los datos, por lo que es necesario recurrir a técnicas avanzadas para reconocerlos.
Por último, dado que la música es algo construido por nosotros, los seres humanos, ¿podemos utilizar estas estadísticas para especular respecto a la forma en la que la percibimos?


Título: Llegando al límite de la normalidad (bajar pdf)

Disertante: Pablo Heiber

Fecha: Viernes 26 de Octubre de 2012

Cita: Aula 8 Pab I 16 hs

Resumen:
En esta charla estudiamos la relación entre la normalidad de secuencias y compresibilidad de las mismas. O sea, buscamos la relación entre el el azar estadístico y el azar informacional. Es decir, estudiamos como varía la entropía segun la definición de computabilidad. Dicho de otra manera, medimos la frecuencia de aparición de una palabra respecto de la memoria necesaria para detectarla. Resumiendo, tendemos un puente entre la teoría de información y la teoría de autómatas, pasando por la computabilidad y los métodos de compresión.
Para entender todo esto, no queda otra que escuchar la charla o leerse varias decenas de citas bibliograficas.


Título: Sistemas embebidos: del Apollo 11 al iPhone 5 (bajar pdf)

Disertante: Sol Pedre

Fecha: Viernes 12 de Octubre de 2012

Cita: Aula 8 Pab I 16 hs

Resumen:
 Un sistema embebido es un sistema diseñado para cumplir una o pocas funciones dedicadas y que está embebido como parte de algún dispositivo de hardware completo. Hoy en dia el 99% de los procesadores van a parar a estos sistemas: son el cerebro de casi todos los dispositivos electrónicos, desde juguetes hasta el control de plantas nucleares.
 ¿Qué tipo de elementos programables se utilizan y cómo se programan? ¿Qué es una FPGA, un DSP, un microcontrolador? ¿Cómo interactúa el hardware con el software? Charlaremos sobre estos temas mostrando desarrollos concretos del Laboratorio de Robótica y Sistemas Emebebidos del DC: robots, procesamiento de imágenes para UAVs, criptografía y mucho mas!


Título: Sistemas polares: Cómo hacer ciencia en la Antártida (bajar pdf)

Disertante: Sebastián Galimberti

Fecha: Viernes 28 de Septiembre de 2012

Cita: Aula 8 Pab I 16 hs

Resumen:
La Antártida es un continente reservado a la paz y la ciencia. La flora y la fauna evolucionaron aisladas de la humanidad durante millones de años, generando un escenario complejo en el que biólogos, geólogos, paleontólogos (entre otras disciplinas) buscan develar sus secretos. Esto último, en combinación con el clima extremo, determina un desafío inigualable para los más aventureros: la exploración científica de la última masa continental virgen en el planeta. En esta charla les contaré como podemos hacer los estudiantes de computación para vivir una experiencia extrema, qué trabajos se están haciendo en el continente blanco y qué nos depara el futuro.


Título: Desde la computación hacia el cáncer

Disertante: Nahuel Olaiz

Fecha: Viernes 14 de Septiembre de 2012

Cita: Aula 8 Pab I 16 hs

Resumen:
El cáncer es, tanto en nuestro país como en el mundo, la segunda causa de muerte por enfermedad. Es por esto necesario continuar con la búsqueda de alternativas más eficaces, seguras y económicamente viables. En el LSC estudiamos la electroterapia (ET), basada en la idea de complementar la quimioterapia, inmunoterapia o terapia génica con la aplicación local de campos eléctricos en tumores sólidos con el objeto de favorecer el transporte del agente terapéutico hacia el interior del tumor y/o la célula tumoral. En el LSC aportamos al conocimiento en electroterapia (ET) utilizado modelos matemáticos y modelos experimentales, de este modo brindamos información más precisa para estas terapias. ET incluye al tratamiento electroquímico de tumores (EChT), electroquimioterapia (ECT) y campo eléctrico (Efs). Presentaré algunos de los resultados del estudio interdisciplinario que realizamos mediante la formulación de modelos in silico o matemático-computacionales, y su validación con modelos experimentales (in vivo e in vitro).


Título: Apagá la tele, prendé la compu: análisis automático de video

Disertante: Francisco Gómez

Fecha: Viernes 29 de Junio de 2012

Cita: Aula 2 Pab I 16 hs

Resumen:
¿Quién se gasta en escribir una descripción cuando sube un video a Youtube? ¿No estaría bueno que alguien (o algo) lo haga por uno?... Poder entender y describir automáticamente un video mediante una computadora es una tarea muy compleja y delicada. Grandes avances se han hecho en el área del análisis semántico de video y, hoy en día, es posible realizar de forma automática un resumen de un partido de fútbol, analizar el flujo de tránsito en una autopista, detectar intrusos en cámara de vigilancia, etc. El movimiento de los objetos presentes en un video es una pista clave para poder entender su contenido y crear video-interacción en tiempo real, realidad aumentada o edición de video “a lo CQC”. El objetivo de esta charla es presentar cuáles son los problemas habituales con los que se tiene que lidiar a la hora de analizar un video y poder interpretarlo automáticamente.


Título: Cuando el perro de Pavlov se robotizó: aprendizaje por refuerzos en psicología, robótica, neurociencias y juegos de Atari (bajar pdf)

Disertante: Carlos "Greg" Diuk

Fecha: Viernes 15 de Junio de 2012

Cita: Aula 2 Pab I 16 hs

Resumen:
El "aprendizaje por refuerzos" es el problema que se le presenta a un "agente" (persona, robot o rata) que se encuentra en un ambiente desconocido que le ofrece recompensas y castigos, y debe aprender a actuar de forma de maximizar el beneficio recibido. Allá por los 1890s Iván Pavlov notó que si hacía sonar una campanita antes de darle un churrasco a su perro, pronto el perro comenzaba a salivar con sólo oír una campana. Esto dió lugar a las primeras teorías modernas de aprendizaje que, aunque hoy sabemos que están bastante mal, dieron lugar 100 años más tarde al nacimiento de una rama de la Inteligencia Artificial llamado Aprendizaje por Refuerzos (AR). Luego de ciertos éxitos y no-tan-éxitos en áreas como los juegos y la robótica, en 1997 se descubrieron mecanismos de AR en el cerebro humano y animal que dieron lugar a una mini-revolución en las neurociencias del aprendizaje y la toma de decisiones. En esta charla vamos a ir siguiendo esta historia para entender de qué se trata AR, qué cosas se pueden hacer y cuáles no, y cómo se relacionan exactamente el perro de Pavlov, el backgammon, los juegos de Atari y tu cerebro.


Título: Algo sobre visión en robótica o ¿Cómo diablos ve Wall-e?(bajar pdf)

Disertante: Pablo de Cristóforis

Fecha: Viernes 1ro de Junio de 2012

Cita: Aula 2 Pab I 16 hs

Resumen:
Los robots día a día ganan más espacio entre nuestras vidas. Para recolectar información del ambiente necesitan de los sentidos igual que los humanos o tantos otros animales. En el mundo de la electrónica los llamamos sensores y los hay de muy diverso tipo. En esta charla vamos a concentrarnos en explicar cómo pueden utilizarse las cámaras como sensores de visión para robots móviles. Veremos cómo es posible procesar toda la imformación provista por las imágenes para que el robot pueda construir un modelo del ambiente y así interactuar en el mismo. Diversos métodos que utilizan una, dos o más cámaras se han desarrollado para alcanzar la navegación autónoma en robots móviles. En esta charla vamos a mostrar un poco de lo que estamos haciendo en el Laboratorio de Robótica y Sistemas Embebidos del DC, donde utilizamos visión en robots terrestres y voladores.


Título: Ingeniería de software para vagos: verificando software según la ley del menor esfuerzo (bajar pdf)

Disertante: Esteban Pavese

Fecha: Viernes 18 de Mayo de 2012

Cita: Aula 2 Pab I 16 hs

Resumen:
¿A quién no le tocó en el secundario la profe de Literatura que te hacía leer novelas interminables de Tolstoi o dramones de Dickens? Y la solución era siempre la misma...¡tomar la vía rápida viendo la película! Verificar software buscando errores -- aún cuando la computadora nos ayuda -- puede ser igual de aburrido que leer uno de estos libracos. Hay que analizar miles de millones de configuraciones posibles de un sistema, ejercitar todas sus posibles entradas en distinto orden... ¿No podremos tener la "versión película" de la verificación y ahorrarnos tanto esfuerzo? En esta charla voy a contarles como intentamos "dirigir" la película de la verificación de software y, también, por qué no es lo mismo ser dirigidos por Francis Ford Coppola que por Ed Wood...


Título: Curso acelerado de buenos modales (bajar pdf)

Disertante: Facundo Carreiro

Fecha: Viernes 4 de Mayo de 2012

Cita: Aula 2 Pab I 16 hs

Resumen:
Desde la antigua Grecia hasta ahora, la Lógica viene jugando un rol muy importante en diversas áreas del conocimiento. En esta charla voy a concentrarme, más que nada, en una rama de la lógica llamada Lógica Modal y voy a contarles (de manera muy informal y general) motivaciones y aplicaciones en filosofía, computación y matemática. Si el tiempo lo permite, veremos cómo la lógica se mezcla con: paradojas, linguística computacional, análisis de programas y sistemas, derecho, teoría de juegos, teoría de conjuntos y mucho más! Para cerrar, les presentaré el Santo Grial de la teoría de argumentación: el método infalible para convencer a cualquier persona de que haga lo que vos quieras!


Título: IMAGENES SATELITALES: ¿qué ves cuando me ves?

Disertante: Daniel Acevedo

Fecha: Viernes 20 de Abril de 2012

Cita: Aula 2 Pab I 16 hs

Resumen:
Las imágenes satelitales atraen la atención para la investigación desde múltiples puntos de vista, ya sea desde su adquisición, pasando por su análisis y hasta su almacenamiento. ¿Desde dónde y cómo se obtienen éstas imágenes? ¿Qué tipos de imágenes satelitales hay y qué las diferencian? ¿Qué aplicaciones tienen? ¿Por qué sirven para ver lo que el ojo humano no puede ver? ¿Es cierto que se las utilizaron para 'capturar' a Bin Laden? En esta charla discutiremos todos estos aspectos y también por qué es necesario un almacenamiento eficiente de las mismas, presentando algunos algoritmos de compresión.


Título: Lenguajes formales vs no tan formales ó James Bond vs The dude: ¿Cuál es el mejor look para especificar requerimientos? (bajar pdf)

Disertante: Fernando Asteasuain

Fecha: Viernes 30 de Marzo de 2012

Cita: Aula 2 Pab I 16 hs

Resumen:
¿De qué hablamos cuando hablamos de especificar requerimientos?

¿Qué significa describir el comportamiento de un sistema?

¿Es necesario aplicar lenguajes formales?

¿Es tan imposible usar notaciones informales?

¿Especificar puede llegar a ser formal y fácil al mismo tiempo?

¿Puedo escapar de las lógicas temporales?


Título: ¿Ud. cree en Internet Mendieta? -Controlar o reventar, don Inodoro. Modelos y simuladores en tiempo real para control de performance en redes de datos (bajar pdf)

Disertante: Lic. Rodrigo Castro

Fecha: Viernes 16 de Diciembre de 2011

Cita: Aula 3 Pab I a las 12:30 (puntual)

Resumen:
Internet es la pieza de ingeniería a gran escala más exitosa desde la invención de la computadora digital. Durante 40 años incrementó su población en aproximadamente 7 órdenes de magnitud, escalando con una robustez sorprendente. Gran parte del éxito se debe a la aplicación simultánea de diversos principios de control distribuido, provenientes de distintas disciplinas, para el control de performance de flujos de paquetes.

Sin embargo, debido la enorme magnitud del "sistema real", es cada vez más difícil innovar para proveer mejor performance y calidad de servicio. Las nuevas estrategias de control se enfrentan con problemas de credibilidad: los algoritmos no pueden verificarse a la escala requerida, provienen de comunidades heterogéneas y se enfrentan con plataformas de cómputo demasiado específicas y en constante cambio.

En esta charla presentaremos nuevas herramientas teórico-prácticas para control de tráfico de redes basadas en modelado y simulación en tiempo real. Presentaremos una metodología integradora que permite el diseño y verificación de controladores a tiempo discreto, a eventos discretos y/o continuos simultáneamente. La metodología basada en el formalismo de modelado DEVS permite integrar sistemas complejos eligiendo el modo de representación más conveniente para cada subsistema.

Veremos el diseño de controladores a distintos niveles de granularidad y su implementación final en hardware a tiempo real sin necesidad de recodificarlos para cada tecnología particular. Las nuevas herramientas permiten modelar flujos híbridos de tráfico, combinando la eficiencia computacional de una aproximación fluída con la ventaja del detalle granular de una simulación discreta, bajo un formalismo matemático unificado.

Los resultados obtenidos tienen por objetivo ofrecer un marco teórico-práctico basado en modelado y simulación que promueva la investigación interdisciplinar entre las comunidades de Teoría de Control, Redes de Datos e Ingeniería de Software.


Neuro-robótica: neurociencia, redes neuronales artificiales y robótica humanoide. ¿Ficción o futuro? (bajar pps)

Disertante: Dra. Rosana Matuk

Fecha: Viernes 25 de Noviembre de 2011

Cita: Aula 3 Pab I a las 15:30 (puntual)

Resumen:
Los robots actuales son muy hábiles en ambientes controlados, como en las fábricas de montaje de automóviles. Sin embargo, fuera de las fábricas y de los laboratorios de investigación, el ambiente es desconocido y cambiante, y niños de pocos años pueden llegar a superar ampliamente la habilidad de los robots actuales más avanzados.

Dada la habilidad de los humanos para adaptarnos a ambientes desconocidos y cambiantes, ¿podemos inspirarnos en la neurociencia para hacer robots que sean hábiles en ambientes no controlados? ¿Podemos diseñar sistemas computacionales de visión basados en el cerebro, para que los robots puedan ver, como los humanos? ¿Podemos inspirarnos en la neurociencia, y desarrollar arquitecturas de control basadas en el cerebro humano (o de los primates), para construir sistemas cognitivos autónomos? ¿Puede la neurociencia guiarnos en el diseño de arquitecturas de control para la manipulación robótica diestra en ambientes desconocidos? ¿Podemos utilizar las redes neuronales artificiales para hacer el enlace entre la neurocienca y la robótica humanoide?

En esta charla discutiremos algunos problemas "calientes" actualmenteen neuro-robótica y robótica humanoide.


¿De qué hablamos cuando hablamos de información?

Disertante: Lic. Pablo Heiber

Fecha: Viernes 11 de Noviembre de 2011

Cita: Aula 3 Pab I a las 15:30 (puntual)

Resumen:
Desde las primeras clases de computación, mucho antes de la universidad, se nos plantea la disciplina como una manipulación de información. El concepto de dato o de información relevante es central, puesto que representa tanto lo que entra como lo que sale de una computadora.

Cuando empezamos a abrir esa caja negra, nos encontramos con más versiones de lo mismo. En formas tan abstractas como funciones o tan concretas como discos rígidos, nos ocupamos de transmitir, almacenar, contabilizar, ordenar, representar y transformar información. Sin embargo, la propia definición del concepto trae aparejados muchos problemas y varía según el contexto.

En esta charla presentaremos una introducción a las dificultades para definir qué es la información y algunas formalizaciones existentes que gozaron de éxito y aceptación. Mezclando teoría de la información, estructuras de datos, compresión y computabilidad, relacionaremos varios abordajes que se han dado al problema de representar la información y la filosofía detrás de cada una. Finalmente, presentaremos algunos intentos novedosos que hemos llevado adelante para acercar las visiones de los distintos campos.!


Automatización del Gallo Mecánico (bajar pdf)

Disertante: Lic. Beta Ziliani

Fecha: Martes 1 de Noviembre de 2011

Cita: Aula 9 Pab I a las 15:30 (puntual)

Resumen:
Los demostradores de teoremas son programas que verifican nuestras pruebas, sin permitir que una prueba errónea pase por válida. Su uso es creciente, en particular para construir pruebas complejas; pruebas que ninguna persona (estudiante, supervisor, o reviewer) quiere realmente verificar.

Presentaré el demostrador de teoremas más exitoso: Coq. A pesar de los años de continuo desarrollo que tiene, automatizar pruebas en Coq sigue siendo un desafío (por no decir, un dolor de cabeza), dado a que no es posible especificar las rutinas de automatización. Junto a mis colaboradores, hemos propuesto una nueva forma de automatizar pruebas que evita estos problemas e, incluso, funciona en Coq "out-of-the-box". Nuestro resultado consiste en dar el siguiente paso en la correspondencia de Curry-Howard, incluyendo overloading à la Type Classes de Haskell. No te preocupes, no se asume conocimiento de nada de esto!

En esta charla voy a dar una breve introducción a Coq y al resultado principal de nuestro trabajo.


El complejo de los grafos (bajar pdf)

Disertante: Dra. Flavia Bonomo

Fecha: Viernes 14 de Octubre de 2011

Cita: Aula 3 Pab I a las 15:30 (puntual)

Resumen:
Qué hay detrás de las redes sociales? De internet? De la interacción entre proteinas o neuronas? De las asociaciones de ideas? Sí! Grafos!

En esta charla vamos a ver algunas características comunes de este tipo de grafos que se conocen como "redes complejas" y que, aunque no en un diván, también son analizados por pscicólogos y neurocientíficos.


Música, computación y neurociencia, pura dinamita (bajar pdf)

Disertante: Lic. Pablo Hernán Rodriguez Zivic

Fecha: Viernes 23 de Septiembre de 2011

Cita: Aula 3 Pab I a las 15:30 (puntual)

Resumen:
La existencia de la música es un universal en todas las culturas. Como es de esperarse, esto despierta una interrogante, fácil en su formulación, y en principio para nada evidente su en resolución: ¿Por qué?

Si bien no hay una respuesta contundente a esta pregunta, en el camino se han encontrado relaciones entre la cognición de ciertos atributos musicales y la de otras funciones cognitivas. El lenguaje, la motricidad, las emociones y la memoria son ejemplos de estos vínculos.

En esta charla se hará un breve resumen de algunas de estas relaciones, y acerca de cómo se pueden utilizar técnicas de aprendizaje automático como medio para validar hipótesis.


GridMatrix, Calidad, Servicio y LIR (abrir svg)

Disertante: Lic. David González Márquez

Fecha: Viernes 9 de Septiembre de 2011

Cita: Aula 3 Pab I a las 15:30 (puntual)

Resumen:
Grid Computing se estableció como un nuevo paradigma en la computación de alto rendimiento, proveyendo la infraestructura para compartir grandes cantidades de recursos geográficamente distribuidos de forma transparente. Para utilizar eficientemente estos recursos es necesario conocer su estado y disponibilidad. En un escenario en el que una gran cantidad de recursos se vuelvan disponibles o se deshabiliten dinámicamente, es impensable la administración manual y es necesaria la automatización de la distribución del estado de los recursos disponibles en cada momento de la manera más eficiente posible.

En esta charla presentaremos GridMatrix2 una herramienta que provee un entorno de ejecución para estudiar políticas de distribución de información de recursos en entornos Grid, buscando recrear escenarios de miles y, eventualmente, millones de recursos a administrar.

Esta herramienta permite generar distintas topologías de red y configuraciones para nuestros experimentos, permitiendo la creación de una amplia gama de combinaciones de parámetros, tanto para la generación de redes, como para la configuración de simulaciones.

Los resultados que se obtienen en el uso de esta herramienta permiten conocer y estudiar la relación entre políticas de distribución, su configuración y la topología de la red subyacente.


AC/DC en vivo (bajar pdf)

Disertante: Dr. Pablo Turjanski

Fecha: Viernes 8 de Julio de 2011

Cita: Aula 8 Pab I a las 15:30 (puntual)

Resumen:
El cáncer es una de las primeras causas de muerte por enfermedad en el mundo y su incidencia sigue creciendo con el aumento de la contaminación y la expectativa de vida. A pesar de los grandes avances científicos logrados en la lucha contra esta enfermedad, aun es necesario buscar soluciones más integrales, económicas y con menos efectos secundarios adversos que las terapias tradicionales.

En esta charla vamos a hablar acerca del uso de campos eléctricos para la eliminación de tumores sólidos, lo que podría representar una alternativa o enfoque complementario a la cirugía, la radio o la quimioterapia. En particular, hablaremos del tratamiento electroquímico de tumores (EChT) y la electroporación reversible (ECT).

Algunas ventajas del EChT y de la ECT son su simplicidad, efectividad, bajo costo y efectos secundarios mínimos. Quedan aun muchos interrogantes por develar sobre los mecanismos fundamentales de la interacción de los campos eléctricos con los tejidos vivos. Para lograr dicho objetivo, presentaré algunos de los resultados del estudio interdisciplinario que realizamos mediante la formulación de modelos in silico o matemático-computacionales, y su validación con modelos experimentales (in vivo e in vitro).


El secreto de tus ojos

Disertante: Lic. Marcelo Mottalli

Fecha: Viernes 10 de Junio de 2011

Cita: Aula 8 Pab I a las 15:30 (puntual)

Resumen:
El reconocimiento de personas mediante el análisis de la textura del iris es aceptado en la actualidad como uno de los métodos más eficientes para la identificación. A diferencia de la identificación por huellas digitales (el método más común) el reconocimiento por iris presenta muchas ventajas, como no requerir contacto físico con el dispositivo de captura y una altísima confiabilidad.

En esta charla vamos a dar una introducción a las técnicas computacionales que permiten usar la textura del iris para la identificación y vamos a presentar el sistema desarrollado en la Facultad.

¡Hay demo incluída!


Como censar 5.581.761 viviendas en un día y no morir en el intento

Disertante: Lic. Diego Delle Donne

Fecha: Viernes 20 de Mayo de 2011

Cita: Aula 8 a las 15:30 (puntual)

Resumen:
El Censo Nacional 2010 en Argentina involucró el relevamiento de todos los hogares del país y, como parte de la planificación del censo, se tuvo que determinar qué hogares debía visitar cada censista.
A este problema se lo conoce como problema de segmentación de viviendas y existen ciertas restricciones reglamentarias que hacen que el mismo sea un problema dificil de resolver.
En esta charla presentaremos una aplicación de técnicas basadas en programación lineal entera que se utilizó para realizar el proceso de segmentación en la Provincia de Buenos Aires, que es la provincia con mayor población y superficie de Argentina.


2011 - Odisea en el Ciberespacio (bajar pdf)

Disertante: Dr. Diego Fernández Slezak

Fecha: Viernes 6 de Mayo de 2011

Cita: Aula 8 a las 15:30 (puntual)

Resumen:
El cerebro humano está compuesto por aproximadamente 100.000 millones de neuronas y 300.000.000 millones de sinapsis. Con estos números no parece gran sorpresa que el cerebro pueda resolver problemas fácilmente, que las computadoras no pueden ni empezar a encarar. Cualquier persona puede detectar perfectamente emociones al observar un rasgo facial en una breve fracción de segundo. Esta extraordinaria eficiencia contrasta con la incapacidad de reportar el algoritmo utilizado; mucho menos implementar un código que lo automatice. Con la digitalización masiva y la generación de repositorios digitales se abre una nueva oportunidad única para el estudio de la cognición humana. En esta charla mostraremos cómo puede utilizarse el tiempo invertido en internet como un vehículo para descifrar reglas generativas del pensamiento humano.


Con ustedes... el fabuloso hombre TACO

Disertante: Dr. Juan Pablo Galeotti

Fecha: Viernes 8 de abril de 2011

Cita: Aula 2 a las 15:35 (puntual)

Resumen:
TACO (Translation of Annotated COde) es una herramienta de análisis de programas desarrollada en el Departamento de Computación por estudiantes y docentes de nuestra carrera. TACO permite analizar automáticamente programas versus su especificación usando una técnica conocida como "verificación acotada": aunque no es capaz de encontrar todos los errores que pueden existir, encuentra todos los errores que se puedan hallar dentro de una cota limitada. En esta charla mostraremos como podemos usar TACO para encontrar fallas en un programa, cuáles son los fundamentos sobre los que funciona esta herramienta y cuáles son los planes que tenemos para extender sus capacidades.


Una imagen vale más que mil fórmulas

Disertante: Lic. Guido de Caso

Fecha: Viernes 10 de diciembre de 2010

Cita: Aula 2 a las 15:35 (puntual)

Resumen:
Cada vez estamos más rodeados de artefactos de software que impactan directa o indirectamente en nuestra vida cotidiana. El incorrecto funcionamiento de estos artefactos puede ocasionar pérdidas que van desde dolores de cabeza multitudinarios hasta pérdidas irreparables. La verificación formal y el testing demostraron ser herramientas de suma utilidad, sin embargo seguimos encontrándonos con errores en el software que consumimos. La técnica de validación por excelencia es la revisión de código, pero es excesivamente costosa de aplicar en gran escala. En esta charla veremos una técnica de validación visual que, mediante abstracción y síntesis de modelos de comportamiento, permite descubrir problemas en artefactos de software de un vistazo.


¿Por qué no habla mi computadora (todavía)?

Disertante: Lic. Agustín Gravano

Fecha: Viernes 3 de diciembre de 2010

Cita: Aula 2 a las 14:45 (puntual)

Resumen:
Las últimas décadas han mostrado avances tecnológicos sorprendentes, modificando de raíz nuestros estilos de vida. Sin embargo, llama la atención que las computadoras capaces de dialogar con seres humanos siguen existiendo sólo en la Ciencia Ficción, a pesar de décadas de investigación y de todas las aplicaciones comerciales que tendrían. En esta charla voy a contarles cuáles son los principales obstáculos del área del procesamiento del habla, así como los avances recientes y las perspectivas para el futuro.


Modelos, juegos y... Síntesis de controladores!

Disertante: Nicolas D'Ippolito

Fecha: Viernes 19 de noviembre de 2010

Cita: Aula 4 (Pab. 1) a las 15:30 (puntual)

Resumen:
Los modelos y la teoría de juegos no están únicamente relacionados con los casinos y las chicas con vestidos feos y cortitos.

Los modelos se usan para capturar diferentes aspectos del software. En esta charla vamos a concentrarnos en los modelos que describen parte del comportamiento dinámico de los sistemas. Utilizando modelos de comportamiento es posible capturar la interacción entre un sistema y el entorno en el que este se desenvuelve. Los sistemas tienen objetivos que viven en el mundo real, por lo tanto, deben cumplir sus objetivos teniendo en cuenta la interaccion con su entorno.

Entonces, la síntesis de controladores no es ni más ni menos que la generación automática de modelos de comportamiento de modo que, teniendo en cuenta la forma en la que interactua con el entorno, se satisfagan sus objetivos.

En esta charla vamos a contarles un poco de que se trata esto y como aplicamos estas tecnicas a diversos dominios: control de robots, composicion de web-services, arquitecturas self- adative, sistemas autonomos, y muchos muchos mas!


Un patrón de percepción.

Disertante: Andrés Valloud

Fecha: Jueves 24 de mayo de 2007

Cita: Aula 10 (Pab. 1) a las 15:30 (puntual)

Resumen:
El patron (o pattern) describe como construir un modelo explicito acerca de como occurre la interaccion entre un observador y su medio ambiente.  El patron es particularmente util en situaciones en las cuales hay un sistema complejo y un observador interactuando con el.

Un ejemplo de sistema complejo (o espacio de informacion) es un juego.  Un programa que juega es un ejemplo de observador.  Un compilador con estrategias de compilacion dinamicas, observando las caracteristicas de ejecucion de un programa con el objetivo de aumentar la eficiencia del programa en cuestion es otro ejemplo.

Sin un observador, el espacio de informacion es simplemente un cuerpo amorfo.  El observador, siguiendo una secuencia de percepcion, procesamiento y accion, es capaz de darle sentido a su medio ambiente.  El procesamiento se basa en individualizar distinciones que representen datos relevantes a los objetivos del observador.  Estas distinciones se evaluan mediante una estrategia que decide que clase de objetivos locales satisfacer.  Los objetivos se usan para elegir la accion mas beneficiosa.  Las acciones se llevan a cabo con la intencion de afectar al espacio de informacion, y acto seguido el ciclo comienza de nuevo.

El observador esta dividido en cuatro partes: interfaz, ojos, manos y estrategia.  Los ojos del observador seleccionan las distinciones relevantes al problema.  La estrategia elije los objetivos a cumplir.  Las manos se dejan controlar por los objetivos para ejecutar acciones que los objetivos determinen.

Andres Valloud trabajo hasta hace poco como consultor en JP Morgan New York, y ahora se desempeña en Cincom Systems especializandose en maquinas virtuales.  Su presentacion describe el patron de percepcion como asi tambien varias aplicaciones concretas.



Álgebra Conmutativa y Geometría Algebraica Computacionales: un estudio en la frontera de mis conocimientos.

Disertante: Lic. Enrique Tobis

Fecha: Viernes 30 de marzo de 2007

Cita: Aula 2 a las 15:30 (puntual)

Resumen:
Hasta fines del siglo XIX, se tenía una visión bastante algorítmica del Álgebra. En el siglo XX, está visión fue abandonada en favor de otra menos algorítmica. Sobre el final del siglo, con el advenimiento de la Computación y, sobre todo, de las computadoras, volvió a tomar fuerza la primera visión. En la actualidad, los Sistemas de Álgebra Computacional permiten incluso resolver problemas de los campos más teóricos de la Matemática.

En esta charla presentaré algunos temas de Geometría Algebraica que no se suelen tratar en la Lic. en Computación, enfatizando sus aspectos algorítmicos. Más precisamente, hablaré de algunas formas de trabajar con polinomios en una computadora. Si logro mantenerlos despiertos, también contaré aplicaciones del Álgebra Conmutativa a la Combinatoria (grafos) que estoy estudiando en este momento.


Esos locos grafitos

Disertante: Lic. Francisco Soulignac

Fecha: Viernes 24 de noviembre de 2006

Cita: Aula 3 a las 15:30 (puntual)

Resumen:
Los grafos son todos distintos y se separan en "clases" de acuerdo a ciertos atributos que satisfacen. Por ejemplo, las clases de grafos establecen ciertas prohibiciones (no, los grafos no fuman) que sus miembros tienen que cumplir, y los grafos que desafían estas prohibiciones quedan automáticamente excluidos de la clase. 

Muchos problemas de la vida real se modelan con grafos que pertenecen a ciertas clases. Conocer los atributos de la clase puede ayudar a desarrollar algoritmos eficientes para estos problemas.  En esta charla voy a mostrar, con algunos ejemplos de la vida real (y otros no tan reales), cómo se puede utilizar esta información del "dominio del problema".

Para los que esten ansiosos por la charla, dejo una pregunta picando ¿Qué tienen de común las figuras de la imagen?


Hurgando el cerebro con autitos

Disertante: Lic. Demián Wassermann

Fecha: Viernes 27 de octubre de 2006

Cita: Aula 3 a las 15:30 (puntual)

Resumen:
Cerebro, yo no te gusto y tu no me gustas, así que sácame de esta o después te mato a golpe de cerveza. ¿Trato hecho?

Podemos hacer que la computadora vea dentro del cerebro? Y que pasa si transformamos al cerebro en una pista de autitos a control remoto?

Lo qué!? Una pista de autos en el cerebro? Y eso para sirve?

En esta charla vamos a introducir el procesamiento de imágenes en 3D. Vamos a mostrar como se aplica para poder procesar imágenes de resonancia magnética cerebral y después vamos a ver como mediante autitos a control remoto podemos extraer información del cerebro


Modelos de Programación Lineal Entera
Algoritmos Branch-and-Cut

Disertante: Dra. Paula Zabala

Fecha: Viernes 13 de octubre de 2006

Cita: Aula 3 a las 15:30 (puntual)

Resumen:
Si pedís por teléfono que te traigan una pizza, querés que llegue caliente. Al planificar el recorrido de tus vacaciones, querés hacerlo gastando la menor cantidad de dinero posible. Estos son ejemplos de problemas de optimización combinatoria. Los problemas de optimización combinatoria pueden ser encontrados en diversas situaciones de la vida real en una gran variedad de disciplinas, desde genética, física, química hasta finanzas, marketing, en la industria y en el sector de servicios. Generalmente, estos problemas son fáciles de formular matemáticamente, pero computacionalmente difíciles de resolver.

Muchos de estos problemas pueden ser modelados mediante formulaciones de programación lineal entera o entera mixta. En los últimos años, los métodos Branch-and-Cut resultaron ser una de las técnicas más efectivas para resolver un modelo de programación lineal entera. Especialmente las implementaciones basadas en combinatoria poliedral han permitido incrementar el tamaño de las instancias resueltas.

Este tipo de algoritmo ha sido aplicado exitosamente en la resolución de grandes instancias del problema del viajante de comercio, distintos problemas de ruteo de vehículos, problemas de diseño de redes, de planificación de la producción, problemas provenientes del área de telecomunicaciones y problemas en grafos, entre otros. También es la herramienta que ha sido implementada en los paquetes comerciales para resolver este tipo de problemas.

En esta charla describiremos esta eficiente técnica y discutiremos los factores a tener en cuenta en el desarrollo de un algoritmo de este tipo para un problema específico.


Había una vez una facultad...

Disertante: Lic. Pablo Factorovich

Fecha: Viernes 22 de septiembre de 2006

Cita: Aula 3 a las 15:30 (puntual)

Resumen:
Hubo una vez una facultad donde se creó la primer carrera relacionada con computación en latinoamérica. Hubo una vez una facultad entre las últimas en latinoamerica en tener una Licenciatura en Computación.

  • ¿Qué pasó en el medio?
  • ¿Sabía usted que se creó una Licenciatura en la década del 70 y la desarmaron?
  • ¿Sabía usted que se soñó con crear un doctorado en la década del 70? ¿Sabe cuándo se creó?
  • ¿De dónde salieron las materias que se dan hoy en día? ¿Qué se daba en otra época?

¿Por qué no habla mi computadora (todavía)?

Disertante: Lic. Agustín Gravano

Fecha: Viernes 25 de agosto de 2006

Cita: Aula 3 a las 15:30 (puntual)

Resumen:
Los últimos 50 años nos han mostrado avances tecnológicos sorprendentes, modificando de raíz nuestras vidas. Sin embargo, a pesar de las numerosas aplicaciones potenciales y de décadas de investigación, el procesamiento de voz sigue perteneciendo casi con exclusividad al terreno de la Ciencia Ficción. En esta charla presento los principales inconvenientes, avances y perspectivas del área. ¿Estamos muy lejos del Auto Fantástico?


Teoría y algoritmos de cake-cutting

Disertante: Dr. Tomás Tetzlaff

Fecha: Viernes 11 de agosto de 2006

Cita: Aula 3 a las 18:30 (puntual)

Resumen:
Exponiéndome al apoyo o al repudio, voy a decir cómo se debe repartir la torta. En efecto, la teoría de cake-cutting se usa para repartir bienes. Estos deben ser divisibles y no homogéneos. Por esto último es posible que todos los interesados se lleven la mejor parte según su propia valoración. Este estudio no está libre de polémica en lo que se refiere a criterios de justicia. Por ejemplo: ¿Es imprescindible que todos salgan ganando lo mismo o se pueden admitir desigualdades? Voy a hacer una introducción a estos temas y mencionaré las herramientas de teoría de probabilidad que estamos aplicando con Martín López Daneri (economista).


De Euclides a la telefonía celular.
Estudiando poliedros convexos para resolver problemas difíciles de optimización combinatoria

Disertante: Dr. Javier Marenco

Fecha: Viernes 7 de julio de 2006

Cita: Aula 3 a las 15:30 (puntual)

Resumen:
¿Cómo se hace para diseñar una red de telefonía celular para un escenario tan complejo como el microcentro sin que los enlaces interfieran entre sí? ¿Cómo se planifica el recorrido de una flota de camiones para abastecer a las sucursales de una cadena de supermercados? ¿Cómo hace un grupo de música tropical para tocar en 17 boliches en una sola noche?

Todos estos problemas forman parte de los temas que estudia la optimización combinatoria. Como en muchos otros casos, no se conocen algoritmos eficientes para resolverlos y, peor aún, se sospecha que en realidad no existen algoritmos con estas características. Sin embargo, este tipo de problemas surge cotidianamente en la operatoria de empresas y organizaciones, con lo cual es muy importante contar con métodos computacionales eficientes para resolverlos.

Ahora bien, ¿cómo se hace para resolver en forma computacionalmente eficiente un problema para el cual no se conocen algoritmos eficientes? En esta charla veremos cómo se puede lograr este hecho aparentemente imposible, combinando técnicas basadas en programación lineal con el estudio de ciertos poliedros asociados a modelos combinatorios.


Montañas calientes: Modelos, mecánica y mucha temperatura

Disertantes: Lic. Javier Quinteros

Fecha: Viernes 23 de junio de 2006

Cita: Aula 3 a las 15:30 (puntual)

Resumen:
Juntar tierra sobre el monitor no es la única manera de formar montañas con la computadora.
Dijo Barcelona: "Ahora dicen que unos enfermitos del Laboratorio de Tectónica Andina simulan la evolución de los primeros cientos de kilómetros de profundidad del planeta durante Millones de años".

¿Dónde van a haber terremotos? ¿Qué pinta tenían los Andes hace 20 Millones de años?
¿Serán tan frágiles los Andes como para desaparecer de un plumazo si llueve fuerte?
¿Es cierto que hace unos cientos de Millones de años se hablaba inglés en Cuyo?
¿Sabían que la frontera con Chile en la Patagonia se "corrió" unos 200 km hacia el Este en los últimos 30 Millones de años?
Es sabido que hay continentes que chocan, pero... ¿qué otras cosas pueden chocar contra un continente?
¿Por qué y dónde hay volcanes? ¿Y montañas?

La geología como disciplina atravesó un gran cambio paradigmático en los últimos 35 años. Esto llevó a hacer una revisión profunda de las teorías válidas hasta aquel momento, que pretendían explicar la formación de cordilleras, cuencas, el fondo oceánico, etc. Obviamente, a partir de ese momento, las herramientas numéricas han sido un gran apoyo para el estudio de la Tectónica de Placas.

En la charla, vamos a repasar un poco lo que se sabe hasta hoy, en qué se está trabajando en los principales centros de investigación del mundo y plantearemos algunas preguntas que están sin responder (aunque por muy poco tiempo). También comentaremos por qué los egresados de nuestra disciplina pueden llegar a avanzar mucho más en geología que los propios geólogos, y algunos... llenándose de plata.

Veremos cómo con un poco de ingeniería, matemática, física, paralelismo en clusters, conceptos de geología y dos puñados de sal se puede llegar a la frontera del conocimiento.


 

Alloy en su tinta...

Disertantes: Lic. Juan Pablo Galeotti y Lic. Mariano Moscato

Fecha: Viernes 02 de junio de 2006

Cita: Aula 3 a las 15:30 (puntual)

Resumen:
¿Quién hubiera dicho que los simpáticos diagramas de Venn con los que nuestras maestras nos acosaban seguirían significando algo luego de tanto tiempo? ¿Son útiles para la ingeniería del software los modelos basados en conjuntos y relaciones? En esta charla repasaremos algunos trabajos que estamos realizando en el marco del grupo de Métodos Formales Relacionales. En particular, el uso de la herramienta Alloy, y algunas extensiones construidas por nosotros, para validar modelos basados en relaciones y conjuntos.

Veremos como el uso de esta herramienta nos lleva a campos como la generación automática de casos de tests, y la verificación tanto de especificaciones, como código java "anotado" con invariantes, pre y post condiciones.


De cómo nos engañaron en Algebra I o cómo hacer para resolver sistemas lineales en serio (tengo un algoritmo en papel, 2 procesadores y un problema lineal enorme, ¿¡¿qué hago?!?)

Disertantes: Dr. Hugo Scolnik (DC, FCEN) e Ing. Miguel Angel Cavaliere (SIDERCA)

Fecha: Viernes 19 de mayo de 2006

Cita: Aula 2 a las 15:30 (puntual)

Resumen:
En muchas aplicaciones es necesario resolver sistemas lineales de gran tamaño en forma rápida y precisa. Mostraremos aplicaciones que está haciendo la empresa SIDERCA en problemas de ingeniería, usos en tomografías y terapia de radiaciones, explicando en forma intuitiva lo que desarrollamos en la Facultad usando las computadoras Itanium de 64 bits para implementar un método nuevo que publicamos.


De Leibniz a Omega

Disertante: Dr. Gregory Chaitin (IBM Research Center)

Fecha: Lunes 08 de mayo de 2006

Cita: Aula 2 a las 15:30 (puntual)

Resumen:
En Abril se cumplió el centenario de Kurt Gödel. Su famoso teorema de incompletud (1931) justifica un cambio radical en la práctica de la matemática? Gödel opinaba que sí. La mayoría de la gente dicen que no. Doy mi opinión en mi libro "Meta Math! The Quest for Omega" publicado en Nueva York en 2005 y en mi articulo "The Limits of Reason" publicado en la revista Scientific American de Marzo 2006. Daré un resumen de estas dos publicaciones.


Somos mucho más que dos...
Como organizar “fiestitas” usando teoría de grafos. (bajar ppt)

Disertante: Lic. Marina Groshaus

Fecha: Viernes 21 de Abril de 2006

Cita: Aula 2 a las 15:30 (puntual)

Resumen:
Las circunstancias de la vida nos van llevando a estudiar diferentes problemas que, "sin querer", nos guían por caminos inimaginados.... En esta oportunidad, nos encontramos frente a la ardua tarea de organizar "fiestitas". Ya que la herramienta con la que dispongo es la Teoría de Grafos, vamos a ver cómo ésta puede ayudarnos a resolver nuestro peculiar problema (y varios otros). En particular, vamos a centrarnos en las bicliques de un grafo, es decir, en los subgrafos bipartitos completos maximales. A pesar de que "maximal" no sea una palabra muy erótica, veremos cuanto tienen que ver las bicliques con las mejores “fiestitas”. Y para sorpresa de muchos, veremos cuan difícil puede resultar resolver algunos problemas relacionados en grafos, como por ejemplo, decidir quien es el más fiestero!!.


 

Las especificaciones formales existen.
No son los padres. (bajar pdf)

Disertante: Lic. Nicolás Kicillof

Fecha: Viernes 25 de Noviembre de 2005

Cita: Aula 2 a las 15:30 (puntual)

Resumen:
Por fin estamos siendo testigos del comienzo de la adopción por parte de la industria de los métodos formales y semiformales de desarrollo que venimos pregonando hace décadas desde ámbitos académicos, como parte de la solución para la llamada "crisis del software".

Este fenómeno se observa, por ejemplo, en el creciente uso industrial de lenguajes formales de especificación, especialmente en el marco del diseño por contratos. Ejemplos de estas notaciones son Eiffel, JML, Object Constraint Language (en UML) y Spec#, así como la inclusión de assertions (afirmaciones) en el código fuente. Los modelos formales de sistemas reactivos también se han extendido del ámbito del software crítico a las tareas de aseguramiento de calidad para aplicaciones de uso masivo.

Esta es una oportunidad inigualable para que estudiantes y egresados de nuestra carrera puedan aplicar en su actividad privada valiosos conocimientos curriculares que, si bien les servían como base implícita para producir mejores programas, eran generalmente desdeñados por sus superiores.

Aunque este proceso de adopción es un éxito para la comunidad científica; también nos presenta el desafío de adecuar nuestros métodos y herramientas, muchas veces limitados a casos teóricos y simplistas, a las necesidades del "mundo real". Y además nos exige considerar las notaciones y prácticas que ha adoptado la industria, ya que adaptan al uso del practicante general las teorías que venimos proponiendo. En esta charla muestro algunas herramientas basadas en especificaciones formales que se usan hoy en día para mejorar la calidad de software comercial.


Pegame y llamame Marta...(o en otras palabras, el estudio de la respuesta inflamatoria en seres humanos) (bajar pdf)

Disertante: Dra. Rocío Romero Zaliz

Fecha: Viernes 11 de Noviembre de 2005

Cita: Aula 2 a las 15:30 (puntual)

Resumen:
Aunque parezca increíble, la mayor cantidad de fallecimientos en hospitales es causada por choques, quemaduras, golpes y demás agresiones al cuerpo. El mayor problema es la respuesta inflamatoria que produce nuestro organismo para defenderse de las heridas y posibles infecciones. Ante esta situación se ha formado un grupo interdisciplinario llamado "Inflammation and the Host Response to Injury" (http://www.gluegrant.org/) financiado por el National Institute of General Medical Sciences (NIGMS), una división del National Institutes of Health de Estados Unidos. El grupo esta integrado por médicos, biólogos, bioquímicos, matemáticos y computadores, entre otros. Su máximo objetivo es descubrir las razones biológicas por las cuales los pacientes se comportan de maneras drásticamente distintas ante una misma agresión. Nuestro granito de arena en este programa consiste en obtener alguna pista que guie a los investigadores en la búsqueda de los factores que causan estas diferencias. Para ello trabajamos con técnicas computacionales de agrupamiento de datos y algoritmos evolutivos multi-objetivos extrayendo información en grandes bases de datos, que de manera manual sería imposible.


Hay contornos....y Contornos
(Contornos Activos para  Detección de Bordes en Imágenes y Video)

Disertante: Lic. Juliana Gambini

Fecha: Viernes 28 de Octubre de 2005

Cita: Aula 2 a las 15:30 (puntual)

Resumen:
El problema de detectar características en una imagen, como bordes, cambios en el movimiento, texturas, etc.,  es de suma importancia en una gran variedad de aplicaciones como el análisis de imágenes médicas y diagnóstico, animación facial, o modelado de movimientos humanos, monitoreo de tráfico, seguimiento de contornos en una imagen en movimiento, etc.

Los métodos clásicos para resolver estos problemas como los filtros o máscaras, han sido muy estudiados y desarrollados pero producen resultados poco satisfactorios cuando se desea obtener estructuras geométricas bien definidas. Los contornos activos constituyen una
herramienta fundamental en la detección de bordes, segmentación, seguimiento de objetos en movimiento y análisis del movimiento. Se trata de curvas que se mueven bajo la influencia de fuerzas que dependen de la intensidad de la imagen, sujeta a restricciones internas propias, como suavidad, curvatura, etc. Los contornos activos pueden estar también en el espacio tridimensional y son utilizados para el seguimiento de objetos tridimensionales en una secuencia de imágenes y detección de pose. Las curvas  se deforman siguiendo reglas específicas para que se adapten al borde de un objeto en la imagen. Además trabajan a partir de regiones, en lugar de hacerlo sobre toda la imagen, reduciendo el costo computacional.


Título:¿Sueñan los robots con daikiris eléctricos?
Estrategias para el desarrollo y programación de robots autónomos.

Disertante: Lic. Diego Bendersky

Fecha: Viernes 30 de Septiembre de 2005

Cita: Aula 2 a las 15:30 (puntual)

Resumen:
La programación de robots autónomos plantea diversos problemas interesantes desde el punto de vista de las Ciencias de la Computación. A la imprecisión y baja confiabilidad propias de la interacción con el mundo real se agrega la necesidad de obtener tiempos de respuesta bajos y de
operar en entornos altamente dinámicos e imprevisibles. Todo esto sin considerar que, además, se pretende que los robots desarrollen comportamientos considerados "inteligentes". A lo largo de los años, se plantearon diferentes enfoques para abordar estos problemas, que fueron plasmados en distintas arquitecturas de software y hardware.

En esta charla exploraremos, a partir de una definición de robot autónomo, algunas de las técnicas más utilizadas de control de robots. Explicaremos de qué manera la inteligencia artificial y la biología han influido en el desarrollo de robots y veremos también cómo es posible hacer que los robots aprendan nuevos comportamientos por su cuenta. En particular, nos centraremos en una técnica de aprendizaje denominada Aprendizaje por Refuerzo, en la cual un robot aprende por medio de la interacción con el entorno. Mostraremos los éxitos de esta técnica, así como también sus limitaciones y problemas más importantes, y presentaremos uno de los trabajos sobre este tema que estamos llevando a cabo en nuestro laboratorio.


Título: Programación Orientada a Aspectos: La verdad desnuda (bajar ppt)

Disertante: Lic. Fernando Asteasuain

Fecha: Viernes 16 de Septiembre de 2005

Cita: Aula 2 a las 15:30 (puntual)

Resumen:
¿Qué es la Programación Orientada a Aspectos (POA)? ¿Es de verdad un nuevo paradigma de programación? ¿Es verdad que es todo mentira? ¿Sirve para algo, o es todo zaraza?

Fue aclamada como una de las 10 tecnologías que cambiarán la forma de vivir en el nuevo siglo, ¿estuvo todo arreglado? ¿Quién está detrás de todo esto? La POA dice tener la posta para encapsular y abstraer correctamente todos los conceptos que forman un sistema, ¿es tan así o se dice más de lo que hay? Todo esto se responderá en la charla. Qué cosas propone la POA, y cómo lo logra.

No dejes de perderte esta charla íntima de septiembre donde se desnudarán las verdades de la Programación Orientada a Aspectos.


Título: Fotografia 3D - Una dimensión mas allá de la segunda

Disertante: Lic. Alejandro Trocolli

Fecha: Viernes 2 de Septiembre de 2005

Cita: Aula 2 a las 15:30 (puntual)

Resumen:
En esta charla voy a dar una introducción a los algoritmos y técnicas existentes para tomar una fotografía 3D. El objetivo de la fotografía 3D es capturar la geometría y apariencia de un objecto. La geometría se obtiene usando un escáner láser que mide distancias y distintos puntos de un volumen del espacio que lo rodea. La apariencia se captura tomando fotos con una cámara digital. Y aquí no termina el problema, este es recién el comienzo. En mi charla voy a hablar sobre las distintas etapas necesarias para obtener dados y de éstos un modelo fotorealístico


Título: El método infalible para ganar a la ruleta en 21 días. Llame YA! (bajar pdf)

Disertante: Lic. Santiago Figueira

Fecha: Viernes 19 de Agosto de 2005

Cita: Aula 2 a las 15:30 (puntual)

Resumen:
La teoría de la computabilidad estudia los problemas computables, es decir, los problemas que pueden ser resueltos usando una computadora. Ahora que existen las computadoras es fácil pensar en la noción de "procedimiento efectivo": la suma, la resta, la multiplicación son procedimientos efectivos. En general, un procedimiento efectivo es un programa, un algoritmo escrito en algún lenguaje de programación. Pero estas ideas de "efectividad" aparecieron antes de la primera computadora. Vamos a ver cuáles fueron los primeros intentos de definir esta noción.

¿Hay algún problema que no sea computable? Si pensamos en programas que no se cuelgan nunca, ¿es lo mismo programar con "while" que programar con "for"? ¿Cómo se puede extender de manera abstracta el poder de las computadoras? En la primera parte de la charla vamos a responder a estas y otras preguntas.

Dentro de la teoría de la computabilidad, el estudio de la aleatoriedad ha despertado mucho interés en los últimos años. En la segunda parte de la charla vamos a hablar sobre esto. ¿Cómo se puede definir la aleatoriedad?
Supongamos que tiramos una moneda 30 veces y anotamos 0 si sale cara y 1 si sale ceca. ¿Por qué no me creen si les digo que salió 101010101010101010101010101010, pero sí me creen si les digo 110001010011001101000110100110? Las dos secuencias tienen longitud 30, de modo que las dos son igual de probables... Vamos a ver dos formas distintas de definir "secuencia aleatoria", una basada en apuestas en ruletas y otra en grados de compresión. Las dos definiciones van a estar basadas en computadoras y van a usar resultados de la teoría de la computabilidad.

Los que aguanten hasta el final de la charla se llevan como premio un método infalible para ganar a la ruleta.


To P or not to P, That's the Question (bajar pdf)

Disertante: Dr. Carlos Areces

Grupo: Investigador de INRIA, Lab. Loria, Francia

Fecha: Viernes 5 de Agosto de 2005

Cita: Aula 2 a las 18:00 (puntual)

Resumen:
* Que hay de interesante en una frase como "Hoy llueve o no llueve"? Despues de todo, una frase
como esta no parece ser muy informativa: es cierta en cualquier situacion.
* Por que es que todo un area de la matematica (la logica formal) se ocupa de dar caracterizaciones exactas de estas `frases triviales' llamadas tautologias (i.e., formulas que son siempre ciertas sin importar la situacion en donde sean enunciadas), y de estudiar sus propiedades?
* Por que es que hay gente (como yo) que se dedica a construir programas que puedan determinar eficientemente si una formula es una tautologia?
* Por que no es trivial decidir si una formula es trivial? Y para que podria usarse un programa de pudiera resolver esta tarea?
* Todo esto y mucho mas, el Viernes 5 de Agosto en la proxima "Charla de Borrachos", como siempre, ofreciendo o no las mejores charlas APTAS PARA TODO PUBLICO del Departamento de Computacion.

NOTA: La charla incluye, (por el mismo precio!!), un curso acelerado en nociones basicas de decidibilidad y complejidad, infaltable en la cartera de la dama o el bolsillo del caballero.


Vida en un puñado de bits

Disertante: Lic. Cristian Rocha

Grupo: Bioinformática

Fecha: Viernes 22 de julio de 2005

Cita: Aula 2 a las 15:30 (puntual)

Resumen:
La Biología, como toda ciencia experimental, se caracteriza por proponer teorías a partir de observaciones hechas sobre la naturaleza y los resultados obtenidos en el laboratorio. Tras el descubrimiento del ADN y del proceso de síntesis de proteínas se abrió, por fin, la posibilidad del estudio teórico puro de los cuerpos vivos.

Estudiar neuronas sin necesidad de abrir horribles sanguijuelas, o estudiar la reacción de células cancerígenas a un flujo eléctrico sin matar a inocentes ratoncitos son algunos de los alcances que se lograrían si se pudiera simular por computadora la biología molecular intrínseca de estos bichos. Esto implicaría conocer en detalle sus genomas, proteomas e interactomas para poder implementar su "lógica" en una computadora. Y la Bioinformática, una ciencia que surge de la fusión entre la biología y la computación, intenta construir las herramientas para que ésto sea posible.

En la charla se describirá los grandes abismos teóricos y prácticos, existentes tanto del lado de la biología como de la computación, para construir el primer ser virtual. También cómo el grupo de Bioinformática del DC, junto a otros grupos de la Facultad y otras Universidades, intenta dar una mano en el proyecto más ambicioso de todos los tiempos: el Proyecto Genoma Humano (y derivados). Finalmente se concentrará en el problema de Acoplamiento de Proteínas como una aproximación a la inferencia de interactomas y el diseño de drogas.


Título: Verificando modelos, o en qué se parecen Pancho Dotto y los diseñadores de software crítico

Disertante: Lic. Fernando Schapachnik

Grupo: Dependex, Dependable Systems Research Group

Fecha: Viernes 8 de julio de 2005

Cita: Aula 2 a las 15:30 (puntual)

Bajar presentación de 1,6 MB (pdf zipeado). Bajar versión imprimible de 2 MB (ps zipeado, 4 diapos por hoja).

Resumen:
¿Usted creía que no había nada en común entre Pancho Dotto y los diseñadores de software crítico? Se equivoca: ambos deben verificar que sus modelos cumplan con determinadas propiedades. Claro que en el caso del software crítico, éstas son un poco más difíciles de medir que la cadera de Nicole Neunmann... En esta charla veremos a qué llamamos "modelo" de un software, cuáles son algunas de las propiedades que el software crítico debe cumplir, y cómo podemos hacer para estar seguros (matemáticamente hablando) de que se cumplen. En particular, discutiremos las dificultades específicas de incluir en esas propiedades al gran misterio de la metafísica: el tiempo. Por último, analizaremos algunas técnicas muy interesantes para trabajar con programas que son tan complejos, que requieren de varias computadoras en simultáneo.


Antetítulo: Confección del fixture de la Primera División del fúbol chileno mediante Programación Matemática

Título: Fútbol, Computación y Matemática juntos, que combinación perfecta! (bajar pdf)

Disertante: Dr. Guillermo "Willy" Durán

Grupo:Departamento de Ingeniería Industrial de la Universidad de Chile

Fecha: Viernes 24 de junio de 2005

Cita: Aula 2 a las 15:30 (puntual)

Resumen:
El campeonato de primera división del fútbol chileno consta de 20 equipos que deben enfrentarse en una ronda de todos contra todos a lo largo de 19 fechas. Los 20 clubes están divididos en 4 grupos de 5 equipos cada uno, clasificando los dos primeros de cada grupo a la fase de play-off. La programación de las fechas no es una tarea sencilla si se pretende cumplir con una serie de condiciones deportivas y económicas que establece la Asociación Nacional de Fútbol Profesional (ANFP) de dicho país, institución que dirige y organiza el campeonato. Algunas de las condiciones solicitadas por la ANFP son programar los partidos más importantes en semanas especiales, considerar los compromisos de los equipos en competencias internacionales, aprovechar
largos viajes para jugar más de un partido seguido en condición de visitante, usar lugares turísticos para partidos atractivos, o dejar los enfrentamientos entre equipos del mismo grupo para las últimas fechas del torneo. En esta charla presentamos un modelo de programación matemática diseñado por el Departamento de Ingeniería Industrial de la Universidad de Chile, que fue utilizado para la confección del fixture del 2005. Esta propuesta ha reemplazado a la programación manual que se hacía hasta el año pasado.

Dr. Guillermo Durán
Profesor Asistente
Departamento de Ingeniería Industrial
Universidad de Chile

(con licencia en el Departamento de Computacion de la FCEyN)


Título: Veo, veo, ¿qué ves? (bajar pdf)

Disertante: Lic. Demián Wassermann

Grupo: Grupo de procesamiento de imágenes

Fecha: Viernes 10 de junio de 2005

Cita: Aula 2 a las 15:30 (puntual)

Resumen:
¿Puede ver la computadora? ¿Cómo se hace para que vea? ¿Para qué sirve que
la computadora vea?

En esta charla vamos a hacer un pequeño recorrido por el sistema de visión
humano para después volcarlo a una computadora. Se presentarán algunos de
los problemas principales en procesamiento de imágenes: eliminación del
ruido, detección de bordes y segmentación, formas de abordar estos
problemas y algunas aplicaciones.


Título: Escenarios: El ingeniero se maquilla y empieza a actuar (bajar pdf)

Disertante: Dr. Sebastian Uchitel

Filiación:Imperial College - UK

Fecha: Viernes 27 de mayo de 2005

Cita: Aula 2 (Pab. 1) a las 15:30
Ciudad Universitaria

Resumen:
Hay que construir un sistema. ¿Qué dice el destinatario que quiere que haga su futuro sistema? ¿Lo qué quiere es lo que nos dijo? Y lo que es peor..., ¿está realmente seguro de lo que nos está diciendo...? ¿Y ahora quién podrá ayudarme...?
Sabemos (después de dolorosas lecciones) que construir buen software no es sólo programar bien. Y ahí es donde entran la ingeniería del software, ...y los escenarios. Un escenario nos ayuda a describir cómo "charlan" (o a veces "discuten") las distintas partes de un sistema.
En esta charla veremos un poco qué es un escenario, cómo los escenarios han podido capturar el comportamiento de sistemas muy complicados, y de yapa, como podemos usar herramientas para "extraer" información (conflictos, animaciones, otros posibles escenarios de interés, etc.) de
los escenarios que describen el sistema.


Título: ¿Qué estará pensando la sanguijuela en este momento? (bajar pdf)

Disertante: Lic. Sergio Daicz

Fecha: Viernes 13 de mayo de 2005

Cita: Aula 2 a las 15:30 (puntual)

Resumen:
Las sanguijuelas son unos gusanitos que chupan sangre. Pero nos interesan porque su sistema nervioso es relativamente simple, y fácil de acceder en forma experimental. Sus características lo hacen muy conveniente para estudiar el funcionamiento de pequeñas redes de neuronas biológicas. Por ejemplo, se sabe bastante sobre los circuitos que generan los distintos patrones motores que conforman las conductas básicas de estos simpáticos animalitos. En nuestro laboratorio estamos estudiando un circuito que puede servir para regular y coordinar la actividad motora del animal. En la charla trataremos de explicar qué preguntas estamos intentando responder (o formular) combinando modelos computacionales y experimentos biológicos. Para esto intentaremos dar primero una pequeña introducción a cómo se generan y transmiten las señales nerviosas y también contar cómo se registran experimentalmente.


Título: Los programas al divan! Programas que analizan programas? (bajar pps)

Disertante: Lic. Diego Garbervetsky

Fecha: Viernes 29 de abril de 2005

Cita: Aula 2 a las 15:30 (puntual)

Resumen:
Una de las áreas más importantes dentro de las ciencias de la computación es la que trata los programas como objeto de estudio en si. Es decir, se investiga y desarrollan técnicas (y herramientas) que reciben programas y obtienen como resultado conclusiones sobre el mismo o nuevos programas!

Ejemplos conocidos de herramientas que hacen análisis de programas son: compiladores, optimizadores, intérpretes, ofuscadores de código, refactoreadores, verificadores, generadores de especificaciones!, y muchas más.

En la charla vamos a introducir brevemente esta temática, mostrando algunos ejemplos concretos de su utilidad. Luego presentaremos algunas de las técnicas que estamos elaborando en nuestro grupo. En particular: Análisis del comportamiento y el consumo de memoria en programas Java y generacion automática de invariantes (aserciones sobre los posibles valores que pueden tener las variables en distintos puntos del programa).

Pd: Intentaré demostrar que no soy Ingeniero de Software!


Título: Guarda que chocan las placas tectónicas! De dónde salió el tsunami?
(Elementos finitos aplicados a problemas transitorios mecánico-térmicos de fluidos multifase muy viscosos con reologías muy no lineales)

Disertante: Lic. Ing. Sergio Zlotnik

Fecha: Viernes 15 de abril de 2005

Cita: Aula 2 a las 15:30 (puntual)

Resumen:
Ya lo decía Luca: "hasta que choque China con Africa..."

Los continentes se mueven y bastante. Asi que tarde o temprano chocan, y ahi se
arma:
que el tsunami, que el volcán, que el terremoto, que una cordillera, que un arco de islas...

Qué pasa cuando chocan? A los geofísicos y a los petroleros, por diferentes motivos, les interesa estudiar que sucede cuando se produce una colisión entre las placas.

En esta charla habaremos de un método de estudio de este fenómeno, aplicado a un tipo particuar de colisión. Hablaremos un poco de métodos númericos (X-FEM, level sets), un poco de física (mecánica de fluidos simplificada, eq térmica) y un poco de geologia y geofísica (subducción, slab detachment).


Título: "Apendizaje por refuerzos: ciencias cognitivas, ratas y perros-robot curiosos"

Disertante: Lic. Carlos "Greg" Diuk

Fecha: Jueves 31 de marzo de 2005

Cita: Aula 3 a las 15:30 (puntual)

Resumen:

El "aprendizaje por refuerzos" asume que la forma en que aprendemos a manejarnos en el mundo es intentando siempre maximizar el beneficio que obtenemos del entorno en que nos movemos. Un "agente" (o sea, una persona, una rata, un robot o un programa), se enfrenta a un ambiente determinado armado de un conjunto de acciones que puede realizar. Ante cada acción el agente podrá determinar, con cierto grado de exactitud, en qué nueva situación se encuentra y cuál fue el beneficio obtenido a través de la acción realizada. El aprendizaje consiste en determinar una "política" (o sea, la mejor respuesta ante cada situación) que lleve a maximizar el beneficio total obtenido.

Situaciones de aprendizaje que responden a este esquema pueden modelarse formalmente como Procesos de Decisión de Markov, y existen algoritmos que permiten encontrar una política óptima (o casi) en tiempo polinomial (aunque a veces ese "tiempo polinomial" resulta ser demasiado grande para muchos problemas de la vida real!).

En esta charla vamos a presentar brevemente de qué se trata el aprendizaje por refuerzos y plantear algunos de sus problemas. Tomaremos como inspiración resultados observados por psicólogos y economistas (y gente por
el estilo) donde se ve que, tanto los humanos como otros animales, no siempre nos comportamos de la forma "racional" esperada, o al menos no de la forma en que nuestros modelos esperarían. Vamos a tratar de analizar algunos de los tipos de sesgos "irracionales" con los que la gente y las ratas actuamos en el mundo, y pensar cómo éstos nos pueden de hecho ayudar en el proceso de aprendizaje. Finalmente, vamos a contar un poco cómo en nuestro laboratorio estamos intentando incorporar este tipo de sesgo a nuestros perros-robot.


Título: "Pintar mapas, organizar fiestas... en el fondo, es sólo teoría de grafos" (bajar pdf)

Disertante: Lic. Flavia Bonomo

Grupo: Teoría de Grafos

Dirección: Min Chih Lin y Willy Duran

Fecha: Viernes 26 de Noviembre de 2004

Cita: Aula 3 a las 15:30 (puntual)

Resumen:

La Teoría de Grafos tiene muchas aplicaciones en problemas de computación, biología, física, urbanismo, y algunas otras en problemas más cotidianos de la vida real. El grupo de Teoría de Grafos forma parte del grupo de Investigación Operativa y Optimización Combinatoria y trabajamos tratando de encontrar propiedades teóricas de ciertas clases de grafos que, por ejemplo, permitan resolver eficientemente en esas clases de grafos problemas que son difíciles para grafos en general. Uno de esos problemas es el problema de coloreo, conocido en su versión para grafos planares como "el problema de pintar mapas", quien saltó a la fama al obtener el Oscar al mejor actor principal en "El Teorema de los 4 colores", y se consagró hace un par de años con "El Teorema Fuerte de los Grafos Perfectos". El objetivo de esta charla es dar un panorama general de los temas que estamos investigando y sus aplicaciones a problemas reales.


Título: "Una mirada computacional a la lógica. O de cómo ganar chicas hablando de lógica" (bajar pdf)

Disertante: Lic. Daniel Gorin y Lic. Sergio Mera

Grupo: Grupo de Investigación en Lógica y Computabilidad (GLyC)

Fecha: Viernes 12 de Noviembre de 2004

Cita: Aula 3 a las 15:30 (puntual)

Resumen:

Desde su nacimiento, la Computación ha estado intimamente ligada a la Lógica. Hoy en día, el interés por la Lógica es impulsado en mucha mayor medida desde la Computación que desde otras disciplinas historicamente afines, como la Matemática o la Filosofía. Actualmente la Computación abarca un número muy diverso de áreas de interés, y en cada una de ellas ciertas lógicas se adecuan mejor que otras. Los criterios a la hora de elegir una lógica son principalmente: un lenguaje acorde al dominio de uso, poder expresivo suficientemente alto y, en la medida de lo posible, un bajo costo computacional. Algunos de los intereses principales de GLyC (Grupo de Investigación en Lógica y Computabilidad) son el estudio de propiedades de lógicas de buen comportamiento computacional (en especial lógicas modales) y el desarrollo de herramientas de demostración automática para las mismas. El objetivo de esta charla es presentar nociones intuitivas sobre cada uno de los temas mencionados en este abstract, que permitan a partir de una re-lectura posterior, la eventual comprensión del mismo.

Rating: PG-13. PARENTS STRONGLY CAUTIONED - Some material may be inappropriate for children under 13.


Título: "Métodos formales en la ingeniería de software: en busca de la bala de plata" (bajar pdf)

Disertante: Lic. Carlos Lopez Pombo

Grupo: Métodos formales relacionales

Dirección: Dr. Marcelo Frías

Fecha: Viernes 29 de Octubre de 2004

Cita: Aula 10 a las 15:30 (puntual)

Resumen:

Como bien nos avisó Frederik Brook en su famoso trabajo "No silver bullet", no hay técnicas mágicas que nos permitan llegar a un destino feliz con nuestros proyectos de software; la analogía proviene de pensar a las eventuales fallas como lobizones y a las técnicas de ingeniería de software como herramientas para acabar con éstos. Ahora bien, qué pasaría si lo que se da en llamar métodos formales fuera una bala de alpaca, qué ocurriría si pudiésemos, con su ayuda, garantizar que muchos (digamos algunos) de los errores de diseño de software que se cometen más comunmente fueran eliminados durante el proceso de desarrollo de forma de que estos nunca impacten en el producto final. La respuesta es que seríamos felices, en particular, tan felices como pérdidas (en vidas, dinero o cualquier otra cosa) hayamos evitado.
Durante esta charla contaremos cómo nuestro trabajo se ubica dentro de este marco general a través de la construcción de una herramienta que pretende dar soporte de métodos formales a lenguajes de diseño de software visuales, como UML u otros del estilo.


Título: "Cancer y Computación, estudio en la frontera del conocimiento"

Disertante: Diego Fernández Slezak

Grupo: Laboratorio de Sistemas Complejos

Dirección: Dr. Guillermo Marshall

Fecha: Viernes 15 de Octubre de 2004

Resumen:
Cáncer: Enfermedad neoplásica con transformación de las células, que proliferan de manera anormal e incontrolada.

Computación: Conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores.

¿En qué se relacionan estos conceptos? Los científicos incorporan, cada vez más, las simulaciones numéricas como medio para producir conocimiento. Estas simulaciones son programas de computación que permiten generar realidades virtuales en las que recrean objetos específicos de estudio, como puede ser una galaxia, un río o tejido humano.

En esta charla presentaremos algunas simulaciones de tratamientos contra el cáncer que se llevan a cabo en el Laboratorio de Sistemas Complejos del Departamento de Computación. En particular mostraremos algunos experimentos con ratones realizados en convenio con el Instituto de Oncología "Angel H. Roffo" y primeros resultados de simulaciones numéricas del tratamiento electroquímico de tumores.

 

Departamento de Computación | Facultad de Ciencias Exactas y Naturales | Universidad de Buenos Aires | Contacto