/ miércoles 9 de marzo de 2022

La TV del futuro será más personalizada

La BBC trabaja con una universidad para crear programas cuyos contenidos sean más adaptables a las necesidades y preferencias de cada televidente

“Mira hacia otro lado ahora si no quieres saber el marcador”, dicen algunos noticiarios antes de informar los resultados de fútbol. Pero imagina si tu televisor supiera a qué equipos sigues, qué resultados evitar, o si supiera pasar por alto el fútbol por completo y hablarte de otra cosa. Con la personalización de los medios en la que está trabajando la BBC, ese tipo de asuntos están más cerca de ser posibles.

Dicha personalización va más allá de lo que ya hacen plataformas como BBC iPlayer o Netflix, que sugieren contenidos en función de lo que una persona ha visto anteriormente.

Aquí de lo que se trata es de personalización ya dentro de los contenidos, donde se podría incluir ajustar la duración del programa, por ejemplo, ver una versión abreviada o extendida, agregar gráficos o mejorar el diálogo si la capacidad auditiva no es la óptima, o bien proporcionar información adicional relacionada con el programa.

La gran diferencia es que estas características no serían genéricas, sino diseñadas de acuerdo con los propios gustos de las personas y adaptados a sus necesidades.

Para ofrecer nuevos tipos de personalización de medios a las audiencias a escala, estas características estarán impulsadas por inteligencia artificial (IA), la cual funciona a través del aprendizaje automático que realiza tareas basadas en información de grandes conjuntos de datos que se alimentan para entrenar el sistema o algoritmo.

Ese es el enfoque de la asociación entre la BBC y el Centro de Procesamiento de la Visión, el Habla y la Señal de la Universidad de Surrey, que lleva el nombre de Inteligencia Artificial para Experiencias de Medios Personalizadas, o AI4ME, y que busca ayudar a la cadena a servir mejor al público, especialmente a las nuevas audiencias.

Los principios de IA de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) requieren que esta tecnología beneficie a la humanidad, incorporando equidad, seguridad, transparencia y responsabilidad.

Sin embargo, se acusa cada vez más a los sistemas de IA de automatizar la desigualdad como consecuencia de los sesgos en su formación, lo que puede reforzar los prejuicios existentes y poner en desventaja a los grupos vulnerables.

Las nuevas características estarán impulsadas por inteligencia artificial / Foto: Reuters

Esto puede tomar la forma de sesgo de género en el reclutamiento o disparidades raciales en las tecnologías de reconocimiento facial, por ejemplo.

Otro problema potencial con los sistemas de IA es lo que llamamos generalización: La primera víctima mortal reconocida de un coche autónomo es un ejemplo de ello.

Por lo tanto, debemos seguir capacitando a los sistemas de IA a medida que aprendemos más sobre su comportamiento en el mundo real y nuestros resultados deseados. Es imposible dar instrucciones a una máquina para todas las eventualidades e imposible predecir todas las posibles consecuencias no deseadas.

Aún no sabemos completamente qué tipo de problemas podría presentar nuestra IA en el ámbito de los medios personalizados y eso es lo que se espera descubrir a través de este proyecto.

Para diseñar bien este sistema de personalización, se requiere la participación pública desde el principio. Esto es vital para brindar una perspectiva amplia a los equipos técnicos que pueden sufrir de métricas de rendimiento definidas de manera limitada, "pensamiento grupal" dentro de sus departamentos y falta de diversidad.

Surrey y la BBC están trabajando para probar un enfoque para atraer personas (personas normales, no expertos) para supervisar el desarrollo de la IA en la personalización de los medios.

Estamos probando "consejos de ciudadanos" para crear un diálogo, donde la información que obtengamos de los consejos informará el desarrollo de las tecnologías. Nuestro consejo ciudadano tendrá representación diversa e independencia de la BBC.

Los temas brindan al consejo ciudadano una forma de revisar tecnologías específicas contra cada uno de los principios de IA de la OCDE y debatir los usos aceptables de los datos personales en la personalización de los medios, independientemente de los intereses corporativos o políticos.

Hay riesgos. Es posible que no reflejemos adecuadamente la diversidad, puede haber malentendidos en torno a las tecnologías propuestas o falta de voluntad para escuchar los puntos de vista de los demás. ¿Qué pasa si los miembros del consejo no pueden llegar a un consenso o comienzan a desarrollar un sesgo?

Creemos que este enfoque puede traer amplias consideraciones éticas al ámbito de los desarrolladores de ingeniería durante las primeras etapas del diseño de sistemas complejos de IA. Nuestros participantes no están comprometidos con los intereses de las grandes tecnologías o los gobiernos, pero transmiten los valores y creencias de la sociedad.

* Especialista de la Universidad de Surrey.



ESCUCHA EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

“Mira hacia otro lado ahora si no quieres saber el marcador”, dicen algunos noticiarios antes de informar los resultados de fútbol. Pero imagina si tu televisor supiera a qué equipos sigues, qué resultados evitar, o si supiera pasar por alto el fútbol por completo y hablarte de otra cosa. Con la personalización de los medios en la que está trabajando la BBC, ese tipo de asuntos están más cerca de ser posibles.

Dicha personalización va más allá de lo que ya hacen plataformas como BBC iPlayer o Netflix, que sugieren contenidos en función de lo que una persona ha visto anteriormente.

Aquí de lo que se trata es de personalización ya dentro de los contenidos, donde se podría incluir ajustar la duración del programa, por ejemplo, ver una versión abreviada o extendida, agregar gráficos o mejorar el diálogo si la capacidad auditiva no es la óptima, o bien proporcionar información adicional relacionada con el programa.

La gran diferencia es que estas características no serían genéricas, sino diseñadas de acuerdo con los propios gustos de las personas y adaptados a sus necesidades.

Para ofrecer nuevos tipos de personalización de medios a las audiencias a escala, estas características estarán impulsadas por inteligencia artificial (IA), la cual funciona a través del aprendizaje automático que realiza tareas basadas en información de grandes conjuntos de datos que se alimentan para entrenar el sistema o algoritmo.

Ese es el enfoque de la asociación entre la BBC y el Centro de Procesamiento de la Visión, el Habla y la Señal de la Universidad de Surrey, que lleva el nombre de Inteligencia Artificial para Experiencias de Medios Personalizadas, o AI4ME, y que busca ayudar a la cadena a servir mejor al público, especialmente a las nuevas audiencias.

Los principios de IA de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) requieren que esta tecnología beneficie a la humanidad, incorporando equidad, seguridad, transparencia y responsabilidad.

Sin embargo, se acusa cada vez más a los sistemas de IA de automatizar la desigualdad como consecuencia de los sesgos en su formación, lo que puede reforzar los prejuicios existentes y poner en desventaja a los grupos vulnerables.

Las nuevas características estarán impulsadas por inteligencia artificial / Foto: Reuters

Esto puede tomar la forma de sesgo de género en el reclutamiento o disparidades raciales en las tecnologías de reconocimiento facial, por ejemplo.

Otro problema potencial con los sistemas de IA es lo que llamamos generalización: La primera víctima mortal reconocida de un coche autónomo es un ejemplo de ello.

Por lo tanto, debemos seguir capacitando a los sistemas de IA a medida que aprendemos más sobre su comportamiento en el mundo real y nuestros resultados deseados. Es imposible dar instrucciones a una máquina para todas las eventualidades e imposible predecir todas las posibles consecuencias no deseadas.

Aún no sabemos completamente qué tipo de problemas podría presentar nuestra IA en el ámbito de los medios personalizados y eso es lo que se espera descubrir a través de este proyecto.

Para diseñar bien este sistema de personalización, se requiere la participación pública desde el principio. Esto es vital para brindar una perspectiva amplia a los equipos técnicos que pueden sufrir de métricas de rendimiento definidas de manera limitada, "pensamiento grupal" dentro de sus departamentos y falta de diversidad.

Surrey y la BBC están trabajando para probar un enfoque para atraer personas (personas normales, no expertos) para supervisar el desarrollo de la IA en la personalización de los medios.

Estamos probando "consejos de ciudadanos" para crear un diálogo, donde la información que obtengamos de los consejos informará el desarrollo de las tecnologías. Nuestro consejo ciudadano tendrá representación diversa e independencia de la BBC.

Los temas brindan al consejo ciudadano una forma de revisar tecnologías específicas contra cada uno de los principios de IA de la OCDE y debatir los usos aceptables de los datos personales en la personalización de los medios, independientemente de los intereses corporativos o políticos.

Hay riesgos. Es posible que no reflejemos adecuadamente la diversidad, puede haber malentendidos en torno a las tecnologías propuestas o falta de voluntad para escuchar los puntos de vista de los demás. ¿Qué pasa si los miembros del consejo no pueden llegar a un consenso o comienzan a desarrollar un sesgo?

Creemos que este enfoque puede traer amplias consideraciones éticas al ámbito de los desarrolladores de ingeniería durante las primeras etapas del diseño de sistemas complejos de IA. Nuestros participantes no están comprometidos con los intereses de las grandes tecnologías o los gobiernos, pero transmiten los valores y creencias de la sociedad.

* Especialista de la Universidad de Surrey.



ESCUCHA EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

Elecciones 2024

¡Como siempre! Todos los candidatos se declaran ganadores del debate; menos Estrada

Tras terminar el debate entre senadores por Sinaloa, los 5 candidatos participantes de autodeclararon ganadores, menos Jesús Estrada Ferreiro del PT.

Elecciones 2024

Candidatos atacan a Enrique Inzunza por acosador en debate; Imelda Castro no lo defiende

Este domingo se realizó el debate entre candidatos a senadores de la República y entre las críticas destacaron los ataques a la candidata de Morena, Imelda Castro por hacer formula con Enrique Inzunza Cazarez, quien ha sido demandado por acoso.

Elecciones 2024

Salud gratuita para todos y apoyos a la agricultura; entre las propuestas de los candidatos a senadores

Los candidatos a senadores de la República presentaron sus diversas propuestas en el debate del INE, este domingo. Algunos se enfocaron en propuestas, otro sí criticaron.

Elecciones 2024

Se juntan las porras en el debate entre senadores; se cierra la Insurgentes

Los militantes y simpatizantes de los diferentes partidos políticos se hicieron presentes en las afueras de las instalaciones del INE Sinaloa, a fin de apoyar a su candidato a Senador de la República.

Local

Aumenta escasez de agua; se suma Navolato y Salvador Alvarado en reparto de agua en pipas

La Sebides, reportó que la distribución de agua en pipas aumentó de 11 a 13 municipios en menos de una semana