Consulta de Guies Docents



Curs Acadèmic: 2022/23

8025 - Màster Universitari en Sistemes Intel·ligents Interactius

32679 - Estudis de Dades Crítiques


Informació de la Guia Docent

Curs acadèmic:
2022/23
Centre acadèmic:
802 - Centre Màsters del Departament d'Enginyeria
Estudi:
8025 - Màster Universitari en Sistemes Intel·ligents Interactius
Assignatura:
32679 - Estudis de Dades Crítiques
Crèdits:
5.0
Curs:
1
Idiomes de docència:
---
Professorat:
---
Periode d'Impartició:
Indeterminat
Horari:

Presentació

Critical Data Studies (FATE) és una assignatura interdisciplinària que ofereixen professors de tres disciplines: informàtica, filosofia i dret.

El curs pretén formar els estudiants per abordar qüestions de protecció de dades personals, així com aquelles derivades de dues àmplies aplicacions de sistemes intel·ligents: el suport a les decisions basat en dades i la presa de decisions automatitzada.

Aproximadament la meitat de les sessions cobreixen tecnologies informàtiques per, per exemple, anonimitzar dades o detectar i mitigar el biaix algorítmic. L'altra meitat de les sessions estudien diferents conceptualitzacions del poder al voltant dels pipelines de processament de dades, analitzen el biaix i la discriminació en els sistemes informàtics des d'una perspectiva de filosofia moral i repassen els marcs legals rellevants per al processament de dades.

El curs inclou 12 sessions teòriques per impartir i discutir els principals conceptes i mètodes. Opcionalment, els estudiants poden assistir a 6 sessions de seminari per a casos pràctics, no qualificats, i 6 sessions pràctiques per rebre ajuda en els treballs d'anàlisi de dades. L'avaluació es farà a partir d'un examen parcial i un examen final (sobre la part teòrica), treballs (anàlisi de dades) i un informe (projecte d'auditoria algorítmica).

L'abast del curs són qüestions d'equitat, responsabilitat, transparència en el tractament de dades des d'una perspectiva ètica, legal i tecnològica.

  1. Tractament de dades personals: privacitat, confidencialitat, vigilància, recurs, recollida de dades i diferencials de poder
  2. Suport a les decisions basat en dades: biaixos i transparència en el processament de dades, comunicació rica en dades i visualització de dades
  3. Presa de decisions automatitzada: conceptualitzacions de poder i discriminació en escenaris amb diferents graus d'automatització.
  4. Auditoria algorítmica externa a la pràctica: recollida de dades, definició de mètriques, límits de mètriques, informes.

Competències associades

CB8. Que l'alumnat sigui capaç d'integrar coneixements i afrontar la complexitat de fer judicis a partir d'una informació incompleta o limitada, inclosa la reflexió sobre les responsabilitats socials i ètiques associades a l'aplicació dels seus coneixements i judici.

CE1. Aplicar models i algorismes en aprenentatge automàtic, sistemes autònoms, interacció amb llenguatge natural, robòtica mòbil i/o intel·ligència web a un problema ben identificat de sistemes intel·ligents.

Resultats de l'aprenentatge

E1)

  • Resol problemes relacionats amb sistemes intel·ligents interactius. Concretament, els estudiants poden resoldre el problema de detectar i mitigar biaixos en aquest sistema.
  • Identifica els models i algorismes adequats per resoldre un problema concret en l'àmbit dels sistemes intel·ligents interactius. Concretament, els estudiants poden identificar mètodes de processament de dades per reduir el risc de divulgació i mitigar els biaixos.
  • Avalua el resultat d'aplicar un model o algorisme a un problema concret. Concretament, els estudiants poden utilitzar mètriques estàndard d'equitat algorítmica i, al mateix temps, entendre les limitacions d'aquestes mètriques.
  • Presenta el resultat de l'aplicació d'un model o algorisme a un problema concret segons estàndards científics. Concretament, els estudiants poden presentar per escrit els resultats d'una auditoria externa (sense la col·laboració de l'auditat), realitzada sobre un conjunt de dades existent o un servei en línia existent.

Objectius de Desenvolupament Sostenible

  • ODS5 - Igualtat de gènere
  • ODS10 - Reducció de les desigualtats

Prerequisits

El curs requereix que els estudiants coneguin mètodes bàsics d'aprenentatge automàtic i mètodes bàsics de mineria de dades, des de la preparació de dades fins a la modelització i l'anàlisi de dades.

Continguts

  • T01. Els riscos del tractament de dades: Introduïm els principals problemes que tractarem durant el curs, i presentem diferents conceptualitzacions d'aquests temes.
  • T02. Marcs ètics: analitzem marcs ètics que són rellevants per al processament de dades.
  • T03. Normativa de protecció de dades: descrivim la regulació de protecció de dades a Europa, centrant-nos en qüestions de protecció de dades.
  • T04. Control de divulgació estadística: presentem tecnologies per protegir la privadesa de les dades, amb èmfasi en l'anonimat k.
  • T05. Abordar els biaixos en el processament de dades: introduïm el feminisme de les dades i un marc per entendre els biaixos en el processament de dades socials.
  • T06. Regulació de l'elaboració de perfils i presa de decisions automatitzada: descrivim la regulació de la protecció de dades a Europa, centrant-nos en l'elaboració de perfils automatitzats i la presa de decisions algorítmica.
  • T07. Discriminació algorítmica: introduïm conceptualitzacions clau sobre la discriminació dins d'un sistema informàtic.
  • T08. Mesurar el biaix algorítmic en la classificació automàtica: introduïm mètriques per a l'equitat algorítmica en sistemes automatitzats utilitzats per a la classificació i la predicció.
  • T09. Mitigació de biaixos en la classificació automàtica: introduïm mètriques per a l'equitat algorítmica en sistemes automatitzats utilitzats per a la classificació i la predicció.
  • T10. L'equitat en el processament algorítmic: descrivim les preocupacions ètiques de l'equitat i com es poden traduir en requisits per als sistemes informàtics.
  • T11. Equitat i transparència en la classificació i recomanació: estudiem qüestions de biaix i transparència en el context dels sistemes d'informació per classificar persones o elements.
  • T12. Protecció de dades

Metodologia docent

El curs s'estructura al voltant de classes teòriques en les quals s'introdueixen els temes de l'assignatura.

En les sessions pràctiques opcionals, els estudiants poden rebre ajuda en els treballs de programació, que s'han d'entregar individualment.

En les sessions de seminari optatives, els estudiants treballen en grups reduïts analitzant un cas o un problema plantejat pel professor; aquests no estan qualificats.

Avaluació

L'avaluació contínua es basarà en els elements següents:

  • P = Mitjana de notes en pràctiques/deures = 25%
  • R = Projecte = 25%
  • M = Examen parcial = 20%
  • E = Examen final = 30%

El projecte consisteix a auditar un conjunt de dades concret o un servei en línia específic per a la discriminació algorítmica i presentar les conclusions quantitatives i qualitatives en un article breu (6 pàgines).

Per aprovar l'assignatura en avaluació contínua:

  • P ha de ser superior o igual a 5,0.
    0,4M + 0,6E ha de ser superior o igual a 5,0.
    0,25P + 0,25R + 0,20M + 0,30E ha de ser superior o igual a 5,0.

Si un estudiant no aprova, és necessari un examen de recuperació. L'examen de recuperació substitueix la nota final de l'examen (E a la llista anterior).

Bibliografia i recursos d'informació

  • Llibres principals:
    • O'neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Broadway Books.
    • Barocas, S., Hardt, M., Narayanan, A. (TBA). Fairness and machine learning: limitations and opportunities. Work in Progress.
  • Llibres recomanats:
    • Perez, C. C. (2019). Invisible women: Exposing data bias in a world designed for men. Random House.
    • D'Ignazio, C., & Klein, L. F. (2020). Data feminism. MIT Press.
    • Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin's Press.
    • Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. nyu Press.
    • Moreau, S. (2020). Faces of Inequality: A Theory of Wrongful Discrimination. Oxford University Press, USA.


Academic Year: 2022/23

8025 - Master in Intelligent Interactive Systems

32679 - Critical Data Studies


Teaching Guide Information

Academic Course:
2022/23
Academic Center:
802 - Masters Centre of the Engineering Department
Study:
8025 - Master in Intelligent Interactive Systems
Subject:
32679 - Critical Data Studies
Credits:
5.0
Course:
1
Teaching languages:
---
Teachers:
---
Teaching Period:
Indeterminat
Schedule:

Presentation

Critical Data Studies is an interdisciplinary subject offered by professors from three disciplines: computing, philosophy, and law.

The course seeks to train students in addressing issues of personal data protection, as well as those arising from two broad applications of intelligent systems: data-driven decision support, and automated decision making.

About half of the sessions cover computing technologies for, e.g., anonymizing data, or detecting and mitigating algorithmic bias. The other half of the sessions study different conceptualizations of power around data processing pipelines, analyze bias and discrimination in computer systems from a moral philosophy perspective, and overview the relevant legal frameworks for data processing.

The course includes 12 theory sessions for delivering and discussing the main concepts and methods. Optionally, students can attend 6 seminar sessions for case studies, not graded, and 6 practice sessions to receive help in the data analysis assignments. The evaluation will be done on the basis of a mid-term exam and a final exam (about the theory part), assignments (data analysis), and a report (algorithmic audit project.

The scope of the course are issues of fairness, accountability, transparency in data processing from an ethical, legal, and technological perspective.

  1. Personal data processing: privacy, confidentiality, surveillance, recourse, data collection and power differentials
  2. Data-driven decision support: biases and transparency in data processing, data-rich communication, and data visualization
  3. Automated decision making: conceptualizations of power and discrimination in scenarios with different degrees of automation.
  4. External algorithmic auditing in practice: data collection, metrics definition, metric boundaries, reporting.

Associated skills

CB8. That the students are able to integrate knowledge and face the complexity of making judgments on the basis of information that is incomplete or limited, including reflecting about the social and ethical responsibilities associated with the application of their knowledge and judgment.

CE1. Apply models and algorithms in machine learning, autonomous systems, natural language interaction, mobile robotics and/or web intelligence to a well-identified problem of intelligent systems.

Learning outcomes

E1)

  1. Solves problems related to interactive intelligent systems. Specifically, students can solve the problem of detecting and mitigating biases in such a system.
  2. Identifies the appropriate models and algorithms to solve a specific problem in the field of interactive intelligent systems. Specifically, students can identify data processing methods to reduce disclosure risk and to mitigate biases.
  3. Evaluates the result of applying a model or algorithm to a specific problem. Specifically, students can use standard metrics of algorithmic fairness, and at the same time understand the limitations of such metrics.
  4. Presents the result of the application of a model or algorithm to a specific problem according to scientific standards. Specifically, students can present in written the results of an external audit (without the collaboration of the auditee), performed over an existing dataset or an existing online service.

Sustainable Development Goals

  • SDG5 - Gender equality
  • SDG10 - Reduced inequalities

Prerequisites

The course requires students to know basic machine learning methods and basic data mining methods, from data preparation to data modeling and analysis.

Contents

T01. The risks of data processing: We introduce the main problems we will be dealing with during the course, and present different conceptualizations of these issues.
T02. Ethical frameworks and tools for auditing algorithms: We analyze the possibilities and limits of automatic auditing of data processing.
T03. Data protection regulation: We describe the regulation of data protection in Europe, focusing on data protection issues.
T04. Statistical Disclosure Control: We present technologies for protecting privacy on data, with an emphasis on k-anonymity.
T05. Addressing biases in data processing: We introduce data feminism and a framework to understand biases in social data processing.
T06. Regulation of automated profiling and decision making: We describe the regulation of data protection in Europe, focusing on automated profiling and algorithmic decision making.
T07. Algorithmic Discrimination: We introduce key conceptualizations around discrimination within a computer system.
T08. Measuring algorithmic bias in automatic classification: We introduce metrics for algorithmic fairness in automated systems used for classification and prediction.
T09. Mitigating biases in automatic classification: We introduce metrics for algorithmic fairness in automated systems used for classification and prediction.
T10. Fairness in algorithmic processing: We describe ethical concerns of fairness, and how can they be translated into requirements for computer systems.
T11. Fairness and transparency in ranking and recommendation: We study issues of bias and transparency in the context of information systems to rank people or items.
T12. Guest lecturer: data protection: We will host a guest lecture on data protection.

Teaching Methods

The course is structured around theory classes in which the topics of the course are introduced.
In optional practice sessions, students may receive help on the programming assignments, which are to be delivered individually.
In optional seminar sessions, students work in small groups analyzing a case or a problem posed by the professor; these are not graded.

Evaluation

Continuous evaluation will be based in the following elements:

  • P = Average of grades in practices/assignments = 25%
  • R = Project = 25%
  • M = Mid-term exam = 20%
  • E = Final exam = 30%

The project corresponds to auditing a specific dataset or a specific online service for algorithmic discrimination and presenting the quantitative and qualitative conclusions in a brief (6 pages) paper.

To pass the course under continuous evaluation:

  • P must be greater than or equal to 5.0.
  • 0.4M + 0.6E should be greater than or equal to 5.0.
  • 0.25P + 0.25R + 0.20M + 0.30E should be greater than or equal to 5.0.

If a student fails to pass, a resit exam is necessary. The resit exam replaces the final exam grade (E in the list above).

Bibliography and information resources

  • Main books:
    • O'neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Broadway Books.
    • Barocas, S., Hardt, M., Narayanan, A. (TBA). Fairness and machine learning: limitations and opportunities. Work in Progress.
  • Recommended books:
    • Perez, C. C. (2019). Invisible women: Exposing data bias in a world designed for men. Random House.
    • D'Ignazio, C., & Klein, L. F. (2020). Data feminism. MIT Press.
    • Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin's Press.
    • Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. nyu Press.
    • Moreau, S. (2020). Faces of Inequality: A Theory of Wrongful Discrimination. Oxford University Press, USA.


Curso Académico: 2022/23

8025 - Máster Universitario en Sistemas Inteligentes Interactivos

32679 - Estudios Críticos de Datos


Información de la Guía Docente

Curso Académico:
2022/23
Centro académico:
802 - Centro Másteres del Departamento de Ingeniería
Estudio:
8025 - Máster Universitario en Sistemas Inteligentes Interactivos
Asignatura:
32679 - Estudios Críticos de Datos
Créditos:
5.0
Curso:
1
Idiomas de docencia:
---
Profesorado:
---
Periodo de Impartición:
Indeterminat
Horario:

Presentación

Critical Data Studies (FATE) es una asignatura interdisciplinaria ofrecida por profesores de tres disciplinas: computación, filosofía y derecho.

El curso busca formar a los estudiantes en el tratamiento de temas de protección de datos personales, así como los que surgen de dos amplias aplicaciones de los sistemas inteligentes: soporte de decisiones basado en datos y toma de decisiones automatizada.

Aproximadamente la mitad de las sesiones cubren tecnologías informáticas para, por ejemplo, anonimizar datos o detectar y mitigar el sesgo algorítmico. La otra mitad de las sesiones estudian diferentes conceptualizaciones de poder en torno a las canalizaciones de procesamiento de datos, analizan el sesgo y la discriminación en los sistemas informáticos desde una perspectiva de filosofía moral y resumen los marcos legales relevantes para el procesamiento de datos.

El curso incluye 12 sesiones teóricas para entregar y discutir los principales conceptos y métodos. Opcionalmente, los estudiantes pueden asistir a 6 sesiones de seminario para estudios de casos, no calificados, y 6 sesiones de práctica para recibir ayuda en las tareas de análisis de datos. La evaluación se realizará sobre la base de un examen parcial y un examen final (sobre la parte teórica), trabajos (análisis de datos) y un informe (proyecto de auditoría algorítmica).

El alcance del curso son temas de equidad, responsabilidad, transparencia en el procesamiento de datos desde una perspectiva ética, legal y tecnológica.

  1. Procesamiento de datos personales: privacidad, confidencialidad, vigilancia, recurso, recopilación de datos y diferencias de poder
  2. Soporte de decisiones basado en datos: sesgos y transparencia en el procesamiento de datos, comunicación rica en datos y visualización de datos
  3. Toma de decisiones automatizada: conceptualizaciones de poder y discriminación en escenarios con diferentes grados de automatización.
  4. Auditoría algorítmica externa en la práctica: recopilación de datos, definición de métricas, límites de métricas, informes.

Competencias asociadas

CB8. Que los estudiantes sean capaces de integrar conocimientos y afrontar la complejidad de emitir juicios a partir de información incompleta o limitada, incluyendo la reflexión sobre las responsabilidades sociales y éticas asociadas a la aplicación de sus conocimientos y juicios.

CE1. Aplicar modelos y algoritmos en aprendizaje automático, sistemas autónomos, interacción de lenguaje natural, robótica móvil y/o inteligencia web a un problema bien identificado de sistemas inteligentes.

Resultados del aprendizaje

E1)

  • Resuelve problemas relacionados con sistemas inteligentes interactivos. Específicamente, los estudiantes pueden resolver el problema de detectar y mitigar sesgos en dicho sistema.
  • Identifica los modelos y algoritmos apropiados para resolver un problema específico en el campo de los sistemas inteligentes interactivos. Específicamente, los estudiantes pueden identificar métodos de procesamiento de datos para reducir el riesgo de divulgación y mitigar los sesgos.
  • Evalúa el resultado de aplicar un modelo o algoritmo a un problema específico. Específicamente, los estudiantes pueden usar métricas estándar de equidad algorítmica y, al mismo tiempo, comprender las limitaciones de dichas métricas.
  • Presenta el resultado de la aplicación de un modelo o algoritmo a un problema específico según estándares científicos.  Específicamente, los estudiantes pueden presentar por escrito los resultados de una auditoría externa (sin la colaboración del auditado), realizada sobre un conjunto de datos existente o un servicio en línea existente.

Objetivos de Desarrollo Sostenible

  • ODS5 - Igualdad de género
  • ODS10 - Reducción de las desigualdades

Prerrequisitos

El curso requiere que los estudiantes conozcan métodos básicos de aprendizaje automático y métodos básicos de minería de datos, desde la preparación de datos hasta el modelado y análisis de datos.

Contenidos

  • T01. Los riesgos del procesamiento de datos: presentamos los principales problemas que abordaremos durante el curso y presentamos diferentes conceptualizaciones de estos temas.
  • T02. Marcos éticos: Analizamos marcos éticos relevantes para el tratamiento de datos.
  • T03. Regulación de protección de datos: Describimos la regulación de protección de datos en Europa, centrándonos en cuestiones de protección de datos.
  • T04. Control de divulgación estadística: presentamos tecnologías para proteger la privacidad de los datos, con énfasis en el k-anonimato.
  • T05. Abordar los sesgos en el procesamiento de datos: presentamos el feminismo de datos y un marco para comprender los sesgos en el procesamiento de datos sociales.
  • T06. Regulación de la elaboración automática de perfiles y toma de decisiones: Describimos la regulación de la protección de datos en Europa, centrándonos en la elaboración automática de perfiles y la toma algorítmica de decisiones.
  • T07. Discriminación algorítmica: presentamos conceptualizaciones clave en torno a la discriminación dentro de un sistema informático.
  • T08. Medición del sesgo algorítmico en la clasificación automática: presentamos métricas para la equidad algorítmica en los sistemas automatizados utilizados para la clasificación y la predicción.
  • T09. Mitigación de sesgos en la clasificación automática: presentamos métricas para la equidad algorítmica en los sistemas automatizados utilizados para la clasificación y la predicción.
  • T10. Equidad en el procesamiento algorítmico: Describimos las preocupaciones éticas de la equidad y cómo pueden traducirse en requisitos para los sistemas informáticos.
  • T11. Imparcialidad y transparencia en la clasificación y recomendación: Estudiamos cuestiones de sesgo y transparencia en el contexto de los sistemas de información para clasificar personas o artículos.
  • T12. Protección de datos: Presentaremos una charla sobre protección de datos.

Metodología docente

El curso se estructura en torno a clases teóricas en las que se introducen los temas del curso.
En las sesiones de prácticas optativas, los alumnos podrán recibir ayuda en los trabajos de programación, que se entregarán individualmente.
En las sesiones optativas de seminario, los alumnos trabajan en pequeños grupos analizando un caso o problema planteado por el profesor; estos no están calificados.

Evaluación

La evaluación continua se basará en los siguientes elementos:

  • P = Promedio de notas en prácticas/trabajos = 25%
  • R = Proyecto = 25%
  • M = Examen parcial = 20%
  • E = Examen final = 30%

El proyecto corresponde a auditar un conjunto de datos específico o un servicio en línea específico para la discriminación algorítmica y presentar las conclusiones cuantitativas y cualitativas en un breve documento (6 páginas).

Para aprobar la asignatura en evaluación continua:

  • P debe ser mayor o igual a 5.0.
  • 0.4M + 0.6E debe ser mayor o igual a 5.0.
  • 0.25P + 0.25R + 0.20M + 0.30E debe ser mayor o igual a 5.0.

Si un estudiante no aprueba, es necesario un examen de recuperación. El examen de recuperación reemplaza la calificación del examen final (E en la lista anterior).

Bibliografía y recursos de información

  • Libros principales:
    • O'neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Broadway Books.
    • Barocas, S., Hardt, M., Narayanan, A. (TBA). Fairness and machine learning: limitations and opportunities. Work in Progress.
  • Libros recomendados:
    • Perez, C. C. (2019). Invisible women: Exposing data bias in a world designed for men. Random House.
    • D'Ignazio, C., & Klein, L. F. (2020). Data feminism. MIT Press.
    • Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin's Press.
    • Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. nyu Press.
    • Moreau, S. (2020). Faces of Inequality: A Theory of Wrongful Discrimination. Oxford University Press, USA.