如何实现环境公平(适应环境变化的公平意识在线元学习)

赵辰:

美国Kitware公司高级研发工程师,博士毕业于美国得克萨斯大学达拉斯分校计算机专业。主要研究方向公平性学习在数据发掘,机器学习,深度学习上的研究和应用。在包括KDD,AAAI,WWW,ICDM等会议与期刊上发表过多篇论文,并受邀担任KDD,AAAI,ICDM,AISTATS等人工智能领域顶级国际会议程序委员和审稿人,并组织和担任KDD workshop的主持。

公平意识在线学习框架已成为持续终身学习设置的强大工具。学习者的目标是顺序地学习新任务,这些新任务随着时间的推移一个接一个地出现,学习者确保新任务在不同的受保护亚种群(如种族和性别)中统计均等。现有方法的一个主要缺点是它们大量使用数据i.i.d的假设,从而为框架提供静态的遗憾分析。然而,在任务从异构分布中采样的不断变化的环境中,低静态遗憾并不意味着良好的性能。为了解决变化环境下的公平感知在线学习问题,本文首先在强适应的损失后悔中加入长期公平约束,构建了一种新的遗憾度量FairSAR。此外,为了在每一轮中确定一个好的模型参数,我们提出了一种新的自适应公平感知在线元学习算法FairSAOML,该算法在偏差控制和模型精度方面都能够适应变化的环境。该问题以双水平凸凹优化的形式表达,分别与模型的精度和公平性相关的原始参数和耦合参数。理论分析给出了损失遗憾和违反累积公平约束的次线性上界。我们在不同的真实数据集上的实验评估表明,本文所提出的FairSAOML明显优于其他相关在线学习方法。


Why Fairness in ML is important?

通常我们会看到很多新闻,这些新闻在描述很高科技AI产品时会有一些对于系统的偏见。比如前几年一条新闻,谷歌照片错误的把一些黑人标注成猩猩。

如何实现环境公平(适应环境变化的公平意识在线元学习)(1)

Motivations – Example 1

再比如说,在预测犯罪数量的模型中会更多的偏向于非洲裔和黑人社区。

如何实现环境公平(适应环境变化的公平意识在线元学习)(2)

General Model (通用模型)

如何实现环境公平(适应环境变化的公平意识在线元学习)(3)

这篇文章讲到在进行照片分类的时候,这些照片主要是描述男生和女生在做饭的照片,我们要预测的是这些男生女生各自是否分别在cooking。

Unfair Dependency

这些例子都说明在数据中有一些敏感性信息,我们将其叫做sensitive feature,这些信息包括其种族、性别等等。这些信息会影响到预测的结果,这些信息也会对模型产生一些偏差。

如何实现环境公平(适应环境变化的公平意识在线元学习)(4)

A General Form of Fairness-Aware Problems

在没有考虑到fairness的时候,我们只是单独的最小化loss。当考虑到fairness的时候,我们通常会用一个函数描述年龄、种族这些敏感信息。

我们在不断最小化loss的时候,同样也按我们的方式在fair domain中进行。

如何实现环境公平(适应环境变化的公平意识在线元学习)(5)

Dependence Score Function g(•)

如何实现环境公平(适应环境变化的公平意识在线元学习)(6)

常见的g(•)包括很多种,其可以粗略的分为Parametric和Non-parametric。我们用Categories of g(•)中的Demographic Parity作为一个例子来描述g(•)可以这样去演绎。

Linear Relaxation of The Selected

最常见的Demographic Parity可以描述为:假如将group分为两个种族——黑人和非黑人,男生和女生等等。这样就可以转化成两个种族之间的差,涉及到的indicator function在优化中是一个非凸的function。

如何实现环境公平(适应环境变化的公平意识在线元学习)(7)

How to Control Bias with Multiple Tasks?

如何实现环境公平(适应环境变化的公平意识在线元学习)(8)

这篇文章也是在说当你有很多任务的时候,如何学习到一个shared model使得所有的task共享模型,以达到统一的fairness。

Motivation (Meta-Learning, a.k.a. Learning to Learn)

对于传统型的元学习模型来说,可能更多的是训练好模型,并泛化到它的task domain上得到结果。

如何实现环境公平(适应环境变化的公平意识在线元学习)(9)

其中,我们考虑到元学习可能是解决motive task的一个比较好的技术。元学习区别于机器学习模型的点在于可以学一个meta-learner并转移学到的知识去testing domain上。

或者也可以将meta-learning理解为learning to learn。

Intuitions of Meta Learning

我们可以看到,machine learning其实是可以被看成训练一个模型参数。当你用一个神经网络训练一个模型的时候,更多的是在乎神经网络模型中的参数是如何训出来的,后续再运用参数到testing domain上。

如何实现环境公平(适应环境变化的公平意识在线元学习)(10)

而meta-learing不再是学一个模型的参数了,而是学习算法。这个算法的目的是帮助我们更好的找到模型的参数是什么。具体到算法来说,这个模型可以是很多含义,甚至被考虑为超参。

An Example Diagram of Meta-Learning

通常来说,meta-learning会把task分为training和testing两个部分。每个task也会被分为support和query。其实可以简单的想象为每个task之中还会分为test和training。

如何实现环境公平(适应环境变化的公平意识在线元学习)(11)

Fairness-Aware Meta-Learning

Meta-learning的工作还有很多,这里主要介绍了最常用的模型。

如何实现环境公平(适应环境变化的公平意识在线元学习)(12)

主要来说,我们研究的是一个Bi-Level optimization problem,其存在一个inner-level和outer-level。每一个level都是用来控制fairness level的,一个是从task角度,另一个是从全局角度。

A Brief Introduction to The Working Paradigm of Online Learning

无论如何,目前的工作都是基于off-line learning,off-line learning可以想成所有task是一起给来训练的,而online learning在生活中则更符合现实。

如何实现环境公平(适应环境变化的公平意识在线元学习)(13)

Task不是一股脑给的,而是随着时间顺序一点一点给的,可以随着时间顺序一点点的适应模型。

Fairness-Aware Online Meta-Learning with Multiple Tasks

综合来说,这种Fairness-Aware Online Meta-Learning有很多task,步骤大致如下图所示:

如何实现环境公平(适应环境变化的公平意识在线元学习)(14)

在时间为t-1时,有这样一个meta-level模型;当时间为t,即新的任务来到时,采用θt对新的task进行测试,测试结果也会被记录下来,包括那些loss都会被记录下来。然后,我们会把新学的task囊括进来之后再去学θt 1这样一个参数。之后,我们再move到新的循环。

如何在这个过程中学到新的meta-level参数,是一个比较重要的关键点。

Two Papers

针对这个问题,我们也针对性的做了一些拓展。

如何实现环境公平(适应环境变化的公平意识在线元学习)(15)

在今年的研究中,我们主要关注domain generalization的问题,即task可能并不是来自同一个domain。

The Learning Protocol

做一个形象的比喻,这可以看着learner和adversary之间的一个对抗游戏。

如何实现环境公平(适应环境变化的公平意识在线元学习)(16)

第一步的时候,learner会用一个算法来选择θt,adversary把loss function和fairness function传回给learner,learner会用这些结合θt算出一个loss和notion并move到下一个循环中。

Static Regret in Fairness-Aware Online Meta-Learning

整个的online meta-learning可以被看成在最小化一个regret。

如何实现环境公平(适应环境变化的公平意识在线元学习)(17)

无论怎样,上述两个已知工作最大的假设就是:所有的task来自同一个domain,我们要考虑的就是task domain在某一时间点发生变化的时候,work该怎样快速适应这个方式。

Adaptive Fairness-Aware Online Meta-Learning for Changing Environments

如何实现环境公平(适应环境变化的公平意识在线元学习)(18)

我们接下来的工作就是研究在domain发生变化的时候,如何快速适应新的domain?

Recall the Learning Protocol

刚刚也说了,如何研究出这样一个算法其实是online-learning中比较重要的一步。

如何实现环境公平(适应环境变化的公平意识在线元学习)(19)

假设我们已经有了这个算法并命名为K,接下来在适应不同domain时就可以将每个task新来时建立的interval统一传入上图中灰色最大的方框meta-level parameter。

每个interval t’只是用了这个时间点t的数据。根据我们之前配置的算法,就能针对每个interval都得到一个meta-level parameter。我们对所有的结果进行加权平均就得到了最后的meta-level parameter。当有θt’时,interval t’ 1也被加入进来。为了能够更好地适应新的domain,我们通常会让权重在新的domain上更大,也使得新学的meta-level parameter更偏向于后面的domain。这样也使得任务更好的去进行适应。

Strongly Adaptive Regret in Fairness-Aware Online Meta-Learning

如何实现环境公平(适应环境变化的公平意识在线元学习)(20)

刚刚我们也说了,当有很多interval的时候,regret也会在变。针对之前work而言有很多的interval,loss regret也就变成了让所有interval里挑出最大的regret进行最小化。对于fairness notion来说,我们对每个interval都计算出一个fairness notion,然后挑出最大的fairness notion进行最小化。

Updating Interval Parameters Leads to High Time Complexity

如何实现环境公平(适应环境变化的公平意识在线元学习)(21)

这个方法其实还是有一定缺陷的,最大的缺陷在于interval会随着时间的增多而增大,并呈线性增长。其时间复杂度也会很大,针对这个问题也引出了我们的work。

Adaptive Geometric Covering (AGC) Intervals

我们的巧妙设计是为了使其时间复杂度没有那么高,而将所有的interval用一个log的方式分为了4个不同set,每个set中的interval长度是一样的。

如何实现环境公平(适应环境变化的公平意识在线元学习)(22)

我们粗略的用log对数以2为底,但是其实我们将底换为3或5也是可以的。我们可以算出每个set的固定长度。

Target Set – A Selected Subset of Intervals

每个时间点,我们会取一定的interval set,即target set。其中囊括了所有的interval,但却是以时间点开头的。

如何实现环境公平(适应环境变化的公平意识在线元学习)(23)

The Learning Experts

然后我们构建了一个算法,令每一个interval可以想象成expert的learning process。这个expert process有两部分,分别是active experts和sleeping experts。但是那些expert是active experts或sleeping experts呢?这是在动态变化的。随着t变化,expert中哪些是active expert是变化的。

如何实现环境公平(适应环境变化的公平意识在线元学习)(24)

具体来说,当我们拿到一个target set的时候,target set 这些interval里面对应的expert会被激活。区别于sleeping expert,active experts会主动更新,然后通过learning process更新parameter。我们最终将其进行整合,去学习下一个时间点的meta-level parameter。

Learning with Experts (t=1)

为了区分active experts和sleeping experts,我们在下面举了一些例子。

如何实现环境公平(适应环境变化的公平意识在线元学习)(25)

如何实现环境公平(适应环境变化的公平意识在线元学习)(26)

如何实现环境公平(适应环境变化的公平意识在线元学习)(27)

在t=1的时候,active experts选择的是每个set的第一个当作target set。在t=2的时候,我们只有一个被选入了target set,这样也就激活了第一个为active experts,剩下的就是sleeping experts。在t=3的时候,以此类推。

Problem Formulation

如何实现环境公平(适应环境变化的公平意识在线元学习)(28)

Problem Formulation可以分为两部分,一部分是interval-level parameter updates。这个地方就是简单用了一步到几步的更新步骤,也符合memo在offline上的更新方法。

另外,我们对meta-level parameter updates来说分为active experts和sleeping experts。这里面的weights用p表示,每个expert如何更新就是用新更新的meta-level parameter和task-level parameter之间的差别来更新weight。

Bi-Level Optimization

如何实现环境公平(适应环境变化的公平意识在线元学习)(29)

接下来的整个优化过程可以被看作是一个Bi-Level Optimization双层优化。这样其实也是一种你中有我,我中有你的过程。Interval-level的一个output被当成了meta-level的input,meta-level的output也会被当成interval-level的input,这样不断进行迭代更新。

Algorithm Analysis

如何实现环境公平(适应环境变化的公平意识在线元学习)(30)

对于算法分析,其最主要的目的还是最小化regret。我们列举了一些不同的算法来应对相同问题在不同场景中的regret分析。如上图红框所示,我们的方法被列举在最后面,其实在loss regret上并没有很大的提升。我们指出了constraint violation,在这里也算是一个较大的贡献。

Experiments

如何实现环境公平(适应环境变化的公平意识在线元学习)(31)

为了更好的展现实验结果,我们选择了两个case。第一个case是说fairness level从高到低和从低到高能够使得我们模型更好地适应两种不同的changing environments。

MovieLens就是一个简单的datasets,我们为了将其设计成适应我们的主题。我们把它变成了3个不同的copy,不同的copy是不一样的东西。第二个copy中的explainable features乘以-1,这样也得以和第一个、第三个加以区分。

继续我们的实验,我们考虑了3个evaluation。前两个是fairness machine learning中最常用的evaluation metrics,同时我们还兼顾到模型的预测准确率。

Key Results

如何实现环境公平(适应环境变化的公平意识在线元学习)(32)

从实验结果可以看到,我们针对这3种metrics和datasets。我们考虑到了7个不同的baseline methods。这7个baseline methods可以分为两类。一类是online learning或changing environments,并没有考虑到fairness。这也是很多算法常常会忽略的一部分。还有一类本身就是online上针对fairness learning的,但是它们并没有考虑到changing environments。

通过和这些方法的对比,我们发现我们的方法能够做到很好的适应环境变化,但是在模型准确率方面并没有取得最好的效果。这也可能是因为fairness和accuracy因为domain发生变化而无法兼顾而导致的。

如何实现环境公平(适应环境变化的公平意识在线元学习)(33)

之后,我们主要研究的是为什么我们的模型可以很好的adapt。我们发现weights扮演了一个重要的角色,expert的weights在每个domain上都在发生周期性的变化。对于一些比较长的interval,它的expet weights是在不断增长的,对于模型来说是有一定稳定型的。

,

免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com

    分享
    投诉
    首页