你所在的位置: 首页 > 正文

数字经济VS数据隐私,冲突越来越大,舍谁取谁?

2019-11-08 点击:1992

《荔枝核特刊》记者/丁凤云

随着5G和人工智能深入日常生活,人脸识别、指纹采集、定向推送等带来便利的同时也让每个人在大数据下“裸奔”。在乌镇举行的第六届世界互联网大会上,一些与会者讨论了互联网空之间数据的法律保护问题。每个人都同意公共权力的强制执行、技术保护和私人诉讼都是可行的方法,关键是在数据开发和隐私保护之间找到平衡。

作为一家互联网公司的高管和互联网用户,百度集团副总裁梁志祥直言不讳地表示,他在参加此次互联网会议时对快速人脸识别技术有些惊讶。“当我离大门大约两米远的时候,我被非常准确地认出来,比我通过飞机安检的时候还快,我不在乎你是胖还是瘦。” 同时,也有一些担忧。像所有网民一样,他想问:这东西会偷看我吗?你会强迫我吗?你能控制我吗?他认为技术发展必须遵守用户隐私的红线:“首先,你应该充分告知用户它能看到什么,你能得到什么。” 第二,你应该给用户这个权利,不能强迫用户做事情。 第三,当它不喜欢某样东西时,它有权说不 "

当然,从法律角度来看,这条红线有点“弱” 北京大学法学院教授张平表示,他们已经连续五年从个人信息和隐私保护的角度观察和评估企业的隐私政策。他们发现数据治理和数据经济越来越矛盾。在早期,每个人都在谈论合规,但现在“合规”已经变成了“名义上的”。她认为,在大数据收集和深入分析的必然趋势下,有必要在数据合规性和公共政策之间找到平衡:“尽管法律要求这些企业在隐私、控制、删除和其他权利方面要有同意和知识,但实际上不可能做到这一点。” 现在已经到了这样一个程度,有些企业认为隐私政策企业在有法律纠纷时只是说说而已,也就是说,它可以给法院一个善意的证明。我确实提前通知了你,你同意了 “

刚刚陷入困境?与会者提出“科学技术是好的”。张平认为,企业有责任以有序和合乎道德的方式使用数据。 梁志祥说,技术不仅可以确定隐私,还可以保护隐私。这项技术本身是中性的。例如,有了隐私合作助理,你可以测试你是否偷看了你的隐私:“这意味着所有类型的数据都可以被提供和隐藏,更多的医疗数据可以帮助人们创造更好的药物来消除和治疗癌症,但是你不能透露谁患有癌症。” "

阿里巴巴的合作伙伴赢驷认为,算法创新已经成为全球创新的高地 一方面,我们担心该算法违反伦理道德、算法的黑箱和算法的共谋,并期望该算法是透明的、可解释的和开放的。 然而,另一方面,算法不应该单独管理,而应该围绕应用程序场景进行管理。 例如,公共管理和服务领域的算法应该是开放、透明和可预测的。 私营部门的算法应保持其专利或商业秘密属性,鼓励其不断创新,并通过商业价值和竞争超越算法的共谋:“应测试涉及人类生命安全的特殊领域的算法,以建立用户使用的信心。” "

特别声明:这篇文章是由网易自主媒体平台"网易No "的作者上传发布的。“它只代表了作者的观点。 网易只提供信息发布平台

跟随帖子

跟随帖子

0

参与

0

阅读下一篇

国庆节,300个城市土地出让收入公布,家奴含泪

返回网易家园

下载网易新闻客户端

荔枝特刊特约撰稿人/丁凤云

随着5G和人工智能深入日常生活,人脸识别、指纹采集、定向推送等。带来便利的同时,也允许每个人在大数据下“裸奔”。在乌镇举行的第六届世界互联网大会上,一些与会者讨论了网络空之间数据的法律保护问题。每个人都同意公共权力的强制执行、技术保护和私人诉讼都是可行的方法,关键是在数据开发和隐私保护之间找到平衡。

作为一家互联网公司的高管和互联网用户,百度集团副总裁梁志祥直言不讳地表示,他在参加此次互联网会议时对快速人脸识别技术有些惊讶。“当我离大门大约两米远的时候,我被非常准确地认出来,比我通过飞机安检的时候还快,我不在乎你是胖还是瘦。” 同时,也有一些担忧。像所有网民一样,他想问:这东西会偷看我吗?你会强迫我吗?你能控制我吗?他认为技术发展必须遵守用户隐私的红线:“首先,你应该充分告知用户它能看到什么,你能得到什么。” 第二,你应该给用户这个权利,不能强迫用户做事情。 第三,当它不喜欢某样东西时,它有权说不 "

当然,从法律角度来看,这条红线有点“弱” 北京大学法学院教授张平表示,他们已经连续五年从个人信息和隐私保护的角度观察和评估企业的隐私政策。他们发现数据治理和数据经济越来越矛盾。在早期,每个人都在谈论合规,但现在“合规”已经变成了“名义上的”。她认为,在大数据收集和深入分析的必然趋势下,有必要在数据合规性和公共政策之间找到平衡:“尽管法律要求这些企业在隐私、控制、删除和其他权利方面要有同意和知识,但实际上不可能做到这一点。” 现在已经到了这样一个程度,有些企业认为隐私政策企业在有法律纠纷时只是说说而已,也就是说,它可以给法院一个善意的证明。我确实提前通知了你,你同意了 “

刚刚陷入困境?与会者提出“科学技术是好的”。张平认为,企业有责任以有序和合乎道德的方式使用数据。 梁志祥说,技术不仅可以确定隐私,还可以保护隐私。这项技术本身是中性的。例如,有了隐私合作助理,你可以测试你是否偷看了你的隐私:“这意味着所有类型的数据都可以被提供和隐藏,更多的医疗数据可以帮助人们创造更好的药物来消除和治疗癌症,但是你不能透露谁患有癌症。” "

阿里巴巴的合作伙伴赢驷认为,算法创新已经成为全球创新的高地 一方面,我们担心该算法违反伦理道德、算法的黑箱和算法的共谋,并期望该算法是透明的、可解释的和开放的。 然而,另一方面,算法不应该单独管理,而应该围绕应用程序场景进行管理。 例如,公共管理和服务领域的算法应该是开放、透明和可预测的。 私营部门的算法应保持其专利或商业秘密属性,鼓励其不断创新,并通过商业价值和竞争超越算法的共谋:“应测试涉及人类生命安全的特殊领域的算法,以建立用户使用的信心。” “

荔枝专报/丁凤云

随着5G和人工智能深入日常生活、人脸识别、指纹采集、定向推送等。带来便利的同时,也允许每个人在大数据下“裸奔”。在乌镇举行的第六届世界互联网大会上,一些与会者讨论了网络空之间数据的法律保护问题。每个人都同意公共权力的强制执行、技术保护和私人诉讼都是可行的方法,关键是在数据开发和隐私保护之间找到平衡。

作为一家互联网公司的高管和互联网用户,百度集团副总裁梁志祥直言不讳地表示,他在参加此次互联网会议时对快速人脸识别技术有些惊讶。“当我离大门大约两米远的时候,我的身份识别非常准确,比我通过飞机安检的时候要快,我不在乎你是胖还是瘦。” 同时,也有一些担忧。像所有网民一样,他想问:这东西会偷看我吗?你会强迫我吗?你能控制我吗?他认为技术发展必须遵守用户隐私的红线:“首先,你应该充分告知用户它能看到什么,你能得到什么。” 第二,你应该给用户这个权利,不能强迫用户做事情。 第三,当它不喜欢某样东西时,它有权说不 "

当然,从法律角度来看,这条红线有点“弱” 北京大学法学院教授张平表示,他们已经连续五年从个人信息和隐私保护的角度观察和评估企业的隐私政策。他们发现数据治理和数据经济越来越矛盾。在早期,每个人都在谈论合规,但现在“合规”已经变成了“名义上的”。她认为,在大数据收集和深入分析的必然趋势下,有必要在数据合规性和公共政策之间找到平衡:“尽管法律要求这些企业在隐私、控制、删除和其他权利方面要有同意和知识,但实际上不可能做到这一点。” 现在已经到了这样一个程度,有些企业认为隐私政策企业在有法律纠纷时只是说说而已,也就是说,它可以给法院一个善意的证明。我确实提前通知了你,你同意了 “

刚刚陷入困境?与会者提出“科学技术是好的”。张平认为,企业有责任以有序和合乎道德的方式使用数据。 梁志祥说,技术不仅可以确定隐私,还可以保护隐私。这项技术本身是中性的。例如,有了隐私合作助理,你可以测试你是否偷看了你的隐私:“这意味着所有类型的数据都可以被提供和隐藏,更多的医疗数据可以帮助人们创造更好的药物来消除和治疗癌症,但是你不能透露谁患有癌症。” "

阿里巴巴的合作伙伴赢驷认为,算法创新已经成为全球创新的高地 一方面,我们担心该算法违反伦理道德、算法的黑箱和算法的共谋,并期望该算法是透明的、可解释的和开放的。 然而,另一方面,算法不应该单独管理,而应该围绕应用程序场景进行管理。 例如,公共管理和服务领域的算法应该是开放、透明和可预测的。 私营部门的算法应保持其专利或商业秘密属性,鼓励其不断创新,并通过商业价值和竞争超越算法的共谋:“应测试涉及人类生命安全的特殊领域的算法,以建立用户使用的信心。” "

特别声明:这篇文章是由网易自主媒体平台"网易No "的作者上传发布的。“它只代表了作者的观点。 网易只提供信息发布平台

跟随帖子

跟随帖子

0

参与

0

阅读下一篇

国庆节,300个城市土地出让收入公布,家奴含泪

返回网易家园

下载网易新闻客户端

荔枝特刊特约撰稿人/丁凤云

随着5G和人工智能深入日常生活,人脸识别、指纹采集、定向推送等。带来便利的同时,也允许每个人在大数据下“裸奔”。在乌镇举行的第六届世界互联网大会上,一些与会者讨论了网络空之间数据的法律保护问题。每个人都同意公共权力的强制执行、技术保护和私人诉讼都是可行的方法,关键是在数据开发和隐私保护之间找到平衡。

作为一家互联网公司的高管和互联网用户,百度集团副总裁梁志祥直言不讳地表示,他在参加此次互联网会议时对快速人脸识别技术有些惊讶。“当我离大门大约两米远的时候,我被非常准确地认出来,比我通过飞机安检的时候还快,我不在乎你是胖还是瘦。” 同时,也有一些担忧。像所有网民一样,他想问:这东西会偷看我吗?你会强迫我吗?你能控制我吗?他认为技术发展必须遵守用户隐私的红线:“首先,你应该充分告知用户它能看到什么,你能得到什么。” 第二,你应该给用户这个权利,不能强迫用户做事情。 第三,当它不喜欢某样东西时,它有权说不 "

当然,从法律角度来看,这条红线有点“弱” 北京大学法学院教授张平表示,他们已经连续五年从个人信息和隐私保护的角度观察和评估企业的隐私政策。他们发现数据治理和数据经济越来越矛盾。在早期,每个人都在谈论合规,但现在“合规”已经变成了“名义上的”。她认为,在大数据收集和深入分析的必然趋势下,有必要在数据合规性和公共政策之间找到平衡:“尽管法律要求这些企业在隐私、控制、删除和其他权利方面要有同意和知识,但实际上不可能做到这一点。” 现在已经到了这样一个程度,有些企业认为隐私政策企业在有法律纠纷时只是说说而已,也就是说,它可以给法院一个善意的证明。我确实提前通知了你,你同意了 “

刚刚陷入困境?与会者提出“科学技术是好的”。张平认为,企业有责任以有序和合乎道德的方式使用数据。 梁志祥说,技术不仅可以确定隐私,还可以保护隐私。这项技术本身是中性的。例如,有了隐私合作助理,你可以测试你是否偷看了你的隐私:“这意味着所有类型的数据都可以被提供和隐藏,更多的医疗数据可以帮助人们创造更好的药物来消除和治疗癌症,但是你不能透露谁患有癌症。” "

阿里巴巴的合作伙伴赢驷认为,算法创新已经成为全球创新的高地 一方面,我们担心该算法违反伦理道德、算法的黑箱和算法的共谋,并期望该算法是透明的、可解释的和开放的。 然而,另一方面,算法不应该单独管理,而应该围绕应用场景进行管理。 例如,公共管理和服务领域的算法应该是开放、透明和可预测的。 私营部门的算法应保持其专利或商业秘密属性,鼓励其不断创新,并通过商业价值和竞争超越算法的共谋:“应测试涉及人类生命安全的特殊领域的算法,以建立用户使用的信心。” “

荔枝专报/丁凤云

随着5G和人工智能深入日常生活、人脸识别、指纹采集、定向推送等。带来便利的同时,也允许每个人在大数据下“裸奔”。在乌镇举行的第六届世界互联网大会上,一些与会者讨论了网络空之间数据的法律保护问题。每个人都同意公共权力的强制执行、技术保护和私人诉讼都是可行的方法,关键是在数据开发和隐私保护之间找到平衡。

作为一家互联网公司的高管和互联网用户,百度集团副总裁梁志祥直言不讳地表示,他在参加此次互联网会议时对快速人脸识别技术有些惊讶。“当我离大门大约两米远的时候,我的身份识别非常准确,比我通过飞机安检的时候要快,我不在乎你是胖还是瘦。” 同时,也有一些担忧。像所有网民一样,他想问:这东西会偷看我吗?你会强迫我吗?你能控制我吗?他认为技术发展必须遵守用户隐私的红线:“首先,你应该充分告知用户它能看到什么,你能得到什么。” 第二,你应该给用户这个权利,不能强迫用户做事情。 第三,当它不喜欢某样东西时,它有权说不 "

当然,在法律层面来说,这道红线有点“弱”。北京大学法学院教授张平说,他们最近连续5年针对个人信息和隐私保护,进行了企业的隐私政策的观察和测评,发现数据治理和数据经济越发冲突,早期大家还在讲合规,但现在“合规”变得“徒有虚名”,她认为,在大数据的收集和深度分析是必然趋势之下,需要在数据合规和公共政策之间寻找一个平衡点:“尽管法律要求这些企业在隐私上要有同意和知情,还要有控制,还有删除等等一些权利,但实际上是做不到的。现在已经到了这样一个程度:有些企业把隐私政策企业作为了在发生法律纠纷的时候的说辞而已,也就是它能够给法院做一个善意的证明,我事先确实是通知你了,你又同意了。”

就这样陷入了僵局?与会嘉宾纷纷提出了“科技向善”, 张平认为企业有责任去有序、有伦理地使用数据。梁志祥则表示,技术不仅可以探知隐私,也可以保护隐私,技术本身是中立的,比如用隐私合作助手,能够测试到有没有窥视你的隐私:“它的意思就是说让各种数据变成可用不可见,可以有更多的医疗数据去帮助人们制造出更好的药来消除、治疗癌症,但是你不能暴露是谁得了癌症。”

阿里巴巴合伙人俞思瑛认为,算法创新已经成为全球创新的高地。一方面,我们会担心算法违反伦理道德、算法黑箱、算法合谋,期待算法的可透明、可解释性、可公开性。但另一方面,算法也不应被单独治理,而应该围绕着应用场景治理。比如公共管理和服务领域的算法,应该公开透明,有预见性。私人领域的算法,应当保持其专利或商业秘密属性,通过商业价值和竞争以激励其持续创新和超越算法合谋:“涉及到人的生命安全方面的特殊领域的算法,那么就应当接受检验,以建立起让用户使用的信心。”

-

楚汉新闻 版权所有© www.airkatknives.com 技术支持:楚汉新闻 | 网站地图