双工造成如此多涟漪的部分原因是,天津包装设计公司使人瞥见了一个反乌托邦式的未来-人类无法分辨自己是否在与AI对话(这使许多人怀疑图灵测试是否通过了)通过这项新技术)。在此之前,语音助手还无法进行听起来自然的对话。
这本身就引起了愤怒-评论员指出,当天津包装设计公司听起来不错的AI毫无疑问地对服务人员和呼叫中心员工进行试验时,就会出现道德问题。Google 对此大声疾呼,声称Duplex的工作版本应具有内置身份的能力。
但是,不管AI是否能自我识别,对于任何人来说,考虑使用此技术是否需要更改其身份验证过程,这只猫都已经脱颖而出–无疑,答案是肯定的。如何准确地更改流程的关键在于,是否需要AI进行自我识别-无论是Google本身,政府还是任何其他监管机构。
如果要求AI自我识别自己并声明自己是在代表人类行事,那么代理人是否应该像他们是人类那样回应自己的愿望?我可以轻松地设想AI最终可以付款,更改数据或执行对客户或公司有影响的任何其他流程的情况-仅让客户响应AI的行为是错误的,并且未经其授权。那么,我们如何确定人工智能行动背后的人的意图呢?
如果不需要AI进行自我识别,那么围绕信任和标准的问题就会出现。就目前而言,像天津包装设计公司这样的技术仅在有限的情况下才有效,这使得提出AI程序之外的问题很容易来测试它是否是机器人(例如,“谁是机器人的总裁”)。美国?”)。
让代理问这些类型的问题,以试图从人类身上清除“机器人”是相当简单的。但是随着AI变得越来越智能,这些问题将如何演变?它们是否会构成我们必须让毫无戒心的客户要面对的新的,更具侵入性的数据保护流程层?当我们与无法回答这些问题的人类顾客交谈时,会发生什么情况?这是由于健康问题,缺乏共同的文化理解或其他原因?我们能注定要像无情的机器人那样被对待吗?
说到感觉,天津包装设计公司带来了很大的问题,即将来将如何构成有效的客户服务。我们当前以人为本的最佳客户体验模型是在这样的前提下进行的:如果您专注于快速,准确且友好地解决问题,则很可能会取得良好的客户成果。
但AI却没有。世界上的所有美好事物和闲聊对他们都不重要。考虑到人类和AI在解决问题期间有不同的需求和优先级,我们可以看到出现了两组截然不同的标准。
第一个与人类的服务标准有关。作为人类千百年来一直以相同的方式进行思考和感受的人,我看不到它们在未来会发生巨大的革命。但是第二组服务标准与我们如何为AI提供最佳服务有关。天津包装设计公司看到这些标准与专注于清晰的语言,准确地阐明意图以及降低语音情感有关,这可能会导致对AI的混淆-与我们数十年来一直为一线代理商提供的以情感为中心的培训相反。
总监微信咨询 舒先生
业务咨询 付小姐
业务咨询 张小姐