近日,读了万维钢老师的文章《Deepseek高级心法:怎样用,和不用AI》产生了一些想法,并用人类能力向上迁移完成人机协作为思路,和人工智能进行了沟通,完成了这篇文章。
以DeepSeek为代表的AI推理模型正快速替代人类传统的结构化思维能力,这既是一场前所未有的机遇。过去,人类通过模式推演、举例子、套模型等方式来学习和转化知识,这种能力被视为一个人有灵气的体现。然而,如今人工智能在结构化延伸方面的能力已经超越了人类,这迫使我们必须重新定义和应用智能的价值,思考人类能力的向上迁移方向。
人工智能的泛化推演功能虽然强大,但有时可能会过于发散和抽象,导致延展至过于底层而失去实际价值。这时,人类的作用就凸显出来,我们需要通过人工反馈来建立限制,筛选出有价值的信息。例如,在医疗领域,AI可以快速分析大量病例数据,但可能会因为过于泛化而忽略一些特定患者的特殊病情。此时,医生需要根据患者的具体情况,对AI的诊断结果进行限制和调整,以确保诊断的准确性和有效性。
并非所有的AI模型都能够顺利迁移,人工智能可能会为了得出一个“正确”的答案而回避矛盾。然而,这些矛盾往往是优化模型的关键机会,也是我们理解现实的核心信息。人类需要敏锐地发现这些矛盾,从而推动AI模型的改进。例如,在法律领域,不同的法律条文之间可能存在矛盾,AI在处理相关案件时可能会回避这些矛盾以得出一个看似合理的判决。但人类律师能够发现这些矛盾,并通过深入分析和论证,找到更加合理的解决方案,从而优化AI的法律推理模型。
泛化推理需要有方向,而方向往往在于细节。只有人类能够发现有价值的细节,因为我们可以将体感和不可压缩的信息进行组合判断。通过提示这些细节,我们可以进一步促成AI的发散和推理,找到更加细致的解释。例如,在艺术创作领域,AI可以生成各种风格的画作,但往往缺乏人类艺术家对细节的把握和情感的表达。人类艺术家能够通过观察和体验,发现生活中的细微之处,并将其融入到作品中,使作品更加生动和富有感染力。
压力在这里指的是启动算力的要求。我们不能对AI进行平均化的要求,而是需要对某个问题进行颗粒度要求,或者进行广阔度的规定,让AI更加努力地提高质量。例如,在科学研究中,对于一些复杂的实验数据,我们需要AI进行高精度的分析和预测。这时,我们可以通过设定严格的质量标准和时间限制,给AI施加一定的压力,促使其更加努力地提高分析和预测的准确性。
对于AI多次生成的不同答案,它会有自己的解释,但我们作为使用者对其解释有体验,能够建立纠正其自我认知的机制。例如,在金融投资领域,AI可能会根据不同的市场数据生成多种投资策略。投资者可以根据自己的经验和市场判断,对这些策略进行比较和筛选,选择最适合自己的投资方案。同时,投资者还可以将实际的投资结果反馈给AI,帮助其纠正和改进投资策略。
AI的泛化毕竟只是一种推演,缺乏跨越性的视野。而人类能够建立更加全面的解释,构建更大宽阔的价值判断,从而要求AI提供更有价值的答案。例如,在城市规划中,AI可以提供各种关于交通、环境、经济等方面的数据分析和预测。但人类规划师能够将这些数据与城市的历史、文化、社会等因素进行融合,构建一个更加全面和长远的城市规划方案。
对AI的表现进行反馈,不是具体地指出某个错误,而是要定义其全部表现,建立更加个性化的要求。例如,在教育领域,AI可以根据学生的学习数据提供个性化的学习建议。但教师可以根据学生的实际情况和学习需求,对AI的建议进行反馈和调整,使其更加符合学生的学习特点和目标。
总之,在AI时代,人类的能力需要向上迁移,从传统的结构化思维转向更加高层次的能力。通过定边界、找矛盾、做细化、提压力、作比较、做融合和再反馈等方式,我们可以更好地与AI协作,发挥各自的优势,共同推动社会的进步和发展。