
正面评论:拒绝使用AI是对技术异化的清醒抵抗,守护人类劳动与精神的独特价值
在AI以“未来代名词”姿态席卷全球的当下,仍有一群人选择逆流而行——他们或是像Jess和Amy这样的作家,坚持用“真实的人”的笔触创作;或是如Ben这样的程序员,拒绝用AI替代编程过程;或是刘畅这样的网络作者,坚守手工码字的“笨拙”。这种看似“逆势”的选择,实则是对技术异化的清醒抵抗,背后蕴含着对劳动权益、技能深度与人性价值的三重捍卫。
首先,拒绝使用AI的群体,是技术时代劳动权益的“守夜人”。新闻中提到,好莱坞编剧与演员罢工、Ben对“大模型基于被盗劳动力训练”的批判,本质上指向一个核心矛盾:AI的“智能”建立在海量人类创作成果的基础上,但创作者却未获得合理回报,甚至可能被AI生成内容替代。这种“盗窃—训练—反哺”的闭环,暴露了当前AI发展中知识产权保护的缺位。拒绝使用AI的行为,实质是对“技术剥削”的无声抗议。它提醒行业:技术进步不能以牺牲创作者权益为代价,若放任AI无节制地“白嫖”人类劳动成果,最终将摧毁创作生态的根基。正如Ben所言,“大模型建立在被盗的劳动力之上”,这种道德瑕疵若不被修正,AI的“智能”将永远笼罩着“原罪”。
其次,拒绝使用AI的坚持,是对“去技能化”风险的警惕,守护着人类技能的深度与独特性。MIT的研究显示,依赖AI完成任务可能降低大脑活跃度;短视频从业者因长期使用AI写脚本而丧失独立创作能力;大学生用AI写论文却无法理解内容……这些案例揭示了一个深层危机:当AI成为“万能工具”,人类可能从“掌握技能的主体”沦为“输入提示词的中介”。Ben的担忧并非杞人忧天——若程序员依赖AI写代码,可能不再深入理解算法逻辑;若写作者依赖AI生成内容,可能失去对文字的敏感度与批判性思维。拒绝使用AI,本质上是在捍卫“通过学习与实践掌握技能”的传统路径,这种路径虽慢,却能让人真正“理解”而非“使用”知识。正如金妮父亲在《哈利·波特》中的警告:“永远不要信任一个会自己思考的东西,除非你知道它把脑袋放在哪儿。”人类若放弃“自己思考”的能力,终将成为AI的“提线木偶”。
最后,拒绝使用AI的群体,用行动诠释了“创作过程”与“人类情感”的不可替代性。对Jess和Amy而言,“真实的人以有意义的方式书写”的价值,远超AI生成内容的效率;对徐梅来说,“思考和表达的过程”是创作乐趣的核心,如同徒步登山比坐缆车更能体会自然之美;对刘畅而言,“艺术是人类思想的表达”,AI生成的内容缺乏意图与语境,无法替代人与人之间的情感互动。这些选择并非“保守”,而是对“工具理性”的反拨——技术可以提升效率,但无法替代人类在创作、交流中的主体性体验。当越来越多人习惯用AI“速成”内容、用AI回答朋友的倾诉时,拒绝者的坚持如同在技术洪流中竖起一块“人性灯塔”,提醒我们:技术是手段,而非目的;人类的情感、创造力与独特性,才是文明的根基。
反面评论:拒绝使用AI的现实困境——个体抵抗难逆技术趋势,过度排斥可能错失发展机遇
尽管拒绝使用AI的群体有着深刻的合理性,但不可否认的是,这种选择在现实中面临多重挑战。技术发展的不可逆性、市场效率的压力以及个体与行业脱节的风险,使得“拒绝AI”的坚持往往陷入“注定失败的战役”,甚至可能因过度排斥技术而错失发展机遇。
其一,技术发展的不可逆性,使得个体抵抗难以改变行业趋势。从历史看,卢德分子砸毁纺织机未能阻止工业革命,拒绝互联网的群体最终被信息时代边缘化,抵制抖音的声音也未阻挡短视频的普及。AI作为当前最具颠覆性的技术之一,其渗透已从“可选工具”变为“行业标配”:新闻中提到,连最初抵制AI的自媒体从业者,也因效率需求开始用AI查询资料、润色语句;刘畅虽坚持手动码字,但同行已用AI同时更新数本小说。这种趋势下,个体的拒绝可能沦为“孤岛”——当行业规则、用户需求、竞争压力都向AI倾斜时,单纯的“不使用”可能导致作品传播力下降、收入减少(如Jess和Amy提到的“每月收入下降”),甚至被市场淘汰。技术的“滚雪球效应”决定了:拒绝者若想持续生存,要么调整策略,要么接受边缘化。
其二,过度排斥AI可能忽视其作为“辅助工具”的积极价值,限制个体与企业的创新空间。AI并非洪水猛兽,其核心是“增强人类能力”而非“替代人类”。例如,AI可以快速整理资料、辅助灵感激发、优化创作流程,这些功能若被合理利用,反而能让创作者更专注于核心环节(如逻辑梳理、情感表达)。新闻中徐梅的选择颇具代表性:她在公司工作中用AI完成80%的基础任务,却在个人创作中坚持手动写作。这种“工具性使用”与“主体性保留”的平衡,或许比“完全拒绝”更具可持续性。若因对AI的负面担忧而彻底排斥,可能错失技术赋能的机会——例如,AI可以帮助小团队降低内容生产成本,扩大传播范围;可以辅助开发者快速验证想法,加速产品迭代。过度拒绝AI,可能让个体或企业在效率竞争中处于劣势。
其三,拒绝使用AI的群体若缺乏“建设性方案”,可能陷入“为反对而反对”的困境。当前AI发展的问题(如知识产权模糊、去技能化风险)需要系统性解决,而非单纯“不使用”。例如,好莱坞罢工最终通过劳资协议限制AI滥用,而非全面禁止AI;Ben对“大模型基于被盗劳动力”的批判,需要推动法律对训练数据来源的规范(如要求模型公司向创作者支付合理报酬),而非让个体开发者“用脚投票”。若拒绝者仅停留在“不使用”的姿态,而不参与规则制定、标准建立,其抵抗可能沦为情绪宣泄,无法真正推动行业进步。技术与人性的平衡,需要的是“批判性使用”而非“彻底拒绝”。
给创业者的建议:在技术与人性之间寻找平衡,做“清醒的AI使用者”
对于创业者而言,AI既是机遇,也是挑战。面对“拒绝AI”与“盲目依赖AI”的两极选择,更理性的路径是:以“工具理性”与“价值理性”的平衡为核心,做“清醒的AI使用者”。具体可从以下三方面着手:
善用AI提升效率,但保留核心技能的“主体性”:创业者应明确AI的“辅助工具”定位,将其用于重复性高、标准化强的任务(如资料整理、基础代码生成、文案润色),从而释放团队精力聚焦于核心创新环节(如用户需求洞察、逻辑架构设计、情感价值传递)。同时,需警惕“去技能化”风险——例如,技术团队若完全依赖AI写代码,可能丧失对底层逻辑的理解;内容团队若依赖AI生成内容,可能失去对用户情感的敏锐捕捉。创业者需通过培训、考核等机制,确保团队核心技能(如技术深度、创作能力、批判性思维)不被AI替代。
关注知识产权与伦理,建立“负责任的AI使用”规范:AI的“训练数据”与“生成内容”涉及复杂的知识产权问题。创业者在使用AI工具时,需明确数据来源的合法性(如避免使用未授权的创作内容训练模型),并在生成内容中标注AI辅助痕迹(如新闻中好莱坞要求“AI合成演员需告知工会”)。此外,需主动参与行业标准制定(如推动“AI生成内容版权归属”“创作者报酬机制”等规则),避免因技术滥用损害行业生态。
在产品设计中融入“人性价值”,避免技术异化:创业者需思考:“我的产品是否在利用AI增强人类的主体性,而非削弱?”例如,教育类产品可利用AI提供个性化学习路径,但需保留教师与学生的深度互动;内容类产品可利用AI优化推荐算法,但需避免用户被“信息茧房”束缚;社交类产品可利用AI辅助沟通,但需鼓励用户表达真实情感而非依赖“AI话术”。通过将“人性价值”嵌入产品逻辑,创业者既能抓住AI的效率红利,又能避免陷入“技术异化”的陷阱。
结语:拒绝使用AI的群体,用坚持为技术发展敲响了“人性警钟”;而创业者的使命,则是在技术浪潮中找到“效率”与“人性”的平衡点。正如刘畅所言,“我们无法拒绝AI,但可以选择保留创造力、批判性与人的主体性。”这种选择,既是对技术的尊重,也是对人类文明的守护。
Startup Commentary”Why Do Some People Still Refuse to Use AI?”