lidang 立党 (全网劝人卖房、劝人学CS、劝人买SP500和NASDAQ100第一人)

统计数据

46
文章
0
粉丝
0
获赞
2392
阅读
我再说一遍。 从清华北大、复旦交大,到普通985,再到下面的一本二本211,再到民办三本和大专, 中国绝大多数本科生,对中国高等教育体系是极为不满的,就是大学教的课太水、太垃圾、太老、太没用、太晦涩、教材太垃圾、老师照本宣科、内容脱离时代。 解决这种问题只有一个办法,就是在中国大办LAC ,办一批最贵、最好、最牛逼的教学型文理学院, 把师生比压缩到1:10~1:5,彻底贯彻小班教学,对教学进行认真考核, 让大学生、教育同行、企业雇主们亲自主观投票,选出在“本科教育服务”里最用心、最精品、最负责、最舒服、最定制化、最流行、最前沿的品牌。 能做到这一点的,必须小班教学,必须一个教授每节课面对10~30个学生,必须大量互动,必须快乐教育, 必须不再逼着教授们做科研卷paper和经费,而是逼着教授们认真备课、认真选教材、认真设计大纲, 最重要的是认真上课,认真对待学生,认真答疑,认真上课互动,认真帮学生一篇篇作业修改,投入100%的热情,投入100%耐心,要让这些LAC的本科课程以教育为第一位,让大学基础课和专业课有用起来, 让本科四年的教育服务以本科生为主,挖掘本科生的潜力,给他们尽可能定制化、小班化、舒适化、探索化的本科教育。 LAC教授们需要非常优秀的教育背景,比如清北PhD、QS top 50 PhD、非常优秀的第一学历(QS top 50本科起,或者国内清北复交浙本科)、教学全程流利英语, 但是他们进LAC担任教授,不强制做科研,不用科研考核,不用非升即走——只需要钻研打磨精品化的小班本科教学即可,一切为了本科精品教育。 代价是这种LAC学费必须非常贵,作为私立小型精品文理学院,学生们一年学费大概在30万左右, 教授们不用做科研,只需要躺平教学,工资也不用很高,一年15万(二三线城市)到30万(一线城市)左右即可。 这样学生们开心、教授们开心、行政人员开心,充分以人为主,快乐教育,精品化教育,校友皆兄弟姐妹,作为中国中产家庭子女的值得信赖可靠的校友圈。 这个市场我喊了两三年了,在中国是100%的真空状态。
我反复跟你们讲一个道理。 整个西贝事件全网轰动的本质,到底是什么? 罗永浩开炮前,三四个闺蜜好兄弟老同学吃饭,还是要去商场的西贝、海底捞、巴奴、茶餐厅——吃完扇自己大嘴巴子,一边笑嘻嘻结账800多,一边骂操你妈; 西贝全网引爆后,大家一起骂,“西贝是个垃圾预制菜,人均200多,下次不去了 ,咱们换一家人均70的炒菜馆聚聚”。 明白问题在哪里了吗? 在西贝这件事上,我反复讲三个道理: 1. 绝大多数人,根本就他妈不在乎你预制不预制,预制到哪一步,哪些菜预制,哪些菜半预制——大家骂你,只是因为你太贵; 2. 绝大多数人骂西贝,只是给自己一个借口,一个台阶,以后别打肿脸充胖子,天天吃人均300的商场预制菜餐厅了——大家都是穷逼,坦诚相待,回去吃人均70的小饭馆; 3. 经济上行期,人人打肿脸充胖子,超前消费,用消费定义阶层、定义圈层,怕被人骂穷逼、抠门、low逼、没钱吃火锅、没钱吃饭, 现在经济内爆、房地产崩盘、家庭资产财务坍塌、就业率暴跌、失业率暴涨、降薪裁员、中年危机、消费崩塌的大环境下, 人人就别他妈装逼了,吃不起的饭菜、奶茶、甜品,买不起的衣服、鞋子、包包、护肤品,上不起的国际双语私立学校,就别他妈强行花钱消费了。 还是那句话,全民臭骂西贝,实际是一场大型的社会羞辱运动。 整个经济上行时期,中国人的消费本质,就是在商场里吃预制菜,买轻奢贴牌服装包包,贷款买恒大碧桂园新房,送娃学钢琴,读蒙台梭利双语幼儿园。 中国人终于意识到,二十年消费了无数智商税,到头来一场空。 于是这次把这种羞耻感全发泄在西贝头上了。
We designed an adversarial attack method and used it to target more than 40 AI chatbots. The attack succeeded more than 90% of the time, including against ChatGPT, Claude, and Perplexity. 我们设计了一种adversarial attack(对抗攻击)的方法,攻击了目前市面上40多款AI Chatbot, 攻击的成功率达到了90%以上,包括ChatGPT、Claude、perplexity,全都被成功攻击导致功能瘫痪。 Github: The specific approach was to create PDFs that keep the original text but also randomly break that original text into small fragments, while randomly inserting many large blocks — from several times to dozens of times the amount — of other-topic text rendered in transparent white font. While preserving the PDF’s human readability, we tried to maximize the chance of misleading large language models. The image below shows results from our experiments with Claude and ChatGPT. The PDF we uploaded was an introduction to hot dogs, while the interfering text was an introduction to AI. Both Claude and ChatGPT were, without exception, rendered nonfunctional. Our test results show that the adversarial PDFs we generate can still be read normally by human users, yet successfully mislead many popular AI agents and chatbots (including ChatGPT, Claude, Perplexity, and others). After reading the uploaded PDFs, these systems were not only led to misidentify the document as being about a different subject, they were also unable to read or understand the original text. Our attack success rate exceeded 90%. After reviewing Roy Lee’s Cluely, our team felt deeply concerned. The purpose of this experiment is to prompt scientists, engineers, educators, and security researchers in the AI community to seriously consider issues of AI safety and privacy. We hope to help define boundaries between humans and AI, and to protect the privacy and security of human documents, information, and intellectual property at minimal cost — drawing a boundary so humans can resist and refuse incursions by AI agents, crawlers, chatbots, and the like. Our proposed adversarial method is not an optimal or final solution. After we published this method, commercial chatbots and AI agents may begin using OCR or hand-authoring many rules to filter out small fonts, transparent text, white text, and other noise — but that would greatly increase their cost of reading and understanding PDFs. Meanwhile, we will continue to invest time and effort into researching adversarial techniques for images, video, charts, tables, and other formats, to help individuals, companies, and institutions establish human sovereign zones that refuse AI intrusion. We believe that, in an era when AI-enabled cheating tools are increasingly widespread — whether in exams and interviews or in protecting corporate files and intellectual-property privacy — our method can help humans defend information security. We also believe that defending information security is itself one of the most important topics in AI ethics. 具体方法是,我们在PDF中不仅加入原来文本内容,而且将原来文本内容随机打碎成小碎片,同时随机插入几倍到几十倍的大段的透明白色字体的其他主题的文章,在保证PDF可读性的前提下,尝试最大限度地误导大语言模型。 下图是我们在claude和chatgpt中实验的结果,我们输入的PDF文件是一篇关于热狗的简介,而信息干扰文章是关于AI的简介。而claude和chatgpt无一例外都功能瘫痪了。 我们的测试结果表明,我们使用adversarial attack生成的PDF文档,不仅人类用户可以正常阅读,而且也成功误导了包括ChatGPT、Claude、perplexity等等众多市面上流行的AI Agent和Chatbot产品,他们在阅读上传的PDF后,不仅完全被误导成了其他主体的内容,而且完全无法阅读和理解原来文本中的内容,我们攻击的成功率达到了90%以上。 在看完Roy Lee的cluely AI产品后,我们团队表示非常担忧。我们本次实验的目的,是希望启发AI社区的科学家、工程师、教育者和安全研究员们,认真思考AI安全和隐私主题,并且希望能给出人类和AI的边界,以最低成本保护人类文档、信息、知识产权的隐私与安全,划出人类对抗和拒绝AI的信息边界,在边界内免于被AI Agent、爬虫、chatbot等入侵和危害。 对于我们提出的对抗攻击方法,并非最优解。在我们提出这种方法后,目前市面上Chatbot和AI Agent工具可能未来将会采用OCR的方式来识别,或者人工手写大量规则来过滤小字体、透明文字、白色字体等干扰信息,但这极大提高了他们阅读和理解PDF文件的成本。同时,我们将会持续不断地投入时间和精力,研究图片、视频、图表、表格等信息的对抗攻击方法,帮助个人、企业、机构建立起拒绝AI入侵的人类主权范围。 我们相信,在越来越多的AI作弊工具泛滥的今天,无论在考试和面试中,还是企业文件和知识产权的隐私保护中,我们的方法都可以帮助人类守卫信息安全。我们相信,守卫信息安全本身也是AI伦理中最重要的话题之一。