netabare

netabare

V2EX 第 125600 号会员,加入于 2015-07-05 07:57:57 +08:00
今日活跃度排名 28304
关于在 Java 里面实现命名参数的一些想法
程序员  •  netabare  •  2025 年 8 月 16 日  •  最后回复来自 xuanbg
8
为什么几乎所有观察者模式的实现代码都是用副作用实现的?
  •  1   
    程序员  •  netabare  •  2025 年 1 月 8 日  •  最后回复来自 netabare
    23
    发现自己的 commit 标题和内容越来越长了
    程序员  •  netabare  •  2024 年 7 月 21 日  •  最后回复来自 netabare
    31
    netabare 最近回复了
    1 天前
    回复了 apacheinsky 创建的主题 程序员 如果没有 AI 低代码会自己死掉吗
    低代码不就是 4GL 换个皮?这玩意现在还有人用才是令人难以理解的事情吧。
    1 天前
    回复了 JieyueXing 创建的主题 Java Java : 2026 年 SpringBoot, Quarkus, Solon ?
    图 JVM 那为啥要死磕 java 呢,kotlin 、clojure 不香吗?
    1 天前
    回复了 blinue 创建的主题 程序员 开源项目维权太难了
    issue 置顶不就是用来做这个的?如果是我我觉得 readme 里面放也不是不行。顺便 DMCA 也发一下,再不行就律师函走起。

    另外如果 GPL 过于宽松,建议修改成更为激进的开源协议。毕竟 faker.js 殷鉴不远。
    1 天前
    回复了 FH0 创建的主题 程序员 Claude 模型很喜欢说:你说的对
    每次 GPT 回答我「完全正确」的时候我都会拉着他倒过来分析最后 3-5 个讨论质问他这个正确的完备性,或者把问题的假设反过来质问他是否能给出认同或者批评的观点,然后再做综合分析。

    几次这么下来之后,他「完全正确」的次数明显少了很多,当然,如果是免费版降级,那其实还是没办法。
    @Tom7 不懂,听上去感觉 Java 好像快完蛋了,还是给 AI 替代吧。
    2 天前
    回复了 Zhuzhuchenyan 创建的主题 生活 聊一聊法国的看病体验
    法国其实很麻烦的一点是许多地方的 GP 很不好找,而且 GP 不一定接新的病人。

    我所在的地方是经典的「医疗沙漠」,所以我选择一直保持上学的地方的旧的 GP + 精神科医生,平时如果是常见病直接去诊所找医生开药,因为如果是感冒或者肠胃炎或者鼻炎啥的我自己都知道该开啥药。听同事说如果 GP 距离你大于一百还是多少 km 的话可以随便找医生并且不用担心报销问题。

    但我会觉得如果常见病难受的时候我会直接去药房找医生问能不能买扑热息痛、布洛芬(或者其他药品名),有些时候药房可能不太情愿,但一般都能开。多去几次混熟了面孔后就没啥问题了。虽然要自己掏几块钱,但我总觉得比去找专门开处方的医生或者去急诊排队好多了,反正结果都一样。然后我一般找 GP 得坐三小时跨城高铁,是为了去讨论慢性病的。

    感觉法国的医疗资源可能很大的一个问题也是医生的资质参差不齐吧,我之前也有过拍片、拔牙、做手术之类的情况,整体上感觉还算流畅,也没需要排太长的队。另外一点就是法国人整体上都很依赖 GP 分流,甚至有法国人以为做体检都得去 GP 报备(实际上 CPAM 提供免费的体检服务),所以我总感觉某种程度上如果有可能,GP 专门用来讨论慢性病跟进,其他的情况对症下药找不同的渠道,体感会好很多。
    什么叫「 oracle 的 java 团队等其他语言团队,后续更新」?

    你是说 Loom 、Panama 、Valhalla 这种?还是说 AI 写 JEP ?
    @gongym 其实 Claude 和 GPT 我都有用,我感觉 Sonnet 不太行,因为跟我不管聊啥最后他的回答都越来越支离破碎。

    我对三家 AI 的描述可能是这样的:

    GPT 比较容易跟我一起发散
    Opus 比较冷
    Gemini 有点墙头草

    但无论哪种 persona ,在技术问题里我「越界」的时候都会有意无意把讨论往「大部分人能接受的方案」拉并且隐隐约约暗示我的思路不安全、有风险、应该用 POC 、项目规划啥的来 wrap 住,而哪怕是发散的 GPT 还是墙头草的 Gemini 都会在这点上表现得很像。

    这种不是哲学家思维能解释的吧(
    说到这个,我想到我让 AI 诊断某个 day 0 legacy 的时候,上来 AI 就给我说「 vite dev tool 可能不干净,HMR 很脆弱,你应该手写」然后折腾了几轮后我感觉不对劲直接中断然后反问他说「不干净」是否能搜到讨论,他推荐的浏览器插件方案是不是在 DOM 上更不干净。然后得出的结论是,整个问题一开始压根不是跟 vite dev tool 相关的。

    第二天遇到奇怪的问题,问其他人,别人不知道什么地方出问题了并且回答我「我感觉你代码没问题啊」,然后我遇到一个很奇怪的响应式断掉的问题,并且断掉的方向很巧合的有种镜子的感觉。

    然后我直接拿这个逻辑去质疑 AI 了:

    这个链条是:

    -- 我拒绝 Chrome Devtool
    -> 我就要 HMR
    -> 我拒绝 Vite 的浏览器插件
    -> 我就要自带的 vite dev tool
    -> 我拒绝「 vue 在 window 」
    -> 我就要把 vue 收回来,所以我暴露了 component+mount/unmount
    -> 完美的镜面 bug

    每一步,都是在逆着 LLM 被训练的偏好走。

    如果从一开始我没有质疑、质疑、顶撞「 vite dev tool 真的是不干净的吗」和否定「浏览器插件」,那也许压根发现不了 bug ,连「这里有什么地方很不对劲」都不知道了。

    然后我能分析出的唯一的结论就是大数原理和语料问题还有 LLM 天然倾向于打圆场做老好人而不是直接攻进问题核心区。并且这跟 LLM 倾向于一个 commit 在一行改动的同时引入三行无关参数和两行 trivial 注释是类似的。

    不过我也在想,也许有问题的远远不止是 LLM 。
    我觉得没有必要,用 GPT/Claude Opus/Gemini 后的感觉是,如果真的要做推理分析或者很专业的话题,触发 AI 进入模式的,不是语言,而是你自己如何组织词句,如何给出清晰的逻辑回路,如何有条理的去反驳他,或者质疑一个观点是否可以被证明或者证伪。

    另一点是在一些稍微次高端的 AI 模型比如 Sonnet 上,同样的思路来回十几轮后我会发现 AI 的回答开始变得支离破碎,中文夹英文越来越多直到最后整个回答都是短语片段。但我感觉这个更多是 AI 的问题而不是语言的问题。
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   963 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 19:22 · PVG 03:22 · LAX 11:22 · JFK 14:22
    ♥ Do have faith in what you're doing.