剥了壳壳吃米米

胖娃儿,胖嘟嘟...

学习概率论的时候,通常是以抛硬币或口袋里摸小球的实验来讲解概率。
这些概率大多是可以基于统计分析(穷尽各种可能)然后分析出相应的概率的,但实际生活、工作中我们面临的问题往往不是那么标准的概率事件,往往是多种因素交织在一起的。

如何正确的理解概率,对于判断很多问题具有重要意义,特别是在工作、生活、投资理财等方方面面。
塔勒布的《黑天鹅》中讲到了平均斯坦、极端斯坦两个不同的国度,如同法国纸币上印刷的高斯头像和正态分布图像一样,我们以为世界是正态分布的,其实并不是。
那些在数据清洗过程中,丢弃掉的异常数据,对于事件发生的概率是有影响的,甚至是致命的。
塔勒布主张面对风险,应当主动拥抱,接受微小可接受的损失,避免极端的不可接受的损失。

阅读全文 »

  • “无论你是否愿意,这个世界从来都比你想象的要残酷,但也比你想象的要温柔。”
    “这是最残酷的时代,只要稍稍懈怠一点,就会前功尽弃。这是最温柔的时代,只要稍稍坚持一下,就会脱颖而出。”

孙宇晨是一位九零后的创业者,高考时考到三本大学,后逆袭考上了北大,在北大时就开始创业。从北大毕业后到台北清华大学待了三个月就申请了美国的宾尼法尼亚大学,归国后成为马云湖畔大学一期唯一的九零后学员。从事互联网行业,是喜马拉雅APP《财富自由革命之路》的主讲人、“陪我”APP的创办人。

阅读全文 »

之前设置HEXO生成网页链接的时候, 没有选择常规的permalink: :year/:month/:title/的写法。
为了不在链接路径中显示年月信息,改成了permalink: :post_title/,然后发现中文标题名称转换成链接的时候,中文标题URL会被编码成 %E4%B8%AD%E6%96%87…,又丑又长。
如果在网页内部跳转还好,浏览器会自动转码成正常的汉字,但分享到其他平台,未正确解码的时候,看到的是一堆%E4%B8%....之类的乱码。

阅读全文 »

最近华为云服务器快到期了,就小站的日常访问流量,完全可以用更微型的更有性价比的服务器。
于是果断选择了天翼云服务器,在卖家的指导下很快完成新服务器的开通。

阅读全文 »

单机实测LLM模型推理速度,采用ollama运行qwen3 30b-a3b模型,由于激活参数仅3b,所以CPU运行速度尚可接受。

采用以下硬件测试:
CPU:i5-12400(6个P核、0个E核)
RAM:DDR4-2400MT/s
LLM模型:QWEN3-30b-a3b_Q4_K_M

采用两条DDR4-16G内存组成32G双通道RAM,由于内存条型号规格不同,导致实际运行频率跑不满,只能2400MT/S频率运行,实测带宽约30GB/s。
理论上CPU浮点算力为,全核睿频≈4.0 GHz,6个P核,支持AVX2和FMA指令集,单精度 FP32:6 × 4.0 × 16 = 384 GFLOPS。

实测:输入100tokens序列,prompt速度达到41 tokens/s;decode速度达到12 tokens/s。

阅读全文 »

LLM大语言模型训练包括预训练、后训练、微调等步骤。

预训练

首先,预训练需要大量的投喂各种预料,让大模型掌握基础的语言顺序逻辑。这一阶段对于训练用的预料要求可以说不高,也可以说很高,主要是依赖于大量的数据进行训练,量越大,效果越好,但是训练的收敛速度到了一定程度以后非常缓慢,甚至可能没有办法前进。

阅读全文 »

第一性原理(First Principles)是指最基础的、不可再分的命题或假设,是构建某个知识体系或系统所依赖的最根本的基石。由于第一性原理不是从其他原理推导出来的,而是被当作不证自明的起点,直接决定了后续的推导的正确性。
第一性原理的本质是从最基础的真理或定律出发,通过逻辑推演构建知识体系或解决问题的思维方式。就好比,物理学中的牛顿定律、量子力学中的薛定谔方程,是从底层原理推演出复杂现象。打破类比思维陷阱/经验主义陷阱,将问题拆解为基本元素,从零开始构建。

阅读全文 »

大语言模型推理

关于大预言模型的推理,大家都喜闻乐见,对于简单的问题能够快速的反馈回答正确,在不考虑LLM模型是一个机器的情况下,见到LLM模型输出符合人类预期的结果,总是让人震撼的。没准哪天就把自己取代了。

然而,LLM模型的发展其实更像是汽车对于马车的取消,马车夫会觉得自己会管理马匹,属于专业技能选手。但当汽车推广开的时候,管理马匹的技能就不再是个必要技能了,马车夫自然而然的淘汰了。人工智能的自动驾驶普及的时候,驾驶员的角色也就显得不那么重要了,会开车的技能也失去了固有价值。

大语言模型最能够实现的本质还是基于输入推测输出的算法,是一个极度精巧的机器,这个机器当然是非常有用的,每个人都可以在这个机器上发挥自己的创造性,实现特定的功能。冲击最大的首当其冲的当然是搜索引擎,难怪百度那么积极的投身GPT的开发,可惜赶了个晚集。

阅读全文 »

用笔记本试着跑了一下qwen3 8B模型,速度感人;
deepseek-r1:8b-0528-qwen3-q8_0
速度大概 4.0 tokens/s左右,不插电掉到1.6 tokens/s左右
基本不可用,一个字一个字的蹦…

阅读全文 »
0%