作者: Jet L

  • 【音乐】《问月》——你可听过百年故事千年唱

    歌词:

    玉盘玉盘

    你为何悬于屋顶上

    玉盘玉盘

    你为何白白送银光

    玉盘玉盘

    你为何有时招摇有时藏

    有时瘦来有时胖

    玉盘玉盘

    你可曾装过喜时糖

    玉盘玉盘

    你可曾见过别时泪长淌

    玉盘玉盘

    你可曾听过百年故事千年唱

    长诗逾万行

    月亮月亮心头光

    月光月光亮汪汪

    月亮月亮

    那孩子正抬头凝望

    请仙鹤来访

    直驾九天上

    玉盘玉盘

    太白和眼睛谁比较璀璨

    玉盘玉盘

    金乌和嫦娥谁比较孤单

    玉盘玉盘

    是什么亮闪闪推动我的小船

    有时明来有时暗

    玉盘玉盘

    那天宫是否有答案

    玉盘玉盘

    那大圣取经何时还

    玉盘玉盘

    那孩子乘风越过天上万重山

    漫漫漫漫漫漫向星汉

    月亮月亮太极长

    月光月光浩茫茫

    月亮月亮

    那孩子已拂去风霜

    为他揽星辰

    带他回故乡

    月亮月亮太极长

    月光月光浩茫茫

    月亮月亮

    那孩子已拂去风霜

    为他揽星辰

    带他回故乡

    月亮月亮 嘿 月亮

    抬头凝望,玉盘悬于屋顶上,今人不见古时月,今月曾经照古人。从古人对广寒宫的朴素畅想,到如今的玉兔在月,鹊桥环绕,无论阴晴圆缺,月亮始终伴随中华民族的成长,见证无数聚散,其已经成为一个意义丰富的文化符号。

    今年的春晚我并没有认真看,这两天却听到了其中的《玉盘》,这简单重复的旋律,却有一种特别的引力,因此我找到了《问月》,也知道了谭淇尹、葫芦童声、妞妞合唱团,知道了歌曲背后的故事,了解了一群可爱的孩子。

    说来有趣,我最喜欢的主旋律歌曲也和航天有关——《祖国不会忘记》,说来有趣,我也和凉山的孩子有过一些间接的接触——通过敬爱的支教老师,也捐赠过一些学习用品。

    因此在听这首歌时候,更有一些别样的情感,难以一言以蔽之,有对文化的回响,有对经历的共鸣,有对星空的畅想,鉴于这是一首与航天有关的曲子,更有康斯坦丁·齐奥尔科夫斯基的话语——“地球是人类的摇篮,但人类不可能永远被束缚在摇篮里”。

    回顾这几年,有的人类在摇篮里厮杀,也有人类试图朝着太空不断进发(当然也有人想回还没回来(X))但愿月亮成为人类的前进的基地,携手向更远的世界探索,让未来的百年或者千年故事可以传唱其他的行星、卫星或者恒星,毕竟我们已经对着月亮唱了千年。

  • 【小贴士】WordPress主题更新的问题

    我的网站一般通过functions.php文件来加载特定的JS代码或CSS,这样虽然有一定的灵活性,但是WordPress主题文件更新时,其会将用户上传到主题文件夹的代码删除,也会重置functions.php文件,不过不用太担心,这个操作在你点击更新之前会进行提示而非全自动就给你覆盖掉了。

    因此必须定期备份修改过的文件,此外也可以考虑采用子主题——Child Theme,这个操作可以参考WordPress的子主题介绍来进行。

    其中对于如何上传自主题、如何修改functions.php,都有较为详细的解释。

  • 【Ai】在Windows系统本地部署DeepSeek-R1的极简步骤

    惊闻B站有人出售百元本地部署教程,NND给我看笑了,什么都能卖钱是吧,当然不排除人家手把手教,提供足够的情绪价值。

    但是如果你不想花钱,同时想提升一下英文水平和计算机熟练度,请跟着官方文档一步步进行,目前的文档已经相当详细且可行。

    我们如果在Windows上进行部署和调试,推荐使用Open WebUi+Ollama的方式进行部署。

    PS:其实更建议在Linux上进行部署,一键部署更加便利~

    1、选择后端Ollama

    在Ollama官网选择Win版本下载,会自动部署相关环境,在CMD或者中powershell可以按照对应的模型拉取到本地。

    请根据自己的硬件量力而行。我的显卡为RTX3070 8G,按照ollama默认设置,运行7B已经亚历山大。

    2、选择前端Open-WebUi

    请根据您的系统,在Open-WebUi的官方文档,按照步骤,一步步来进行部署。

    Win版本下按照官方建议,可以使用uv,在powershell中进行拉取和部署,其中对网络环境有一定要求。

    3、启动Open-WebUi后的注意事项

    Open-WebUi原版毕竟是国外软件,在国内这个环境启动还是有一点网络困扰的,尤其是有些文件是通过Github的地址获取的,请对自己的网络环境做出一些针对性的优化调整。

    另外完成本地部署后,如果是启动在127.0.0.1上,那么检查ollama的端口是否running,一般按照官方部署都可以进行顺畅进行(只有国内这个网不太顺畅)

    此外Open-WebUi默认检查OpenAi的API,这个选项可以在首次登陆后去管理员面板关闭,这样不会每次启动都遇到拉取模型缓慢、超时的情况。

    4、其他分享

    我的电脑采用13700K 32G DDR5 RTX3070 8G,但大模型运行需要大显存,8G显存只能算起步,参数量只能流畅运行7B左右的模型,因此一般的家用和办公电脑跑大模型都存在很大的限制。

    RTX3070 8G跑DeepSeek-R1:7B的速度——显存爆满,ollama默认设置,显示CPU处理占用10%,GPU处理占用90%,常规问答的response token/s在39左右 ,prompt_token/s在2500左右。但是大模型性能存在一定的短板,长上下文效果不尽如人意。

    RTX3070 8G跑DeepSeek-R1:14B,ollama默认设置命令行中速度可以接受,在WebUi中短回答response token/s约为14,较长的上下文降低到7不到,一半跑在GPU一半跑在CPU,长文本效果很差。

    RTX3070 8G跑DeepSeek-R1:32B,ollama默认设置在命令行中速度还行,缓慢但可以简单对话,处理长文本速度基本不可用。若用13700K跑在CPU则32G内容跑满,速度也是非常慢。

    在跑完Ai测试后,请关闭Ollama的进程,否则你将面临满占用的显存或内存~

    5、体验

    搭配Open-WebUi可以实现本地部署,多端使用,但是对体验影响更大的限制——模型本身——我们个人、及小公司的计算性能均没法有效支撑,本来大模型就是为了提升效率,本地部署一个跑的死慢的模型,对效率的提升实在是存疑。

    当然我鼓励大家都去本地部署体验一下,从中也可以获得一些乐趣,但是如果到实际应用层面,大一些的模型硬件需求激增,小公司玩这个自建后端的硬件成本还是太高了。

    因此,对小公司而言,可能选择一个大树,使用API,保护好自己的数据(真的是有价值的数据吗?)进行针对性的训练,拓展自己的RAG系统,做好本地化的情况下拥抱云计算,才是提升小公司效率的一条路吧。

    但话说回来,小公司真的愿意为这个人工和软件成本付费吗?