V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  lzjunika  ›  全部回复第 1 页 / 共 2 页
回复总数  33
1  2  
不错,精简,美观
158 天前
回复了 layman3612 创建的主题 生活 怎么样摆脱周末摆烂,过完就后悔的状态
同样的感受过,就像以前上学时,总想放假回去写作业,补知识,结果放假更不会做
得换个环境,让环境改变自己 星巴克 图书馆,是个不错的选择
有这么多 ISO/IEC 方法,还是增加不对称沟通的复杂度,最终还是无解
想办法了解甲方预算范围,按这个范围评估,即所谓看人下菜,应该是现在的主流方式
能不能通过无人机+超声波,无人机可以实现快速巡检,超声波可以检测分析地质结构,这样不用增加固定设施投资,还能重复利用
239 天前
回复了 lzjunika 创建的主题 商业模式 想搞个能卖 10 万的软件,大家给个建议
@midakaliu 不一定所有人都能高大上,搞个产品非得有什么核心竞争力,能帮目标客户解决问题就行了
能搞定 3Ds max 、CAD 的团队,就不会想这 10 万产品的事,肯定不是一个层面的,我本土人,能力有限
不是大公司,只是个小作坊,做能做的事,小事做起
软件不够高大上,服务来凑,我们懂业务懂技术,能理解这些老板的问题与需求,帮这些老板解决问题就够了
240 天前
回复了 lzjunika 创建的主题 商业模式 想搞个能卖 10 万的软件,大家给个建议
@jonsmith 不矛盾,现在面向企业的产品,不可能像以前一样一张光盘通吃
产品的设计应该不是固定形态,而是可配置,可扩展的
现在是有办法让定制通过配置来解决,不是定制就等于开发
240 天前
回复了 lzjunika 创建的主题 商业模式 想搞个能卖 10 万的软件,大家给个建议
@seven777 你说得对
现在市面上多大软件大厂 方案和实施烂,销售人员各种忽悠
企业微信 钉钉这种 SaaS 大厂 根本不理人的
240 天前
回复了 lzjunika 创建的主题 商业模式 想搞个能卖 10 万的软件,大家给个建议
@xguanren 你说的很对,熟悉深入理解,做得东西才有竞争力
我上面定位的企业,我们都有做过,以前都是定制,有个别公司都做了三期(三年),还在服务
我理的三个行业 中介、教培、代理销售,这三个行业有个特点是都有钱,管理乱,但从业人员及管理层 IT 素养不高,企业微信、钉钉、飞书的通用功能又满足不了他们,他们需要定制,需要理解他们的人服务(这点深有体会,他们大多不懂 IT 逻辑,但梦想很大)
不错
2023-11-01 13:32:17 +08:00
回复了 lzjunika 创建的主题 职场话题 当技术团队没事干了,还能干什么
@julyclyde 有道理
中午看到一个视频,描述的内容感觉有感触
说中国式大多数小老板要的是 加班,控制,不需要高效率,高效能
要求加班,要求干活,要求写日志,要求产出很简单
2023-11-01 11:03:15 +08:00
回复了 lzjunika 创建的主题 职场话题 当技术团队没事干了,还能干什么
@cleveryun 天天改基础设施,内部底层优化,也相当于没有产出
每周需要有产出,每天都得有日志
目前的做法,把一些常用的业务 UI 交互翻翻新,多加加数据报表
这样看起来都有改进,都有可观的产出了
但对产品项目的整体,并没有太多的提升,没什么成就感,团队干劲也不足
2023-11-01 09:21:50 +08:00
回复了 lzjunika 创建的主题 职场话题 当技术团队没事干了,还能干什么
@stinkytofu “当初的加班熬夜出产品不就是为了现在的舒服么”
老板不这么认为,他觉得每个月发工资,就得每个月有产出
不会想东西做好了,事就少了
2023-11-01 09:20:53 +08:00
回复了 lzjunika 创建的主题 职场话题 当技术团队没事干了,还能干什么
@Hurriance 非常认同你的说法,公司按月发薪资,不是买一个月时间,是为了解决问题
但现在的公司氛围是,发一个月工资,就要做一个月的事,每个月得有产出,至于产出是什么,似乎公司不关心
产品做好了,没问题没 Bug 了,还得想事做(主要是没事做底下兄弟们日志也写不出)
2023-10-18 08:56:10 +08:00
回复了 Maverick1 创建的主题 分享创造 做了一个 iOS 迷你模拟器:摇骰子,抛硬币和抛瓶子
国内不能下载玩?
2023-09-01 11:23:51 +08:00
回复了 lzjunika 创建的主题 Python celery 为何部署到服务器上变成同步阻塞了
终于看到希望了,在同一个服务器上,部署一个最小 flask+celery 服务,通过 docker-compose 跑起来,可以同步了
那就是服务器没问题,redis 没问题,就是原来程序哪里写的不对,再找找:

[2023-09-01 11:08:45,531: INFO/MainProcess] Task app.controller.index.add_together[d4885e83-f346-46b9-98c2-a9f981d7d1de] received
[2023-09-01 11:08:45,533: INFO/MainProcess] Task app.controller.index.add_together[0abc8808-5603-4c61-87de-f6bcd2747d53] received
[2023-09-01 11:08:45,535: INFO/MainProcess] Task app.controller.index.add_together[e1211bbc-8a76-4d8c-94d6-e3904cc50bdc] received
[2023-09-01 11:08:45,538: INFO/MainProcess] Task app.controller.index.add_together[3a099971-abc5-4c2c-b784-1a2aaba86a24] received
[2023-09-01 11:08:45,539: INFO/MainProcess] Task app.controller.index.add_together[f1a6604d-2757-4742-b4b5-33c4b92bbbb8] received
[2023-09-01 11:08:45,541: INFO/MainProcess] Task app.controller.index.add_together[d380858f-3e65-4569-bcea-54ea8db5e6cf] received
[2023-09-01 11:08:45,542: INFO/MainProcess] Task app.controller.index.add_together[740fbfed-7074-49f1-8680-6ddc48bfc2da] received
[2023-09-01 11:08:45,544: INFO/MainProcess] Task app.controller.index.add_together[78b6ee5f-15a0-409b-b41f-709b0fdcb818] received
[2023-09-01 11:08:45,545: INFO/MainProcess] Task app.controller.index.add_together[a482a9d2-1ffd-47df-b421-0bfcd1b386e1] received
[2023-09-01 11:08:45,546: INFO/MainProcess] Task app.controller.index.add_together[7baa35a0-d695-4010-8120-051d5eea9af7] received
[2023-09-01 11:08:46,535: INFO/ForkPoolWorker-7] Task app.controller.index.add_together[d4885e83-f346-46b9-98c2-a9f981d7d1de] succeeded in 1.0014203377068043s: 231
[2023-09-01 11:08:46,535: INFO/ForkPoolWorker-8] Task app.controller.index.add_together[0abc8808-5603-4c61-87de-f6bcd2747d53] succeeded in 1.001225769519806s: 647
[2023-09-01 11:08:46,537: INFO/ForkPoolWorker-1] Task app.controller.index.add_together[e1211bbc-8a76-4d8c-94d6-e3904cc50bdc] succeeded in 1.001103661954403s: 308
[2023-09-01 11:08:46,540: INFO/ForkPoolWorker-2] Task app.controller.index.add_together[3a099971-abc5-4c2c-b784-1a2aaba86a24] succeeded in 1.0009450502693653s: 735
[2023-09-01 11:08:46,542: INFO/ForkPoolWorker-3] Task app.controller.index.add_together[f1a6604d-2757-4742-b4b5-33c4b92bbbb8] succeeded in 1.0019154399633408s: 554
[2023-09-01 11:08:46,544: INFO/ForkPoolWorker-5] Task app.controller.index.add_together[740fbfed-7074-49f1-8680-6ddc48bfc2da] succeeded in 1.000898975878954s: 455
[2023-09-01 11:08:46,545: INFO/ForkPoolWorker-4] Task app.controller.index.add_together[d380858f-3e65-4569-bcea-54ea8db5e6cf] succeeded in 1.0016995184123516s: 771
[2023-09-01 11:08:46,546: INFO/ForkPoolWorker-6] Task app.controller.index.add_together[78b6ee5f-15a0-409b-b41f-709b0fdcb818] succeeded in 1.0007124096155167s: 281
[2023-09-01 11:08:47,537: INFO/ForkPoolWorker-8] Task app.controller.index.add_together[7baa35a0-d695-4010-8120-051d5eea9af7] succeeded in 1.00179473310709s: 788
[2023-09-01 11:08:47,538: INFO/ForkPoolWorker-7] Task app.controller.index.add_together[a482a9d2-1ffd-47df-b421-0bfcd1b386e1] succeeded in 1.0018408931791782s: 729
2023-08-31 11:22:13 +08:00
回复了 lzjunika 创建的主题 Python celery 为何部署到服务器上变成同步阻塞了
到底是哪配置的问题,非常诡异,还是换个服务器?
2023-08-31 11:21:36 +08:00
回复了 lzjunika 创建的主题 Python celery 为何部署到服务器上变成同步阻塞了
一个生产者发任务,对应两个消费者(宿主服务+docker 服务)了,任务消息能正常处理,就是不能异步
生产者发任务很正常:
put_content_to_obs.delay(new_name, local_name)
在生产者端也没要求返回结果,只发送
2023-08-31 11:17:39 +08:00
回复了 lzjunika 创建的主题 Python celery 为何部署到服务器上变成同步阻塞了
这几天,被这事搞得有点晕了,我本地,以及本地 docker 都试过,可以异步,到服务器就不行
今天试了,在服务器中多运行一个 docker 容器,来跑 celery
也就是在服务器上宿主运行一个 celery worker ,docker 中运行一个 worker, 相当于有两个消息费了
但还是同步,发起了 10 个任务,宿主执行 4 个,docker 中执行了 6 个,有分配,但还是同步,总的执行时间没变

docker 的执行命令分别试了两种,但一样的效果:
Dockerfile1(使用默认的 prefork ,8 个并发):
...
CMD ["celery", "-A", "docker_celery", "worker", "--loglevel", "INFO", "--logfile=logs/celery_docker.log"]

Dockerfile2(使用 eventlet ,5 并发):
...
CMD ["celery", "-A", "docker_celery", "worker", "--pool=eventlet", "--concurrency=5", "--loglevel", "INFO", "--logfile=logs/celery_docker.log"]

一样的结果,同步,总执行时间不变,郁闷了...
2023-08-29 18:26:07 +08:00
回复了 lzjunika 创建的主题 Python celery 为何部署到服务器上变成同步阻塞了
手动指定了 3 个并发
唯一改变的是 workerid:celery -A make_celery worker --concurrency=3 --loglevel INFO

但还是同步的:

[2023-08-29 18:19:00,670: INFO/MainProcess] Task pss.api.offce.put_content_to_obs[02ac662b-e0bd-4cc3-b659-6345a471505a] received
[2023-08-29 18:19:00,756: WARNING/ForkPoolWorker-1] requestId:
[2023-08-29 18:19:00,756: WARNING/ForkPoolWorker-1] 0000018A40CDC0F9540ADCD7126FE0E9
[2023-08-29 18:19:00,757: WARNING/ForkPoolWorker-1] [2023-08-29 18:19:00,757] WARNING in offce: obs_upload_file:OK
[2023-08-29 18:19:00,757: WARNING/ForkPoolWorker-1] obs_upload_file:OK
[2023-08-29 18:19:00,757: WARNING/ForkPoolWorker-1] test_8.png
[2023-08-29 18:19:00,757: INFO/ForkPoolWorker-1] Task pss.api.offce.put_content_to_obs[02ac662b-e0bd-4cc3-b659-6345a471505a] succeeded in 0.08660224080085754s: True

[2023-08-29 18:19:02,301: INFO/MainProcess] Task pss.api.offce.put_content_to_obs[19d3c1aa-20be-4dcb-a819-360191532325] received
[2023-08-29 18:19:02,400: WARNING/ForkPoolWorker-1] requestId:
[2023-08-29 18:19:02,400: WARNING/ForkPoolWorker-1] 0000018A40CDC7595A03C83BB2923AA0
[2023-08-29 18:19:02,401: WARNING/ForkPoolWorker-1] [2023-08-29 18:19:02,401] WARNING in offce: obs_upload_file:OK
[2023-08-29 18:19:02,401: WARNING/ForkPoolWorker-1] obs_upload_file:OK
[2023-08-29 18:19:02,401: WARNING/ForkPoolWorker-1] test_9.png
[2023-08-29 18:19:02,402: INFO/ForkPoolWorker-1] Task pss.api.offce.put_content_to_obs[19d3c1aa-20be-4dcb-a819-360191532325] succeeded in 0.09988882020115852s: True
2023-08-29 18:09:24 +08:00
回复了 lzjunika 创建的主题 Python celery 为何部署到服务器上变成同步阻塞了
@celerysoft
8 核 32g 的服务器,按默认启动 concurrency 值是 8 ,上面有运行摘要截图,这个试过了,手动指定也不行
1  2  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5423 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 24ms · UTC 08:03 · PVG 16:03 · LAX 00:03 · JFK 03:03
Developed with CodeLauncher
♥ Do have faith in what you're doing.