Bình luận Bình luận giao dịch hàng ngày: Tận dụng chu kỳ bơm tiền ồ ạt, chứng khoán vươn tới đỉnh cao mới.

Mong VHM về 11x để lên tàu thêm mà hổng được 🥲
"Em ơi lâu đài tình ái đó
Chắc không có trên trần gian "
Lúc lên được là hết vẹo rồi chị. Quả này là cờ bạc đặt cửa nhồi lấy vol làm lãi thôi :)))
 
  • Like
Reactions: TTN
Thui cái đó khọ quạ, tạm cho qua, khi nào có các chuyên gia FA bàn luận thì em đi hóng ạ.

Tiện thể, chị xem con AI em làm, góp ý thêm tí xem nó định giá ổn chưa nhé. Bỏ DDM ra nhé chị, nhòm PB với PE thôi...MBB, bearish cũng phải tầm 26k/cổ nhỉ? Thank
View attachment 11309
Chịu em ơi. Giống như mình thấy phụ nữ 1,6 là vừa tầm nhưng có ông đòi 1.65 trở lên mới chấm ấy 😀
 
Anh có cách tối ưu token không, dùng em này tốn kém quá :))))
Em chịu trói luôn anh, nghe tụi nó bảo là không được hỏi trên nền chat cũ, con này nó ngố nên nó lấy hết data history để dò.
Muốn tiết kiệm, thì anh lưu cái Model của anh ra file Python, mỗi lần hỏi, anh tạo cái New Chat. Sau đó, đính cái file Python kia, rồi gõ câu hỏi. Tiết kiệm hơn... nhưng em thấy ko đáng kể ạ?
=> Nó đốt kiểu này, chắc dân amateur như em, ko dám dấn thân. Mà em mò sang Gemini, nó chạy lởm quạ...đang bí :(((
 
Chịu em ơi. Giống như mình thấy phụ nữ 1,6 là vừa tầm nhưng có ông đòi 1.65 trở lên mới chấm ấy 😀
À, cái đó là Human. Còn AI nó lại ko thế, miễn mình đừng ép nó phải đúng ý mình mong. Cứ để tự nhiên, nó chạy model và toán, rồi mình hóng thử xem sao???
Hiện tại em chạy 2 case: VHM (tầm 8x mua - 15x bán), MBB (tầm 26.x mua - 43.x bán). Note và hóng anh Mó action theo chart nữa...kkk
 
Em chịu trói luôn anh, nghe tụi nó bảo là không được hỏi trên nền chat cũ, con này nó ngố nên nó lấy hết data history để dò.
Muốn tiết kiệm, thì anh lưu cái Model của anh ra file Python, mỗi lần hỏi, anh tạo cái New Chat. Sau đó, đính cái file Python kia, rồi gõ câu hỏi. Tiết kiệm hơn... nhưng em thấy ko đáng kể ạ?
=> Nó đốt kiểu này, chắc dân amateur như em, ko dám dấn thân. Mà em mò sang Gemini, nó chạy lởm quạ...đang bí :(((
Gemini giờ chắc ranking hạng bét luôn :)))
Em đang dùng cách này anh xem có cải thiện không nhé:
Cho ChatGPT dựng khung sườn, đề cương và prompt, sau đó lôi qua cho Claude đánh giá và thực hiện. Bảo nó rà soát và ghi nhật ký ra file chứ đừng chat ngược trở lại. Tóm lại làm mọi cách để hỏi nó ít và bảo nó đưa ra sản phẩm, không cần trình bầy nhiều :))))
 
Em chịu trói luôn anh, nghe tụi nó bảo là không được hỏi trên nền chat cũ, con này nó ngố nên nó lấy hết data history để dò.
Muốn tiết kiệm, thì anh lưu cái Model của anh ra file Python, mỗi lần hỏi, anh tạo cái New Chat. Sau đó, đính cái file Python kia, rồi gõ câu hỏi. Tiết kiệm hơn... nhưng em thấy ko đáng kể ạ?
=> Nó đốt kiểu này, chắc dân amateur như em, ko dám dấn thân. Mà em mò sang Gemini, nó chạy lởm quạ...đang bí :(((
Vậy thì anh coi có mua đc acc số lượng lớn dùng 1 lần ko dùng hết token của con này thì mình save cái data về rồi vứt acc, đổi qua acc mới =)).
 
Vậy thì anh coi có mua đc acc số lượng lớn dùng 1 lần ko dùng hết token của con này thì mình save cái data về rồi vứt acc, đổi qua acc mới =)).
Trong mấy mã kém thanh khoản bữa trước có UIC và SGC tít nhỉ
 
Vậy thì anh coi có mua đc acc số lượng lớn dùng 1 lần ko dùng hết token của con này thì mình save cái data về rồi vứt acc, đổi qua acc mới =)).
Cái này giải quyết phần ngọn thôi anh, kiểu như bọn TQ nó dùng triệu acc để học lóm model của GPT ngày xưa??? Nhưng rốt cuộc thì bị chặn, ko đu bám theo kịp sự phát triển...ạ???
Gemini giờ chắc ranking hạng bét luôn :)))
Em đang dùng cách này anh xem có cải thiện không nhé:
Cho ChatGPT dựng khung sườn, đề cương và prompt, sau đó lôi qua cho Claude đánh giá và thực hiện. Bảo nó rà soát và ghi nhật ký ra file chứ đừng chat ngược trở lại. Tóm lại làm mọi cách để hỏi nó ít và bảo nó đưa ra sản phẩm, không cần trình bầy nhiều :))))
Em hỏi lòng vòng, thấy có chỗ bảo là phải xây RAG, có chỗ bảo là giới hạn Context maximum là 200k tokens (vì trên mức này Claude ko hiệu quả)... Mỗi người mỗi kiểu, đau hết cả đầu. Có khi phải đi đăng ký học 1 khóa Claude, từ vỡ lòng cho đến nâng cao quạ...Dốt IT thật là khộ. Hok lẻ nằm yên, lăn qua lăn lại trên giường, rồi quay về Humanly/Manually cho khỏe nhỉ... :(((
 
Cái này giải quyết phần ngọn thôi anh, kiểu như bọn TQ nó dùng triệu acc để học lóm model của GPT ngày xưa??? Nhưng rốt cuộc thì bị chặn, ko đu bám theo kịp sự phát triển...ạ???

Em hỏi lòng vòng, thấy có chỗ bảo là phải xây RAG, có chỗ bảo là giới hạn Context maximum là 200k tokens (vì trên mức này Claude ko hiệu quả)... Mỗi người mỗi kiểu, đau hết cả đầu. Có khi phải đi đăng ký học 1 khóa Claude, từ vỡ lòng cho đến nâng cao quạ...Dốt IT thật là khộ. Hok lẻ nằm yên, lăn qua lăn lại trên giường, rồi quay về Humanly/Manually cho khỏe nhỉ... :(((
Hãng nó thu tiền thì anh có mà học giời. Nó chỉnh lại mô hình cái lại đâu vào đấy ngay. Em thấy bao người phải bỏ thêm $ để nới thêm token rồi :))))
 
Back
Top