thảo luận Hội máy ảnh Sony Mirrorless 2020

À hỏi thử anh em câu này. Theo anh em thì thế nào được gọi là ảnh HDR.
Tự nhiên chụp AEB về rồi ghép vào ra HDR xong tôi thấy nó đéo giống những gì người ta nói trên mạng các fen ạ.
Ví dụ tôi thấy ảnh HDR thật sự thì thường sẽ có màu sắc không tươi như SDR.
Và cái tiếp theo là thật ra có combine ảnh AEB lại rồi xuất ra JPG thì nó vẫn là ... SDR mà thôi, không phải HDR. Kiểu như hình ảnh dưới đây thì thật ra đều là SDR hết, chả qua 1 cái tương phản mạnh 1 cái tương phản yếu và khác nhau về độ tươi màu sắc thôi.

Muốn xem ảnh HDR xịn được thì chỉ có xuất jxl xong rồi xem trên iphone hoặc ipad. Hoặc lúc edit trong lightroom thì bật HDR lên và yêu cầu màn hình cũng phải bật chế độ HDR, chứ không thì thành SDR hết.
WRblN6.jpg
Cái ảnh minh hoạ này sai bét về HDR thím ạ
Mình không hiểu khái niệm HDR của màn hình là gì nên bỏ qua, ở đây mình chỉ nói về ảnh thôi
Thông thường, ở khung cảnh như thế nà, chênh sáng ở khu vực từ tối nhất mà vẫn còn chi tiết cho đến sáng nhất mà vẫn còn chi tiết là đâu đó khoảng 20eV (con số này mình áng chừng thôi, có thể không chính xác tuỳ nơi chụp).
Sensor của máy ảnh KTS hiện giờ chỉ thu được thông tin trong khoảng 12eV thôi. Nếu chỉ chụp 1 tấm rồi về hậu kỳ thì cho dù cố gắng thế nào, vẫn sẽ có những khu vực bị mất thông tin ở vùng quá tối, hoặc quá sáng.
Ảnh HDR là ảnh dùng kỹ thuật HDR, chụp nhiều tấm ảnh khác nhau ở nhiều giá trị phơi sáng khác nhau,để lấy được đủ thông tin ở tất cả các khu vực từ tối nhất đến sáng nhất trong khung cảnh, rồi sau đó về ghép các tấm đó lại thành 1 tấm ảnh có chi tiết vượt trội so với ảnh chỉ chụp từ 1 ảnh.
"Và cái tiếp theo là thật ra có combine ảnh AEB lại rồi xuất ra JPG thì nó vẫn là ... SDR mà thôi" -> Câu này thực ra không đúng. Trong quá trình hậu kỳ, thím có thể xử lý, chủ động lựa chọn các khu vực bị cháy sáng/ cháy tối, xử lý riêng cho nó để cứu lại chi tiết cho bức ảnh. File JPG cuối cùng của quá trình combine ảnh HDR sẽ có đủ các chi tiết từ sáng tới tối nhất, nhưng file JPG của ảnh chụp 1 shot (SDR) thì không thể hiện được chi tiết ở các vùng đó.
Như cái ảnh minh hoạ của thím thì bên ảnh HDR vùng highlight nó cháy sáng mất hết chi tiết rồi nên mình mới bảo cái ảnh minh hoạ này nó sai bét, đứa làm cái ảnh minh hoạ nó đéo biết gì về HDR cả.
 
Cái ảnh minh hoạ này sai bét về HDR thím ạ
Mình không hiểu khái niệm HDR của màn hình là gì nên bỏ qua, ở đây mình chỉ nói về ảnh thôi
Thông thường, ở khung cảnh như thế nà, chênh sáng ở khu vực từ tối nhất mà vẫn còn chi tiết cho đến sáng nhất mà vẫn còn chi tiết là đâu đó khoảng 20eV (con số này mình áng chừng thôi, có thể không chính xác tuỳ nơi chụp).
Sensor của máy ảnh KTS hiện giờ chỉ thu được thông tin trong khoảng 12eV thôi. Nếu chỉ chụp 1 tấm rồi về hậu kỳ thì cho dù cố gắng thế nào, vẫn sẽ có những khu vực bị mất thông tin ở vùng quá tối, hoặc quá sáng.
Ảnh HDR là ảnh dùng kỹ thuật HDR, chụp nhiều tấm ảnh khác nhau ở nhiều giá trị phơi sáng khác nhau,để lấy được đủ thông tin ở tất cả các khu vực từ tối nhất đến sáng nhất trong khung cảnh, rồi sau đó về ghép các tấm đó lại thành 1 tấm ảnh có chi tiết vượt trội so với ảnh chỉ chụp từ 1 ảnh.
"Và cái tiếp theo là thật ra có combine ảnh AEB lại rồi xuất ra JPG thì nó vẫn là ... SDR mà thôi" -> Câu này thực ra không đúng. Trong quá trình hậu kỳ, thím có thể xử lý, chủ động lựa chọn các khu vực bị cháy sáng/ cháy tối, xử lý riêng cho nó để cứu lại chi tiết cho bức ảnh. File JPG cuối cùng của quá trình combine ảnh HDR sẽ có đủ các chi tiết từ sáng tới tối nhất, nhưng file JPG của ảnh chụp 1 shot (SDR) thì không thể hiện được chi tiết ở các vùng đó.
Như cái ảnh minh hoạ của thím thì bên ảnh HDR vùng highlight nó cháy sáng mất hết chi tiết rồi nên mình mới bảo cái ảnh minh hoạ này nó sai bét, đứa làm cái ảnh minh hoạ nó đéo biết gì về HDR cả.
Những cái fen nói thì đúng không sai, nhưng mình thấy nó chỉ đúng 1 nửa.
Tức là nó sẽ đúng trước khi có sự xuất hiện của các thiết bị có khả năng hiển thị HDR.

Ví dụ như việc chúng ta combine ảnh AEB lại để ra được 1 tấm ảnh thể hiện đủ chi tiết của các vùng sáng và tối mà chụp ảnh bình thường không thể làm được, rồi gọi đó là HDR, thì thật ra nó sẽ đúng theo khái niệm cũ. Tức là 1 tấm ảnh thể hiện được đủ chi mọi chi tiết của các vùng sáng tối. Nhưng khi xem tấm ảnh đó, chắc chắn là chúng ta sẽ thấy hơi "kì lạ". Kì lạ ở đây đó là dường như trông hơi ảo ảo, ngoài đời thật chúng ta không bao giờ nhìn thấy khung cảnh nào như thế. Có thể là chúng ta nhìn được đầy đủ chi tiết, nhưng cảm giác chân thực về màu sắc thì không đúng.

Kỹ thuật này theo mình thì sẽ trở nên lỗi thời thôi, vì cùng với sự phát triển của khoa học kỹ thuật thì việc camera thu được dải DR lớn hơn trong 1 shot chụp là điều rất bình thường. Ví dụ như đa phần máy ảnh bây giờ thu được 12ev, nhưng cũng có những con thu được tới 15ev rồi. Và anh em nào chơi máy ảnh lâu năm thì cũng biết bây giờ chụp 1 tấm chênh sáng cực mạnh với máy đời mới thì về kéo chi tiết cho cân bằng lại nó dễ hơn máy ảnh cách đây 10 năm cực kì nhiều. Cho tới 1 lúc nào đó chúng ta sẽ không còn phải chụp AEB để có đủ thông tin nữa, mà oneshot rồi về kéo là ra.

Giờ lại nói về ngoài đời thật chúng ta thấy gì nhé.

Mắt người có khả năng "khép/mở khẩu" để quan sát được rõ ràng mọi chi tiết từ sáng tới tối trong 1 thời điểm cực kì ngắn. Đó là điều mà tất cả các kỹ thuật in ấn đều không thể làm được. Ví dụ khi mình tập trung nhìn ngoài trời thấy rõ từng làn mây rõ mồn một thì sẽ không thể nào quan sát được chi tiết trong góc tối của nhà ngay lúc đó, nhưng khi liếc mắt ngay lập tức vào trong xó nhà và nhìn rõ ngay từng sợi lông con mèo mun đang nấp trong góc, lúc ấy chúng ta lại chỉ có cảm giác bên ngoài cực kì chói mà không thể nào đồng thời nhìn được rõ mây bên ngoài.

Ảnh JPG được ghép từ kỹ thuật AEB cũng sẽ không làm được điều này.

Thế nhưng với màn hình thì lại khác nha. 1 ví dụ dễ hiểu là màn hình từ iphone 11 trở lên là đã hỗ trợ tính năng HDR rất tốt rồi. Khi chụp 1 tấm ảnh chênh sáng mạnh, chúng ta có thể thấy rõ được mặt trời hoặc bóng đèn nhìn nó rất chói mắt, thế nhưng các chi tiết trong vùng tối vẫn cực kì rõ ràng. Giống như cái ảnh fen chụp ngoài trời kia, nếu quan sát trên màn iphone và đúng định dạng thì sẽ thấy chói mắt bởi ánh sáng phát ra từ đèn, chứ không phải là chỉ nhìn rõ chi tiết của cái đèn một cách đơn thuần.

Lúc ấy, nhìn vào màn hình thì đồng tử của chúng ta sẽ co giãn tùy vào việc mình nhìn vào đâu, y chang ngoài đời thật.

Nói cách khác, khái niệm HDR hiện nay theo mình, đầy đủ thì phải nói rằng nó bao gồm cả độ chênh lệch sáng tối và sự "chuẩn màu" nữa. Chứ không đơn thuần là việc hiển thị đủ chi tiết của vùng sáng hay vùng tối.

Hôm qua trong lúc hậu kỳ ảnh, mình có gặp 1 tình huống thế này.
Raw là 5 tấm chụp AEB.
1. Mình lấy tấm ở giữa với EV=0 và hậu kì cho ra ảnh nhìn rất ok ngon lành. Đủ chi tiết vùng sáng tối.

2. Combine 5 tấm đó lại thành ảnh HDR, và điều kì lạ là mình thấy nó không khác ảnh SDR lắm về độ sáng hay màu sắc. Lúc ấy mình đang bật chế độ "visualize for SDR" trong lightroom. Khi kết xuất ảnh đó ra JPG thì đúng là xem trên màn hình nó không hề khác gì so với ảnh SDR đã xuất ở bước 1.

3. Xuất ra jxl và xem trên ipad, do trên pc không đọc được file này. Lúc này thì thấy ảnh sáng hơn, màu sắc rực hơn nhưng nhìn chung là bị ... cháy sáng. Nhìn các vùng highlight cháy bét nhè, mặc dù trong lúc edit thì không hề cháy.

4. Cuối cùng mình kết luận là lúc edit mà màn hình vẫn để SDR thì dù có bật chế độ hỗ trợ của lightroom thì chỉnh vẫn sai bét. May mà màn pc của mình có hỗ trợ HDR, thế là bật cả HDR của PC lên, sau đó tắt mẹ chế độ hỗ trợ "visualize SDR" trong lightroom lên. Và bùm, nhìn nó cháy thật. Lúc này mình hậu kì lại và xuất sang jxl thì mở trên ipad kết quả y hệt trên pc. Và màu sắc trông nó trầm hơn là ảnh jpg ở bước 1 và 2, tuy nhiên cảm giác màu sắc nó chân thực hơn rất nhiều. Cuối cùng là nhìn vào chỗ tối thì đồng tử mình giãn ra để nhìn rõ được chi tiết, còn nhìn vào chỗ sáng thì đồng tử co lại để vẫn nhìn rõ được chi tiết. Đúng y ngoài đời thật.

5. Vậy còn nếu xuất ảnh ở bước 4 ra jpg thì sao?
À thì trông kết quả nó buồn cười lắm. Về cơ bản thì nó giống như ảnh HDR fen làm hay mọi người làm thôi, nhìn rõ được cả vùng sáng và tối cùng lúc mà không phải co giãn đồng tử. Thế nhưng trong trường hợp của mình thì trông ảnh nó bị đậm màu hẳn lên, tức là kết quả về màu sắc thì nó không còn đúng thực tế và đúng ý mình nữa. Tất nhiên là mình có thể chủ động chỉnh màu theo ý muốn, nhưng như vậy nó lại lặp lại trường hợp số 2 và 3. Đó là nhìn jpg thì ưng, nhưng vẫn file đó mà xuất jxl thì nhìn cháy sáng bét nhè.

Tóm lại, theo mình thì thời đại bây giờ đã thay đổi. Để sản xuất và xem được ảnh HDR đúng nghĩa thì chúng ta phải đồng bộ hóa từ kỹ thuật chụp cho tới workflow làm việc và cả màn hình hiển thị nữa. Thiếu đi 1 trong 3 cái đó thì nó sẽ không còn là HDR đúng nghĩa.

Mình có để source raw và kết quả sau khi chỉnh ở dưới cho anh em thử. Với ảnh jxl anh em lưu về phần photo của iporn là xem được ngay.
 
Gì chứ con mac của em có chế độ HDR, bật lên chỉnh muốn mù mẹ mắt :beat_brick: nó làm sai khả năng nhận diện màu sắc, sáng tối, đen trắng

Gửi từ Iphone 13 Pro Max Alpine Green bằng vozFApp
 
Gì chứ con mac của em có chế độ HDR, bật lên chỉnh muốn mù mẹ mắt :beat_brick: nó làm sai khả năng nhận diện màu sắc, sáng tối, đen trắng

Gửi từ Iphone 13 Pro Max Alpine Green bằng vozFApp
macbook thì mình không đánh giá cao về màn hình lắm. Nhìn màu sắc dở ẹt luôn.
Mà nhìn chung bật HDR lên thì chói mắt lắm. Nên thường mình sẽ chỉnh màu và sáng tối sơ sơ ở SDR, bật HDR lên thì cân chỉnh lại tí rồi tắt đi thôi, chứ nhìn lâu muốn mù mắt
 
Những cái fen nói thì đúng không sai, nhưng mình thấy nó chỉ đúng 1 nửa.
Tức là nó sẽ đúng trước khi có sự xuất hiện của các thiết bị có khả năng hiển thị HDR.

Ví dụ như việc chúng ta combine ảnh AEB lại để ra được 1 tấm ảnh thể hiện đủ chi tiết của các vùng sáng và tối mà chụp ảnh bình thường không thể làm được, rồi gọi đó là HDR, thì thật ra nó sẽ đúng theo khái niệm cũ. Tức là 1 tấm ảnh thể hiện được đủ chi mọi chi tiết của các vùng sáng tối. Nhưng khi xem tấm ảnh đó, chắc chắn là chúng ta sẽ thấy hơi "kì lạ". Kì lạ ở đây đó là dường như trông hơi ảo ảo, ngoài đời thật chúng ta không bao giờ nhìn thấy khung cảnh nào như thế. Có thể là chúng ta nhìn được đầy đủ chi tiết, nhưng cảm giác chân thực về màu sắc thì không đúng.

Kỹ thuật này theo mình thì sẽ trở nên lỗi thời thôi, vì cùng với sự phát triển của khoa học kỹ thuật thì việc camera thu được dải DR lớn hơn trong 1 shot chụp là điều rất bình thường. Ví dụ như đa phần máy ảnh bây giờ thu được 12ev, nhưng cũng có những con thu được tới 15ev rồi. Và anh em nào chơi máy ảnh lâu năm thì cũng biết bây giờ chụp 1 tấm chênh sáng cực mạnh với máy đời mới thì về kéo chi tiết cho cân bằng lại nó dễ hơn máy ảnh cách đây 10 năm cực kì nhiều. Cho tới 1 lúc nào đó chúng ta sẽ không còn phải chụp AEB để có đủ thông tin nữa, mà oneshot rồi về kéo là ra.

Giờ lại nói về ngoài đời thật chúng ta thấy gì nhé.

Mắt người có khả năng "khép/mở khẩu" để quan sát được rõ ràng mọi chi tiết từ sáng tới tối trong 1 thời điểm cực kì ngắn. Đó là điều mà tất cả các kỹ thuật in ấn đều không thể làm được. Ví dụ khi mình tập trung nhìn ngoài trời thấy rõ từng làn mây rõ mồn một thì sẽ không thể nào quan sát được chi tiết trong góc tối của nhà ngay lúc đó, nhưng khi liếc mắt ngay lập tức vào trong xó nhà và nhìn rõ ngay từng sợi lông con mèo mun đang nấp trong góc, lúc ấy chúng ta lại chỉ có cảm giác bên ngoài cực kì chói mà không thể nào đồng thời nhìn được rõ mây bên ngoài.

Ảnh JPG được ghép từ kỹ thuật AEB cũng sẽ không làm được điều này.

Thế nhưng với màn hình thì lại khác nha. 1 ví dụ dễ hiểu là màn hình từ iphone 11 trở lên là đã hỗ trợ tính năng HDR rất tốt rồi. Khi chụp 1 tấm ảnh chênh sáng mạnh, chúng ta có thể thấy rõ được mặt trời hoặc bóng đèn nhìn nó rất chói mắt, thế nhưng các chi tiết trong vùng tối vẫn cực kì rõ ràng. Giống như cái ảnh fen chụp ngoài trời kia, nếu quan sát trên màn iphone và đúng định dạng thì sẽ thấy chói mắt bởi ánh sáng phát ra từ đèn, chứ không phải là chỉ nhìn rõ chi tiết của cái đèn một cách đơn thuần.

Lúc ấy, nhìn vào màn hình thì đồng tử của chúng ta sẽ co giãn tùy vào việc mình nhìn vào đâu, y chang ngoài đời thật.

Nói cách khác, khái niệm HDR hiện nay theo mình, đầy đủ thì phải nói rằng nó bao gồm cả độ chênh lệch sáng tối và sự "chuẩn màu" nữa. Chứ không đơn thuần là việc hiển thị đủ chi tiết của vùng sáng hay vùng tối.

Hôm qua trong lúc hậu kỳ ảnh, mình có gặp 1 tình huống thế này.
Raw là 5 tấm chụp AEB.
1. Mình lấy tấm ở giữa với EV=0 và hậu kì cho ra ảnh nhìn rất ok ngon lành. Đủ chi tiết vùng sáng tối.

2. Combine 5 tấm đó lại thành ảnh HDR, và điều kì lạ là mình thấy nó không khác ảnh SDR lắm về độ sáng hay màu sắc. Lúc ấy mình đang bật chế độ "visualize for SDR" trong lightroom. Khi kết xuất ảnh đó ra JPG thì đúng là xem trên màn hình nó không hề khác gì so với ảnh SDR đã xuất ở bước 1.

3. Xuất ra jxl và xem trên ipad, do trên pc không đọc được file này. Lúc này thì thấy ảnh sáng hơn, màu sắc rực hơn nhưng nhìn chung là bị ... cháy sáng. Nhìn các vùng highlight cháy bét nhè, mặc dù trong lúc edit thì không hề cháy.

4. Cuối cùng mình kết luận là lúc edit mà màn hình vẫn để SDR thì dù có bật chế độ hỗ trợ của lightroom thì chỉnh vẫn sai bét. May mà màn pc của mình có hỗ trợ HDR, thế là bật cả HDR của PC lên, sau đó tắt mẹ chế độ hỗ trợ "visualize SDR" trong lightroom lên. Và bùm, nhìn nó cháy thật. Lúc này mình hậu kì lại và xuất sang jxl thì mở trên ipad kết quả y hệt trên pc. Và màu sắc trông nó trầm hơn là ảnh jpg ở bước 1 và 2, tuy nhiên cảm giác màu sắc nó chân thực hơn rất nhiều. Cuối cùng là nhìn vào chỗ tối thì đồng tử mình giãn ra để nhìn rõ được chi tiết, còn nhìn vào chỗ sáng thì đồng tử co lại để vẫn nhìn rõ được chi tiết. Đúng y ngoài đời thật.

5. Vậy còn nếu xuất ảnh ở bước 4 ra jpg thì sao?
À thì trông kết quả nó buồn cười lắm. Về cơ bản thì nó giống như ảnh HDR fen làm hay mọi người làm thôi, nhìn rõ được cả vùng sáng và tối cùng lúc mà không phải co giãn đồng tử. Thế nhưng trong trường hợp của mình thì trông ảnh nó bị đậm màu hẳn lên, tức là kết quả về màu sắc thì nó không còn đúng thực tế và đúng ý mình nữa. Tất nhiên là mình có thể chủ động chỉnh màu theo ý muốn, nhưng như vậy nó lại lặp lại trường hợp số 2 và 3. Đó là nhìn jpg thì ưng, nhưng vẫn file đó mà xuất jxl thì nhìn cháy sáng bét nhè.

Tóm lại, theo mình thì thời đại bây giờ đã thay đổi. Để sản xuất và xem được ảnh HDR đúng nghĩa thì chúng ta phải đồng bộ hóa từ kỹ thuật chụp cho tới workflow làm việc và cả màn hình hiển thị nữa. Thiếu đi 1 trong 3 cái đó thì nó sẽ không còn là HDR đúng nghĩa.

Mình có để source raw và kết quả sau khi chỉnh ở dưới cho anh em thử. Với ảnh jxl anh em lưu về phần photo của iporn là xem được ngay.
Không có màn hình xịn có HDR mode nên mình không biết trải nghiệm khi nhìn ảnh HDR trên đó nó ntn :too_sad:
Kỹ thuật này theo mình thì sẽ trở nên lỗi thời thôi, vì cùng với sự phát triển của khoa học kỹ thuật thì việc camera thu được dải DR lớn hơn trong 1 shot chụp là điều rất bình thường. Ví dụ như đa phần máy ảnh bây giờ thu được 12ev, nhưng cũng có những con thu được tới 15ev rồi. Và anh em nào chơi máy ảnh lâu năm thì cũng biết bây giờ chụp 1 tấm chênh sáng cực mạnh với máy đời mới thì về kéo chi tiết cho cân bằng lại nó dễ hơn máy ảnh cách đây 10 năm cực kì nhiều. Cho tới 1 lúc nào đó chúng ta sẽ không còn phải chụp AEB để có đủ thông tin nữa, mà oneshot rồi về kéo là ra.
Thực ra thì công nghệ sensor để giúp cải thiện DR đã gần như đứng yên hơn 10 năm nay rồi. Từ năm 2012 khi Nikon ra mắt mấy con Nikon D800, D600 với DR lên tới 14eV (theo đo đạc của DXO, nhưng thực tế thì chỉ dùng được ở ngưỡng 12eV thôi, cái này mình giải thích sau).
Kể từ đó đến giờ thì DR của máy ảnh chỉ loanh quanh ở ngưỡng 14.4, 14.5eV là cùng, mấy con 15eV chỉ là quảng cáo, thực tế là 14.5 làm tròn lên. Mà con số này cũng chỉ là "quảng cáo" thôi.
Vì sao mình nói con số 14eV đó là quảng cáo thì bởi vì đó là con số được đo đạc theo DXOmark, cái DR này được đo theo tỷ lệ tín hiệu/nhiễu (signal/noise ratio, mình sẽ viết tắt là SNR). Ở giá trị 14 15eV thì các hãng đang quảng cáo hiện giờ thì cái SNR nó là 1:1, nghĩa 1 tín hiệu/1 nhiễu. Thím có thể tưởng tượng ảnh khi đó giống như tấm ảnh mà thím chụp ở iso 204800 vậy, nát bét.
Còn giá trị 12eV như mình nói ở post trước là nó đo tại giá trị SNR 20:1, ở giá trị này có giá trị sử dụng thực tế hơn, ảnh vẫn noise ở mức chấp nhận được.
Ngày xưa dùng máy crop thì mình phải chụp HDR lúc bình minh/ hoàng hôn. Nhưng giờ dùng mấy con FF đời mới thì đúng như thím nói là 1 tấm cũng kéo được thật, nếu chọn đúng thời điểm. Mình lười hoặc chụp cảnh có chuyển động ko AEB được thì mình cũng chụp 1 tấm rồi kéo lên vẫn ngon. Nhưng muốn ảnh hoàn hảo nhất có thể về mặt kỹ thuật, ít noise nhất có thể thì mình vẫn chụp AEB rồi xử lý.
Cái sự "kỳ lạ" mà thím nói khi xem ảnh chụp và xử lý bằng kỹ thuật HDR nó còn tới từ kỹ năng xử lý khi hậu kỳ nữa. Mình hồi xưa mới chơi máy ảnh cũng thích kéo sáng trưng vùng shadow lên để "khoe" kỹ thuật, khoe cái máy có sensor xịn, nên nhìn tổng thể bức ảnh nó rất giả. Bây giờ thì vùng tối mình vẫn sẽ để nó tối, nhưng khác biệt so với tấm ảnh SDR là vùng tối nó sẽ "sạch" hơn rất nhiều, nhìn tổng thể bức ảnh có thể chỗ tối đó nó tối thui, nhưng khi in/phóng lớn nó ra, hoặc khi zoom vào, thì người xem vẫn nhìn ra được chi tiết ở vùng đó, chứ ko phải là 1 mảng bết đen sì không còn chi tiết nào.
Hiện giờ thì kỹ thuật hậu kỳ ảnh tiên tiến nhất mà các NAG phong cảnh Pro sử dụng là Luminosity Mask, bản chất nó cũng giống với HDR nhưng HDR là gần như Auto để máy nó tự ghép hoàn toàn, còn Luminosity Mask thì NAG sẽ chủ động chọn và tách ra các vùng riêng để xử lý hậu kỳ.
Còn vụ chuẩn màu trong ảnh phong cảnh nói riêng hay ảnh nghệ thuật nói chung mình nghĩ nó chỉ dừng ở mức tương đối thôi. Ảnh sản phẩm, thời trang, nội thất thì chuẩn màu rất quan trọng nhưng khi hậu kỳ thì chúng ta có thể kiểm soát và xử lý màu cho chuẩn cho dù dùng kỹ thuật HDR hay Luminosity Mask.
 
À hỏi thử anh em câu này. Theo anh em thì thế nào được gọi là ảnh HDR.
Tự nhiên chụp AEB về rồi ghép vào ra HDR xong tôi thấy nó đéo giống những gì người ta nói trên mạng các fen ạ.
Ví dụ tôi thấy ảnh HDR thật sự thì thường sẽ có màu sắc không tươi như SDR.
Và cái tiếp theo là thật ra có combine ảnh AEB lại rồi xuất ra JPG thì nó vẫn là ... SDR mà thôi, không phải HDR. Kiểu như hình ảnh dưới đây thì thật ra đều là SDR hết, chả qua 1 cái tương phản mạnh 1 cái tương phản yếu và khác nhau về độ tươi màu sắc thôi.

Muốn xem ảnh HDR xịn được thì chỉ có xuất jxl xong rồi xem trên iphone hoặc ipad. Hoặc lúc edit trong lightroom thì bật HDR lên và yêu cầu màn hình cũng phải bật chế độ HDR, chứ không thì thành SDR hết.

893×562 jpg
350.7 kB

WRblN6.jpg
HDR (High Dynamic Range) tiếng Việt thường dịch là dải tương phản động cao.
Bạn hình dung cảnh sắc bạn thường nhìn bên ngoài đời dưới ánh nắng mặt trời chính là high dynamic range. Tức là độ sáng trải dài từ rất tối (bóng tối, góc khuất) đến rất sáng (vùng lộ sáng dưới ánh nắng mặt trời). Nếu dùng khái niệm EV (exposure value) thì những cảnh có độ chênh sáng lớn hơn 15 stop (áng chừng) thì được gọi là cảnh có độ tương phản cao. Độ nhạy sáng của cảm biến máy ảnh trước đây chỉ có dải tương phản từ 12 - 13 stop thôi, do vậy nó không đủ khả năng để thể hiện hết toàn bộ các nội dung trong khung cảnh, nếu nhìn được chi tiết trong vùng tối thì vùng sáng sẽ bị mất chi tiết, nếu nhìn được chi tiết trong vùng sáng thì vùng tối sẽ bị mất chi tiết.
Vì cảm biến máy ảnh phát triển đến mức nào thì cũng không thể đủ để bắt đủ độ chênh sáng trong khung cảnh thực (có thể lên đến hơn 20 stop) (hiện tại cảm biến tốt nhất đâu đó cũng chỉ 15 stop thôi) nên người ta cần chụp ít nhất 3 tấm: 1 tấm thiếu sáng, 1 tấm đủ sáng, 1 tấm dư sáng. Tấm đủ sáng để lấy chi tiết phần lớn khung cảnh (vùng tối và vùng sáng sẽ bị mất chi tiết), tấm dư sáng để lấy chi tiết vùng tối (phần sáng sẽ mất chi tiết), tấm thiếu sáng để lấy chi tiết vùng sáng (vùng tối sẽ mất chi tiết). Gộp 3 ảnh này lại với nhau về lý thuyết sẽ cho ảnh đủ sáng mà vẫn có đủ chi tiết ở cả 3 vùng tối, bình thường, sáng. Người ta gọi đây là kỹ thuật HDR trong nhiếp ảnh. (mặc dù vậy vì nhiều lý do mà một tấm hình HDR cho hình ảnh trung thực như mắt nhìn rất khó, phần lớn đều bị rợ màu và mất tự nhiên)
Tuy nhiên, nếu chỉ vậy thì vẫn không đủ để tái hiện đúng khung cảnh thực vì hình ảnh vẫn chỉ thể hiện được trên màn hình, thông thường độ sáng chỉ từ 200-600 nit. Độ sáng này còn rất xa mới bằng độ sáng của khung cảnh thực, nên ảnh HDR (giả sử đã có chất lượng xử lý tốt để giống như thực) trên các màn hình này chỉ là các hình ảnh hơi nhạt nhòa và thiếu tương phản. Do vậy, để thực hiện được mục đích của HDR là thể hiện được phong cảnh trên màn hình giống như thực tế thì ta cần phải nâng độ sáng màn hình lên. Tức là muốn xem ảnh HDR đúng nghĩa cần phải có 3 thứ:
① Ảnh HDR có đầy đủ chi tiết trong các vùng độ sáng thấp, trung bình và sáng (dùng kỹ thuật xử lý HDR để có ảnh này)
② Màn hình có độ tương phản cao và độ sáng cao (tùy tiêu chuẩn mà hiện nay yêu cầu từ 1000 - 2000 nit).
③ Không gian màu (cả ảnh và màn hình) phải đủ rộng để chứa đầy đủ thông tin màu gần giống như màu thực tế nhất.

Nếu 3 yêu cầu trên được thỏa mãn, hình ảnh (video cũng giống như vậy) hiển thị lên màn hình sẽ có độ sáng rất cao (cường độ ánh sáng mạnh), màu sắc tươi tắn và đầy đủ các chi tiết như khi ta nhìn bằng mắt thường ở khung cảnh thực tế (tất nhiên là độ sáng trên màn hình cũng sẽ không bằng thực tế nhưng nó cho ta cảm giác gần giống như vậy (vì khung cảnh xung quanh màn hình là trong phòng nên tối hơn rất nhiều so với bên ngoài nên cho cảm giác nhìn gần giống như vậy).
Tấm hình minh họa ở trên là minh họa cho thành phẩm HDR đang được chiếu trên màn HDR. Người ta phải làm giả độ sáng rất cao bằng cách làm cháy sáng vùng sáng để cho ta có cảm giác là hình ảnh sáng hơn nhiều, nói chung không đúng bản chất nhưng cho ta cảm giác về khái niệm mà HDR làm được.
 
Mấy thím cho hỏi có cách nào điều khiển con A7r2 qua điện thoại iphone hoặc dùng làm màn phụ được ko ạ:burn_joss_stick:
Cài app

Imaging Edge Mobile

này thím nhé, nhưng dùng lỏ lắm. Mới mua máy thì mình háo hức dùng chứ bỏ xó 7 năm nay rồi. Không biết bây giờ bọn dev Sony đã cải thiện gì cái app chưa mà nhìn đánh giá trên App Store thì có vẻ là chưa
 
Các bác giải thích nhiều từ kỹ thuật quá em đọc hốt tưởng học hàn lâm gì đó, đau hết đầu luôn. Thực chất đó là việc giữ lại nhiều chi tiết nhất có thể của 2 vùng sáng nhất và tối nhất trogn bức ảnh, còn việc mode HDR của màn mình bản chất là nó đẩy phần tối nhất và sáng nhất của màn hình lên, màn hình rẻ tiền thì vùng highlight thường không cao và rất gần vùng white (mất hoàn toàn chi tiết chỉ còn màu trắng) và vùng shadow/black đơn giản thế thôi màn xịn hơn thì 2 vùng này nó "sâu" hơn nên mặc dù rất gần 2 điểm black/white nhưng vẫn cho chi tiết chứ không phải là mất luôn. Còn việc kéo sáng các vùng lên được nhiên sẽ làm sai màu vì nó thay đổi sắc độ của màu, thực tế nó không có đủ sáng màu sẽ ở giải thấp nhất nhưng khi kéo sáng lên sắc độ đã thay đổi còn chưa kể có thể LR sẽ thêm saturation vào màu gốc để bù màu nữa
 
I will never be with you... by I'm a cutie pie, trên Flickr
Hôm chụp cái ảnh này là lần cuối dùng app lỏ của Sony để remote máy ảnh
Mình chắc chắn 100% là đã cài thiết lập chụp ảnh RAW.
Nhưng dùng app chụp xong về cắm thẻ vào máy thì toàn jpeg, cái đkm Sony :ah:
May là mình ăn quả đắng với cái app ngu học này 1 lần rồi chụp vài tấm remote qua điện thoại thôi, cảm thấy đéo nên tin tưởng cái app này quá nhiều nên tắt app đi bấm chay bằng dây bấm mềm, về mới có ảnh RAW mà nghịch.
Sau này đi làm ở bên đây thì tôi phát hiện ra là làm phần mềm ngu không phải là đặc sản của mỗi thằng Sony mà là đặc sản chung của công ty Nhật cmnr :beat_shot:
 
Back
Top