🤗안녕하세요! 모두를 위한 SW/AI 뉴스를 전하는 모두의연구소입니다!
(모두의연구소는요!) 지식을 나누며 함께 성장하는 국내 최대 AI 커뮤니티입니다🌟
그럼, 오늘의 SW/AI 데일리 뉴스를 전해 드릴게요!
1. Java 가상 스레드에 고정 문제 발생
Java의 가상 스레드는 동기화된 메소드 사용 시 "고정" 문제에 직면했습니다. Oracle은 이 문제를 설명하고, Project Loom의 새로운 초기 접근 빌드가 이를 해결하기 위해 객체 모니터 구현을 변경했다고 발표했습니다. 이 변경은 성능과 확장성에 영향을 줄 수 있는 문제를 방지하기 위해, 가상 스레드와 동기화된 라이브러리 사용 코드의 신뢰성과 성능 테스트를 위한 사용자의 도움을 요청합니다.
https://www.infoworld.com/article/3713220/java-virtual-threads-hit-with-pinning-issue.html
2. PostgreSQL은 얼마나 많은 RAM을 사용하나요?
자주 제기되는 질문 중 하나는 PostgreSQL이 너무 많은 메모리를 사용하는 이유와 이를 어떻게 줄일 수 있는지에 관한 것입니다. 문제를 "최적화"하기 전에, 문제를 이해해야 합니다. 그러나 표준 도구인 ps와 top은 정확한 정보를 제공하지 않습니다. 예를 들어, 4GB의 공유 버퍼와 100MB의 work_mem으로 설정된 간단한 PostgreSQL 인스턴스에서 작업을 실행한 후 ps는 실제 사용량과 다른 정보를 보여줍니다.
https://www.depesz.com/2012/06/09/how-much-ram-is-postgresql-using/
3. LLM 유해 출력 생성 우려? Red-Teaming Resistance Leaderboard로 해결하세요!
이번 Hugging Face 블로그는 대규모 언어 모델(LLM)의 안전성을 테스트하기 위한 새로운 벤치마크인 Red-Teaming Resistance Leaderboard에 대한 것입니다. 현재 다양한 커뮤니티에서LLM이 유해하거나 안전하지 않은 출력을 생성할 수 있다는 우려와 이를 테스트하는 더 나은 방법이 필요하다는 점을 논의하고 있습니다. Hugging Face가 만든 Red-Teaming Resistance Leaderboard는 인간이 만든 프롬프트를 사용하여 LLM을 다양한 잠재적 공격에 대해 테스트하고, LLM이 유해한 출력을 생성하지 않는 정도를 측정하여 견고성을 측정합니다. 또한 지도자는 오용 범주별로 결과를 분류합니다. 혐오 발언, 폭력, 불법 활동과 같은. 저자는 지도자가 LLM의 안전성을 개선하는 데 도움이 되기를 바랍니다.
https://huggingface.co/blog/leaderboards-on-the-hub-haizelab
4. Google Keyboard, 개인정보 보호하면서 정확성 향상!
Google AI는 Google Keyboard에서 언어 모델을 사용할 때 사용자의 개인 정보를 보호하면서 모델을 훈련하는 것을 목표로 합니다. Google AI는 federated learning과 differential privacy라는 두 가지 기술을 사용하여 이 문제를 해결했습니다. federated learning은 모델을 훈련하기 위해 사용자의 데이터를 서버로 보내지 않고 사용자의 장치에서 데이터를 훈련하는 방법입니다. differential privacy는 모델이 사용자의 개인 정보를 보호하기 위해 약간의 노이즈를 추가하는 방법입니다. 이 모델은 사용자가 Google Keyboard 타이핑을 더 정확하고 빠르게 만들지만 개인정보도 보호할 수 있는 새로운 기법이라 볼수 있습니다.
https://blog.research.google/2024/02/advances-in-private-training-for.html
모두의연구소가 만든 새로운 SW/AI 교육 ‘오름캠프’
💙국내 최초 Flutter 도서 ‘생존코딩’ 오준석 강사의 3개월 앱 개발 과정 모집 중!
▶ https://bit.ly/482TuPf