<menu id="guoca"></menu>
<nav id="guoca"></nav><xmp id="guoca">
  • <xmp id="guoca">
  • <nav id="guoca"><code id="guoca"></code></nav>
  • <nav id="guoca"><code id="guoca"></code></nav>

    fofa爬蟲 + 源碼泄露PoC之夢幻聯動

    一顆小胡椒2022-07-20 11:09:35

    相信大家一定對源碼泄露并不陌生,這里也不贅述這個漏洞的理和危害了,網上一搜也都有好多好多,看都看不完~~~

    那今天這里我們講啥呢?那就直入主題吧~今天這里我就貼出我自己參考的加上自己寫的fofa爬蟲 + 源碼泄露PoC之夢幻聯動,希望能對大家有幫助。

    fofa爬蟲

    因為這里我沒錢,充不起會員,所以其中只能爬1—5頁,應該能滿足大部分人的需求了~反正我滿足了, 因為我沒錢,嗚嗚嗚

    import requests
    from lxml import etree
    import random
    import time
    import urllib
    import base64
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36",
    }
    #這里的代理IP需要自己去爬取或者添加
    proxylist = [
        {'HTTP': '112.84.54.35:9999'},
        {'HTTP': '175.44.109.144:9999'},
        {'HTTP': '125.108.119.23:9000'}
    ]
    proxy = random.choice(proxylist)
    def loadpage(url,begin,end):
        for page in range(begin,end+1):
            print("正在爬取第"+str(page)+"頁:")
            fullurl = url+"&page="+str(page)
            response = requests.get(fullurl,headers=headers,proxies=proxy).text
            html = etree.HTML(response)
            req = html.xpath('//div[@class="fl box-sizing"]/div[@class="re-domain"]/a[@target="_blank"]/@href')
            result = '\n'.join(req)
            with open(r'url.txt',"a+") as f:
                f.write(result+"\n")
                print("----------------第"+str(page)+"頁已完成爬取----------------"+'\n')
    if __name__ == '__main__':
        q = input('請輸入關鍵字,如 "app="xxx" && country="CN":等等')
        begin = int(input("請輸入開始頁數 最小為1:"))
        end = int(input("請輸入結束頁數 最大為5:"))
        cookie = input("請輸入你的Cookie:")
        cookies = '_fofapro_ars_session='+cookie+';result_per_page=20'
        headers['cookie'] = cookies
        url = "https://fofa.so/result?"
        key = urllib.parse.urlencode({"q":q})
        key2 = base64.b64encode(q.encode('utf-8')).decode("utf-8")
        url = url+key+"&qbase64="+key2
        loadpage(url,begin,end)
        time.sleep(5)
    

    源碼泄露PoC

    其中加入time.sleep()也是為了安全考慮吧,慢一點就慢一點,穩就行了

    import requests
    import time
    with open("url.txt", 'r') as temp:
        for url in temp.readlines():
            url = url.strip('\n')
            with open("web.txt", 'r') as web:
                webs = web.readlines()
            for web in webs:
                web = web.strip()
                u = url + web
                r = requests.get(u)
                # print("url為:"+u)
                print("url為:" + u + ' ' + "狀態為:%d" %r.status_code)
                time.sleep(2)          #想睡多久看自己~
            w = open('write.txt', 'w+')
            for web in webs:
                web = web.strip()
                u = url + web
                r = requests.get(u)
                w.write("url為:" + u + ' ' + "狀態為:%d" %r.status_code + '\n')
    

    夢幻聯動

    第一步

    先把web.txt準備好,里面放上自己想跑的目錄,這里截取部分我的txt吧。因為我的txt也很簡陋,所以這里就不全貼出來了.

    第二步

    用fofa爬蟲前首先我們需要獲得其中的_fofapro_ars_session

    先要打開fofa,進行登錄

    然后去cookie中找到它,復制下來

    然后就可以用fofa爬蟲爬取我們所需要的url了,就像這樣

    然后按下回車,就會進行爬取,然后導入到我們的url.txt中,大家可以在這個文件中進行查看,也可以直接在PyCharm中查看

    這里如果不放心可以自己在fofa中搜索一遍進行比對,發現是一模一樣的

    下一步就是開始啟動我們的源碼泄露PoC了

    這里直接Run

    然后就是進入等待階段。等待的時候可以泡上杯咖啡喝,啊,舒服~

    結束后,這份最后導出來的是write.txt大家可以直接在PyCharm中看,也可以打開write.txt中查看。我相信大家都是會看狀態碼的,這里我就不贅述了

    測試結束

    福利

    這里如果是只想測試一個網站,我這里附上另外一個PoC,大家可以用下面這個PoC,這里就不給大家演示了,跟上面的差不多,只是這份最后導出來的是write easy.txt

    import requests
    import time
    url=''      #想掃哪個網站自行將url粘貼到這里
    with open("web.txt", 'r') as web:
        webs = web.readlines()
    for web in webs:
        web = web.strip()
        u = url + web
        r = requests.get(u)
        #print("url為:"+u)
        print("url為:" + u + ' ' + "狀態為:%d"%r.status_code)
        time.sleep(2)       #想睡多久看自己~
    w = open('write easy.txt', 'w+')
    for web in webs:
        web = web.strip()
        u = url + web
        r = requests.get(u)
        w.write("url為:" + u + ' ' + "狀態為:%d"%r.status_code + '\n')
    
    url網站源碼
    本作品采用《CC 協議》,轉載必須注明作者和本文鏈接
    id=10結尾,我們猜測可能是一個sql注入點。首先我們在id=10后面加上一個單引號’進行判斷。網站所呈現的內容是由代碼中寫入的sql語句調用數據庫中的內容進行一個呈現,例如我們剛剛看到的文字。而sql注入漏洞一般是由于程序員書寫的sql語句不規范所導致的安全事件。例如網站源碼中使用如下的sql語句進行查詢。發現10列的時候報錯,說明不足10列,我們繼續縮小范圍。發現會分別回顯第三列、第五列和第七列。
    信息收集常用的工具
    2022-07-23 22:07:16
    云悉在線指紋識別。
    網站備份文件泄露可能造成的危害:1. 網站存在備份文件:網站存在備份文件,例如數據庫備份文件、網站源碼備份文件等,攻擊者利用該信息可以更容易得到網站權限,導致網站被黑。
    一般網站主站信息都比較少,我們需要在滲透測試過程的信息搜集階段,我們可能會自動化工具獲得來網站其他路徑如:后臺、其他未授權訪問路徑,掃描得到敏感文件的路徑,從而找到敏感數據。 根據路徑爆破工具進行使用與測評分析工具的特點,批量訪問發現的路徑查找敏感路徑。工具爬蟲掃描得到敏感文件的路徑,找到敏感數據。
    目錄掃描可以讓我們發現這個網站存在多少個目錄,多少個頁面,探索出網站的整體結構。通過目錄掃描我們還能掃描敏感文件,后臺文件,數據庫文件,和信息泄漏文件等等 目錄掃描有兩種方式: ?使用目錄字典進行暴力才接存在該目錄或文件返回200或者403;?使用爬蟲爬行主頁上的所有鏈接,對每個鏈接進行再次爬行,收集這個域名下的所有鏈接,然后總結出需要的信息。
    結果發現根本解不出,后來發現原來是加鹽MD5,想著先把鹽值找到或許就能有一線突破最終找到的鹽值和賬號對應如下:. 我們可以通過BLL這個名字在DTcms.BLL文件夾中找到manager.cs接著在manager類中的GetModel方法中,發現在登錄的時候會先從數據庫中獲得這個用戶的鹽值,然后根據輸入的密碼與鹽值調用DESEncrypt.Encrypt進行加密。后來知道了這里DESEncrypt是一個類,Encrypt是一個靜態函數,所以可以直接調用接著我們審計DESEncrypt中的Encrypt方法。在文件夾中搜索DESEncrypt,最終在DTcms.Common中找到了DESEncrypt類。/// DES加密/解密類。
    這里建議doc文檔,圖片可以貼的詳細一些。爆破完好了,一樣的6。想給它一個清晰完整的定義其實是非常困難的。
    一、漏洞挖掘的前期–信息收集 雖然是前期,但是卻是我認為最重要的一部分; 很多人挖洞的時候說不知道如何入手,其實挖洞就是信息收集+常規owasp top 10+邏輯漏洞(重要的可能就是思路猥瑣一點),這些漏洞的測試方法本身不是特別復雜,一般混跡在安全圈子的人都能復現漏洞。接下來我就著重說一下我在信息收集方面的心得。
    一顆小胡椒
    暫無描述
      亚洲 欧美 自拍 唯美 另类